162
Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite 2 Technikfolgenabschätzung Technology Assessment TECHNIKFOLGENABSCHÄTZUNG Theorie und Praxis Nr. 3, 13. Jahrgang – Dezember 2004 Schwerpunktthema Wissenspolitik – ein neues Forschungs- und Handlungsfeld? G. Bechmann, N. Stehr: Einführung in den Schwerpunkt 5 G. Böhme: Die Moralisierung der Wissenschaftspolitik 15 S. Fuller: The University as a Creative Destroyer of Social Capital 21 W. Leiss: Policing Science: Genetics, Nanotechnology, Robotics 32 T. Duster: Feedback Loops in the Politics of Knowledge Production 40 J. Lezaun: Genetically Modified Foods and Consumer Mobilization in the UK 49 S. Turner: Speaking Truth to Bureaucratic Power: Three National Responses to Cholera 57 P. Wehling: Reflexive Wissenspolitik: Öffnung und Erweiterung eines neuen Politikfeldes 63 TA-Institutionen und -programme „Small technology – Big Consequences“: Building up the Dutch debate on nanotechnology from the bottom (R. van Est, I. van Keulen) 72 Bundesweiter Diskurs: Momentaufnahme Nachhaltigkeit und Gesellschaft (Chr. Averbeck, K. Crome, A. Lüth, A. Nick) 80 TA-Konzepte und -Methoden BioMedical Technology Assessment: modulare Folgenerfassung und perspektivensensitive Bewertung biomedizinischer Innovationen (R. Kollek) 85 Ergebnisse von TA-Projekten – Neue TA-Projekte Biologisch-dialogisch: Risikokommunikation zu Grüner Gentechnik (M. Hertlein, E. Klotmann, Chr. Rohloff) 89

TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

Page 1: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse

Fortsetzung Seite 2 Technikfolgenabschätzung • Technology Assessment

TECHNIKFOLGENABSCHÄTZUNG Theorie und Praxis Nr. 3, 13. Jahrgang – Dezember 2004

Schwerpunktthema Wissenspolitik – ein neues Forschungs- und Handlungsfeld?

G. Bechmann, N. Stehr: Einführung in den Schwerpunkt 5 G. Böhme: Die Moralisierung der Wissenschaftspolitik 15 S. Fuller: The University as a Creative Destroyer of Social Capital 21 W. Leiss: Policing Science: Genetics, Nanotechnology, Robotics 32 T. Duster: Feedback Loops in the Politics of Knowledge Production 40 J. Lezaun: Genetically Modified Foods and Consumer Mobilization

in the UK 49

S. Turner: Speaking Truth to Bureaucratic Power: Three National Responses to Cholera

57

P. Wehling: Reflexive Wissenspolitik: Öffnung und Erweiterung eines neuen Politikfeldes

63

TA-Institutionen und -programme

„Small technology – Big Consequences“: Building up the Dutch debate on nanotechnology from the bottom (R. van Est, I. van Keulen)

72

Bundesweiter Diskurs: Momentaufnahme Nachhaltigkeit und Gesellschaft (Chr. Averbeck, K. Crome, A. Lüth, A. Nick)

80

TA-Konzepte und -Methoden BioMedical Technology Assessment: modulare Folgenerfassung und perspektivensensitive Bewertung biomedizinischer Innovationen (R. Kollek)

85

Ergebnisse von TA-Projekten – Neue TA-Projekte

Biologisch-dialogisch: Risikokommunikation zu Grüner Gentechnik (M. Hertlein, E. Klotmann, Chr. Rohloff)

89

Page 2: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

Fortsetzung des Inhaltsverzeichnisses

Fortsetzung Seite 3

Seite 2 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Rezensionen und Kurz-vorstellungen von Büchern

U. Dolata, 2003: Unternehmen Technik. Akteure, Interaktionsmuster und strukturelle Kontexte der Technikentwicklung. (Rezension von F. Gloede)

94

U. Albertshauser, N. Malanowski, 2004: Innovations- und Technikanalyse im Management – Perspektiven für die strategische Unternehmensführung. (Rezension von O.F. Bode)

98

W. Bender, J.C. Schmidt (Hrsg.), 2003: Zukunftsorientierte Wissenschaft. Prospektive Wissenschafts- und Technikbewertung. (Rezension von F. Vogelsang)

100

N.C. Karafyllis, T. Haar (Hrsg.), 2004: Technikphilosophie im Aufbruch. Festschrift für Günter Ropohl. (Rezension von A. Grunwald)

102

St. Bannas, 2003: Faire Marktwirtschaft. Ein Modell zu ‚No Logo’. (Rezension von J. Kopfmüller)

106

Nachrichten Transport Research Knowledge Centre: Launch of the revamped website

112

Bibliographie zu Fragen der Inter- und Transdisziplinarität 112

Diskussionsforum Innovationspolitische Aspekte der geplanten Einführung eines elektronischen Maut-Systems in Deutschland (G. Halbritter, T. Fleischer, Ch. Kupsch)

113

Tagungsberichte und -ankündigungen

Conference: Converging Technologies for a diverse Europe (Brussels, 14.-15. September 2004)

118

Zukunftsforum Mobiles Internet 2010 (Petersberg, 14.-15. September 2004)

125

Workshop: Auf dem Weg zu interdisziplinären Methodologien. Forschungsstand und offene Fragen (Karlsruhe, 24.-25. Juni 2004)

129

Internationale Konferenz: nanoDE – Factors for Success (Wiesbaden, 21.-24. Juni 2004)

134

Tagung: Raum für Nachhaltigkeit. Zur Kontextualisierung des Leitbilds (Leipzig, 17.-18. Juni 2004)

135

Tagung: Ökologische Ökonomie: eine neue Wissenschaft? (Heidelberg, 6.-8. Mai 2004)

141

- Tagungsankündigungen / Events - 143

Page 3: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

Fortsetzung des Inhaltsverzeichnisses

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 3

ITAS-News “Technik in einer fragilen Welt – Perspektiven der Technikfolgenabschätzung“ Bericht über die erste Konferenz des „Netzwerks TA“ (NTA1)

152

New EU Project: The Institutionalisation of Ethics in Science Policy; practices and impact (INES)

154

ITAS-Workshop zur Endlagerung nuklearer Abfälle in Deutschland 155 Präsentation der ITAS-Projekte auf der Tagung „Nachwachsende

Rohstoffe – Forschungsprojekte für den Ländlichen Raum 156

Neue Dissertationsprojekte 157 • Zielkonflikte im integrativen Nachhaltigkeitskonzept der HGF –

Auftreten und Lösungsmöglichkeiten am Beispiel der nationalen Bioenergieziele Deutschlands

157

• Identität und Gemeinschaft in der netzbasierten Kommunikation – Eine Vergleichsanalyse unter kulturellen Aspekten

158

Personalia 159 Neue Veröffentlichung 160 - M. Decker, M. Ladikas: Bridges between Science, Society and

Policy. Technology Assessment – Methods und Impacts.

TAB-News TAB-Berichte im Deutschen Bundestag 161 Neue TAB-Themen 161 Neue Veröffentlichungen 161 - Instrumente zur Steuerung der Flächennutzung – Auswertung

einer Befragung der interessierten und betroffenen Akteure 161

- Begrenzte Auswahl? Praxis und Regulierung der Präimplantationsdiagnostik im Ländervergleich

161

Page 4: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite
Page 5: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Wissenspolitik – ein neues Forschungs- und Hand-lungsfeld?

Eine Einführung in den Schwerpunkt von Gotthard Bechmann, ITAS, und Nico Stehr, Zeppelin University, Friedrichshafen

1 Unübersichtliche Ausgangslage

Ängste und Befürchtungen über die sozialen Folgen neuer wissenschaftlicher Erkenntnisse und Technologien sind nicht neu. Mit der sys-tematischen Produktion von Handlungswissen scheinen wir jedoch eine neue Stufe im Verhält-nis von Wissenschaft, Politik und Gesellschaft erreicht zu haben. Die kontroversen Diskussio-nen über die Rekombination der DNA, die Stammzellenforschung, das Genetic Engineer-ing oder die neurogenetische Forschung sowie das reproduktive Klonen verweisen auf den veränderten gesellschaftlichen Stellenwert wis-senschaftlichen Wissens. Wissen eröffnet nicht nur Handlungschancen, sondern es unterminiert alte und erzeugt zugleich neue normative Orien-tierungen und Wertstrukturen und trägt somit wesentlich zu gesellschaftlichen Regulierungen bei. Die Produktion, Verteilung und Anwendung von Wissen in der Gesellschaft unterliegt zu-nehmend selber einer bewussten Steuerung von Seiten der Politik und Wirtschaft. Wissenspoli-tik, oder auch Wissensregime, stellen heute ein neues Politikfeld dar, bei dem es um die Rolle der Wissenschaft in der Gesellschaft, neue Re-geln der Wissensanwendung und die Sanktion eines möglichen Wissensmissbrauchs geht.

Das wachsende Gewicht der Wissenspoli-tik in der Gegenwart lässt sich auf eine Reihe von gesellschaftlichen Entwicklungen zurück-führen, die im Folgenden kurz dargestellt wer-den sollen.

2 Ursachen

Die gegenwärtigen Entwicklungen hin zu einer Wissenspolitik lassen sich auf eine Reihe von Faktoren und Entwicklungen zurückführen:

Es sind neue Wissensformen (und damit ein neuer Typus von Handlungsmöglichkeiten), die sowohl alarmieren als auch zu umfas-senden Versprechungen verleiten. Die Er-kenntnisform selbst verändert sich. Der Weg von der Grundlagenforschung hin zur angewandten Forschung und kommerziellen Anwendung ist in einigen Wissenschaftsfel-dern, wie zum Beispiel der molekularen Biologie, besonders kurz und direkt. Die Differenz von Grundlagenforschung und angewandter Forschung verringert sich er-heblich bis hin zu einer „produktorientierten Grundlagenforschung“. Die Identifikation eines Gens ist identisch mit dem Test für das Gen. Die Grenzen der Unverfügbarkeit verschieben sich anscheinend radikal (Ha-bermas 2001, S. 41).

1.

2.

3.

4.

Der Stellenwert der Wissenspolitik nimmt nicht nur angesichts der Beschleunigung der Wissensproduktion neue Formen an, son-dern auch als Ergebnis der wachsenden Möglichkeiten, mit neuem Wissen in Kon-takt zu kommen. Mit der rapiden Zunahme der Erkenntnisse multiplizieren sich unsere Handlungsmög-lichkeiten und -optionen, da Wissen Hand-lungskapazitäten oder Modelle für die Wirk-lichkeit bereitstellt. Der Stellenwert des Wis-sens für die Ökonomie, die Politik (als Liefe-rant öffentlicher Themen und Probleme) und andere gesellschaftliche Institutionen wächst. Aus der Einsicht in die „Macht“ der moder-nen Wissenschaft und Technik erwächst aber auch eine andere, eine skeptische Einstellung zur Ertragsrechnung ihrer Anwendung. Obwohl jede technische Erfindung und jeder wissenschaftliche Erkenntnisfortschritt schon bisher von ambivalenten Reaktionen der Öf-fentlichkeit begleitet war, kann man beo-bachten, dass es in der Bewertung gesell-schaftlicher Folgen der Wissenschaft und Technik eine bemerkenswerte Verschiebung der Akzente gibt: weg von der Lösung ein-mal aufgetretener Probleme, die sich aus der Anwendung von Technik und Wissenschaft ergeben, hin zur möglichst frühzeitigen Re-duktion oder Prävention nicht gewollter, je-denfalls ungeplanter Folgen. Die einst ver-breitete Haltung, nachträgliche Entsorgung der negativen Folgen sei ausreichend, wird zunehmend skeptisch beurteilt. Fragen wie

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 5

Page 6: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

„Sollen wir diese Erfindung überhaupt an-wenden?“, konkurrieren zumindest auf dem Gebiet medizinischer Entdeckungen fast zwangsläufig mit der Frage „Können wir es verantworten, sie nicht anzuwenden?“

5. Versuche, neues Wissen und neue techni-sche Fertigkeiten zu kontrollieren, lassen sich nicht abkoppeln von den Kontingenzen von Zeit und Ort. Die Gebundenheit der Kontrolle des Wissens an bestimmte Kon-texte verweist unmittelbar auf ein Dilemma jeder Wissenspolitik, auch in einer auf Grund der Globalisierungskräfte angeblich ständig „schrumpfenden“ Welt, nämlich die Grenzen der Legitimität, der Herrschaft und der Kontrollmöglichkeiten über diese Diffe-renzen von Sozialsystemen hinaus.

3 Wissen über Wissen: Wissen als Welt-veränderung

Um die Diskussion über den neuen gesell-schaftlichen Stellenwert des Wissens voranzu-bringen, aber auch um mögliche Missverständ-nisse zu vermeiden, werden im Folgenden ei-nige grundsätzliche Überlegungen zum Wis-sensbegriff angestellt und es wird dargelegt, wie dieser Begriff im Kontext unserer Analyse verwendet wird.

Wir möchten Wissen als Fähigkeit zum so-zialen Handeln (Handlungsvermögen) definie-ren, als die Möglichkeit, etwas „in Gang zu setzen“. Damit ist die Verbindung von sozialem Handeln und Wissen, wenn auch nur zeitweise und vorläufig, unterbrochen. Im Sinne dieser Definition ist Wissen ein universales Phänomen oder eine konstante anthropologische Größe. Unsere Begriffswahl stützt sich unmittelbar auf Francis Bacons berühmte und faszinierende These „scientia est potentia“ oder, wie diese Formulierung häufig, aber irreführend, übersetzt wurde: Wissen ist Macht. Bacon behauptet, dass der besondere Nutzen des Wissens sich von seiner Fähigkeit ableitet, etwas in Gang zu set-zen. Der Begriff potentia – Fähigkeit – um-schreibt hier die „Macht“ des Wissens.

Wissen erfüllt gewiss nur dort eine „aktive“ Funktion im gesellschaftlichen Handlungsab-lauf, wo Handeln nicht nach im Wesentlichen stereotypisierten Mustern (Max Weber) abläuft oder ansonsten weitgehend reguliert ist, sondern wo es Entscheidungsspielräume oder -notwen-

digkeiten gibt. Für Karl Mannheim (1929) be-ginnt soziales Handeln deshalb auch erst dort, wo der noch nicht rationalisierte Spielraum an-fängt, wo nicht regulierte Situationen zu Ent-scheidungen zwingen.

Darüber hinaus und im Gegensatz zu dem, was die klassische funktionalistische Differen-zierungstheorie nahe legt, gibt es gerade in vie-len kritischen Fragen über das Wirken natürli-cher und gesellschaftlicher Prozesse keine kog-nitive Gewissheit. Das heißt, die Wissenschaft kann keine Wahrheiten (im Sinne von bewiese-nen Kausalketten oder gar universellen Geset-zen) liefern, sondern nur mehr oder weniger gut begründete Vermutungen, Szenarien und Wahr-scheinlichkeiten. Statt Quelle von gesichertem Wissen und Gewissheit zu sein, ist die Wissen-schaft damit Quelle von Unsicherheit. Und an-ders als es rationalistische Wissenschaftstheo-rien vorschlagen, ist das Problem nicht dadurch zu erfassen, dass man zwischen „guter“ und „schlechter“ Wissenschaft (oder zwischen Pseu-dowissenschaft und richtiger Wissenschaft) unterscheidet. Wer sollte dies unter Bedingun-gen der Unsicherheit auch können?

Hebt man die (gedachte) Trennung von Wissen und Handeln wieder auf, so signalisiert die Definition von Wissen als Handlungsver-mögen zudem, dass die Realisierung oder die Anwendung von Wissen immer unter bestimm-ten sozialen und kognitiven Rahmenbedingun-gen stattfindet. Und insofern die Realisierung von Wissen von bestimmten Bedingungen ab-hängig ist, haben wir gleichzeitig einen ersten wichtigen Verweis auf die Relation von Wissen und Macht. Die Kontrolle der für die Imple-mentation von Wissen notwendigen sozialen und kognitiven Bedingungen erfordert einen bestimmten Grad von Macht. Je größer zum Beispiel der Umfang des zu realisierenden praktischen Projektes, desto größer die not-wendige Macht, um die sozialen und kogniti-ven Rahmenbedingungen, die die Realisierung des Wissens als Handlungsvermögen erlauben, kontrollieren zu können

4 Die gesellschaftliche Überwachung neuer Erkenntnisse

Fraglos wirft die Frage nach der Überwachung neuen Wissens in modernen Gesellschaften eine Vielzahl von brisanten Problemen auf; wir

Seite 6 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 7: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

können an dieser Stelle weder die Themen der Beziehung von Öffentlichkeit, Politiksystem und Wissenschaft oder von Experten und Lai-en, noch die Problematik der Grundlagen der gesellschaftlichen Kontrolle wissenschaftlicher Erkenntnisse umfassend darstellen. Wir be-schränken uns darauf, eine Reihe von allge-meinen, die Wissenspolitik betreffenden Ge-sichtspunkten anzuführen.

Diese allgemeinen Fragen nach der gesell-schaftlichen Überwachung des Wissens begin-nen schon mit dem Begriff der Regulierung. Der Begriff ist keineswegs eindeutig. Man sollte zwischen verschiedenen Gründen und Zielen für regulierende Maßnahmen unterscheiden. Was ist zum Beispiel der Anlass für Regulierung? Wie sind zukünftige Resultate neuen Wissens einzu-stufen? Welche Folgen scheinen diese Resultate zu haben oder welche Konflikte sind zu erwar-ten? Welcher Art sind die Vorschläge für eine Regulierung? Und, was genau soll reguliert werden? In der Vergangenheit wurden einige der heftigsten Reaktionen der Öffentlichkeit auf die Wissenschaft und neue Erkenntnisse nicht durch die von ihnen erzeugten gesellschaftlichen Auswirkungen ausgelöst, sondern durch wissen-schaftlich geprägte Vorstellungen und Perspek-tiven, die mit kulturell fest verwurzelten Vor-stellungen, wie zum Beispiel der über die Natur des Menschen, in Konflikt stehen.

Bewusste Versuche, das Wissen zu regulie-ren, sind nicht neu. Die Aufnahme des ptolemäi-schen Systems in die Lehren der Katholischen Kirche oder der heftige Widerstand der geistigen Führer der Reformation gegen die Ideen Galile-os und deren Unterdrückung und Zensur durch die Katholische Kirche sind herausragende Bei-spiele aus der Wissenschaftsgeschichte für das Überwachen von Wissen, genau wie erste staat-liche umweltpolitische Regulierungsversuche ökonomischer Aktivitäten im 18. Jahrhundert in Frankreich (Reynard 2002). Die Haltung der damaligen Kirchenführer und die konfliktgela-dene Debatte, die sie auslösten, klingen in dem gegenwärtigen Widerstreit um die „Natur der menschlichen Natur“ wieder an. Politische Be-mühungen, die sich in internationalen Überein-kommen niederschlagen, sind Beispiele moder-ner Wissenspolitik, die darauf abzielt, den Zu-gang zu Handlungsmöglichkeiten, die katastro-phale Folgen haben könnten, durch juristische und politische Instrumente und Sanktionen zu

beschränken oder zu verhindern. Natürlich ist jeder bewusste Versuch, neues Wissen und seine Verwendung zu regulieren, häufig gleichzeitig Parteinahme für anscheinend konkurrierende Wissensformen.

Der berüchtigte und immer noch andauern-de Kampf in einigen Teilen der USA, Lehren der Evolutionstheorie im Schulunterricht zu verbieten, ist hierfür ein gutes Beispiel. Der Beschluss der Schulbehörde von Kansas, vom gegenwärtigen amerikanischen Präsidenten wohlwollend beobachtet und unterstützt, jeden Hinweis auf die Evolutionstheorie aus den na-turwissenschaftlichen Lehrplänen des Staates zu streichen, ist ein Beispiel jüngeren Datums für erfolgreiche Versuche der Anhänger der Schöp-fungsgeschichte, nicht nur die evolutionäre Bio-logie, sondern auch die Theorie des Urknalls aus den Lehrplänen der US-Schulen zu verbannen.

Jedoch sind derartige Bemühungen, mög-liche ideologische und kulturelle Auswirkun-gen der Wissenschaft zu regulieren und zu kontrollieren, wie sie in verschiedenen Gesell-schaften unternommen werden und wie auch das Beispiel aus Kansas zu bestätigen scheint, auf lange Sicht und in unterschiedlichen gesell-schaftlichen Kontexten im Grossen und Gan-zen erfolglos geblieben.

In den letzten beiden Jahrzehnten zeichnet sich eine Wende in der Art der in der Öffent-lichkeit vorherrschenden Bedenken gegen die gesellschaftlichen Folgen von Wissenschaft und Technik ab: Sie kreisen nicht mehr um Fragen der Sicherheit, sondern zunächst mehr um solche des Risikos und inzwischen zuneh-mend um die der Unsicherheit.

Sieht man einmal davon ab, dass die Ein-sicht in die mit wissenschaftlichen Erkenntnis-sen verbundenen Risiken und Unsicherheiten in der Öffentlichkeit und im Politiksystem grö-ßer geworden ist, dann gehen die Einstellungen in der Öffentlichkeit von der einmal vorherr-schenden Ansicht ab, dass Wissenschaft und Technik fast ausnahmslos gesellschaftlichen Nutzen stiften. Die Veränderungen in der Be-wertung von Wissenschaft und Technik in der Öffentlichkeit sind sicher nicht unabhängig von der Tatsache, dass bestimmte, in den Labors der Biotechnologie produzierte Erkenntnisse und Techniken unmittelbar einsichtige prakti-sche Folgen zu haben scheinen. Es ist anzu-nehmen, dass neue wissenschaftliche Erkennt-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 7

Page 8: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

nisse im Vergleich zum wissenschaftlichen Wissen der Vergangenheit unmittelbare Aus-wirkungen auf den Menschen und die Gesell-schaft haben, sofern sie Anwendung finden. Man kann deshalb auch unterstellen, dass die Problematik der kognitiven Distanz und der Verständnisschwierigkeiten zwischen der mo-dernen Wissenschaft und der Öffentlichkeit unter diesen Umständen weniger relevant ist (Weingart, Engels, Pansegrau 2002).

Das von uns als Wissenspolitik gekenn-zeichnete neue Politikfeld steht allerdings in keinem unmittelbaren Zusammenhang mit dem jüngst immer wieder konstatierten ambivalenten Gefühl eines Krisenphänomens moderner Ge-sellschaften, das durch die Über- bzw. Massen-produktion von Wissen als solchem entstanden ist. Auf die Spannungen zwischen dem Umfang der Wissensproduktion in fortgeschrittenen Ge-sellschaften und der begrenzten Fähigkeit des einzelnen Menschen, das große Angebot von Wissen auch zu verarbeiten, hat Georg Simmel ([1907] 1989) schon vor hundert Jahren im Schlusskapitel seiner Philosophie des Geldes, einer Theorie des damaligen Zeitalters, hinge-wiesen. Die „Kulturtragödie“ (Simmel) manifes-tiert sich in dem Auseinanderfallen von verselb-ständigter objektiver Kultur und dem Eigensinn subjektiver Kultur. Die Problematik der Über-wachung des Wissens bezieht sich nicht auf die Produktion von Wissen insgesamt, wie auch immer man Überproduktion definieren mag, sondern auf das Angebot von zusätzlichem Wis-sen, das als realitätsverändernd begriffen wird.

5 Wissenspolitik und ihre Akteure

Das verstärkte öffentliche Interesse an einer Kontrolle der Anwendung des Wissens und den antizipierten oder auch nicht antizipierbaren Externalitäten der Anwendung wissenschaftli-chen und technischen Wissens signalisiert eine grundlegende Verschiebung in der gesellschaft-lichen Legitimität der Wissenschaft. Nachdem die Autorität und der Stellenwert der Wissen-schaft als vorrangige Quelle kognitiver Innova-tion zunehmend angezweifelt wird, lassen in-tensivierte Bemühungen, das Wissen zu regeln, erkennen, dass sich die Legitimationsproble-matik der Wissenschaft von Konflikten mit „ideologischen“ oder kulturellen Implikationen wissenschaftlicher Aussagen auf Auseinander-

setzungen verlagert hat, die sich vorrangig mit den praktischen Folgen der Anwendung wis-senschaftlicher Erkenntnisse befassen.

Die inzwischen öffentlich stattfindende Demystifizierung von Experten (Barnes 1999) könnte nicht nur als ein gutes Beispiel für einen Wandel in der Beziehung zwischen den wis-sensbasierten Berufen und deren Klienten, Kon-sumenten, Patienten, Studenten, Auszubilden-den, Kunden usw. gewertet werden, sondern auch als eine tief greifende Transformation des Öffentlichkeitsbildes vom wissenschaftlichen Wissen. Durch diese Veränderung gibt es eine größere Zahl und Bandbreite von Individuen, die in einer solchen Beziehung als Ratsuchende nicht länger in der traditionellen, nämlich unter-gebenen Rolle verbleiben, die sich daraus ergibt, dass jeder Zweifel a priori ausgeschlossen wird.

Helen Lopata (1976) hat den Prozess, den wir hier meinen, als Kenntnisverbesserung und als rebellisches Verhalten der Klienten in Kon-texten beschrieben, in denen Expertenwissen „professionell“ vermittelt wird. Lopata hält mehrere gesellschaftliche Veränderungen ver-antwortlich für die Schwierigkeit, Wissen (zum Beispiel durch die Wissensberufe) zu monopoli-sieren, und für die Weigerung der Konsumenten und Klienten, sich dem Expertenratschlag ge-genüber passiv und konform zu verhalten (dazu auch Lezaun in diesem Schwerpunkt).

Zuallererst ist die steigende Anzahl wis-sensbasierter Berufe zu nennen, die eine strikte Kontrolle und Einhaltung der Grenzen des Diskurses und der Art und Weise der Diskurs-führung erschwert und die Fragmentierung von Expertenbereichen erhöht (dazu auch Fuller in diesem Schwerpunkt). Diese Fragmentierung wird aber publik. Ob ein Konsens in einem wissenschaftlichen Spezialgebiet jemals vor-herrschte und wie er zustande gekommen ist, steht hier nicht zur Diskussion. Was dagegen zur Diskussion steht, ist der öffentlich sichtbare und ausgetragene Dissens etwa unter Biologen über die sozialen Folgen von Veränderungen des menschlichen Genoms. Ein öffentlich ein-deutig erkennbarer wissenschaftlicher Dissens ist hier mitbestimmend für nachhaltige Besorg-nisse in der Öffentlichkeit. Zweitens entwickelt die Öffentlichkeit mehr Scharfsinn und sie verfügt über mehr kognitive Fähigkeiten. Es entstehen neue Organisationen und Interessen-gruppen, die zum Autoritätsverlust der Exper-

Seite 8 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 9: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

ten beitragen. Die einst als eher esoterisch ver-standenen Wissensformen, deren Diskurs nicht minder technisch war, öffnen sich, werden öffentlich debattiert, kontrolliert und reguliert (Kaschinski, Spehr 2001).

6 Regulierungsweisen

Vielleicht ist es sinnvoller, die in diesem Kon-text interessierende Frage als eine der Regulie-rung des Wissens zu bezeichnen bzw. als den Versuch, Wissensansprüche außerhalb der Grenzen des Wissenschaftssystems unmittelbar zu kontrollieren. In diesem Sinn unterscheidet sich die Regulierung des Wissens von Versu-chen, die sekundären Folgen von bereits prak-tisch umgesetztem Wissen zu kontrollieren. Solche Versuche könnten zum Beispiel konkre-te Bemühungen sein, die Ergebnisse einer Stu-die umzusetzen, aus der hervorgeht, dass Pas-sivrauchen zu erhöhtem Blutdruck führen kann. Als Ergebnis einer solchen Studie könnte zum Beispiel die Beschränkung des Rauchens auf bestimmte Räume oder bestimmte Individuen angeordnet werden. Nicht zur Disposition oder Diskussion steht in diesem Fall der Erkenntnis-anspruch der Studie selbst.

Wir verwenden den Begriff der Regulie-rung nicht in dem im gegenwärtigen ökonomi-schen Diskurs vorherrschenden Sinn. Im öko-nomischen Diskurs unterstützt man in der Re-gel den Abbau von existierenden (staatlichen) Regulationsmechanismen, um etwa die Han-dels- oder Kapitalströme regional und global noch ungehinderter fließen zu lassen. In der Ökonomie soll das freie Spiel der Marktkräfte andere soziale Institutionen „disziplinieren“. Aus marxistischer Warte befassen sich Theo-rien der gesellschaftlichen Regulierung dage-gen mit staatlichen Praktiken, die das vorrangi-ge Ziel haben, den Akkumulationsprozess des Kapitals zu stützen und zu fördern.

Im Kontext unserer Diskussion der Regu-lierung neuen Wissens zielen wir auf einen an-deren Begriff der Regulierung, nämlich auf Ver-suche unterschiedlichster Gruppen und Instituti-onen in der Gesellschaft, Wissen zu disziplinie-ren. Dieser bewusste Eingriff in die Verwen-dungsmöglichkeiten neuen Wissens kann auch heißen, dass man die Möglichkeiten der An-wendung nicht nur restriktiv zu steuern versucht (Mitnick 1980). Es kann auch heißen, dass die

Regulierung der Wissenspolitik auf eine Erwei-terung der Handlungsmöglichkeiten zielt. Der Staat ist in diesem Zusammenhang ein zwar wichtiger, aber nicht der primäre oder alleinig relevante Akteur von Regulierungsmaßnahmen. Regulierung soll in diesem Zusammenhang deshalb ganz allgemein auf den bewussten, stra-tegischen Einsatz von politischer und juristi-scher Herrschaft sowie von ökonomischen Res-sourcen und kulturellen Praktiken verweisen, die dazu dienen können, unabhängig von dem je-weiligen Ziel, die praktische Realisierung von Wissen zu beeinflussen bzw. zu steuern.

Die Zahl und Reichweite institutionalisier-ter Standards zur Überwachung des Wissens sind bisher relativ gering. Es gibt zum Beispiel nur wenige rechtliche Vorschriften, die sich mit der Sicherstellung der Natürlichkeit des Menschen befassen. Regulationsmaßnahmen beinhalten sowohl informelle als auch formelle Handlungen unterschiedlichster Art mit dem Ziel, die Anwendung und weitere Wissensent-wicklung zu beschränken, in bestimmte Bah-nen zu lenken oder sogar zu verbieten. Anlass solcher Maßnahmen ist aber immer eine Reak-tion auf gedachte Folgen bestimmter Erkennt-nisse. Inhalt dieser Handlungen können morali-scher Druck sein, die Gründung von Überwa-chungs- und Prüfungsinstitutionen, der Ver-weis auf herrschende gesellschaftliche Wert-vorstellungen, Gesetzesmaßnahmen, Beschrän-kungen in der Verbreitung von Wissen, Verbo-te usw. Das Ziel der Regulierung von Wissen ist offensichtlich, die Wissensentwicklung und die Anwendung von Wissen in gewünschte Bahnen zu lenken, d. h. entweder sie zu belas-sen oder auszuschließen.

Die Quelle von normativen Konventionen und rechtlichen Standards, Regulationsmaß-nahmen oder auch einfach der Legitimation der kulturellen Ächtung einer bestimmten Verwen-dung von wissenschaftlichen Erkenntnissen ist in der Regel außerhalb des Wissenschaftssys-tems zu finden, wobei aber nicht auszuschließen ist, dass Kontrollmaßnahmen aller Art von wis-senschaftlichen Experten begleitet und mitfor-muliert werden und deren Implementation auch von ihnen überwacht wird. Wenn es zum Bei-spiel zu Forderungen kommt, die menschliche Natur angesichts neuer wissenschaftlicher und technischer Fähigkeiten im status quo menschli-cher Reproduktion zu erhalten und zu schützen,

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 9

Page 10: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

stellt das Wissenschaftsverständnis der Natur keine eindeutige, unstrittige Kategorie der Na-türlichkeit bereit, an die man sich – um normati-ve Orientierung bemüht – halten könnte (Lemke 2004). Der Verweis auf unzweideutige wissen-schaftliche Konventionen als Grundlage prak-tisch-politischer Regulierungsmaßnahmen ist somit nicht möglich. Das wissenschaftliche Verständnis von Natürlichkeit umfasst eine An-zahl von denkbaren „Naturen” und erlaubt so die Konstruktion sehr verschiedenartiger Vor-stellungen von Natürlichkeit.

7 Wissenspolitik und Wissenschafts- und Technologiepolitik

Obwohl die Deskription der Maßnahmen der Überwachung und ihrer Intentionen den Ein-druck erweckt, es handele sich bei der Regulie-rung von Wissen teilweise um nichts anderes als die herkömmliche Wissenschafts- und Techno-logiepolitik, soll unterstrichen werden, dass es hier im Gegenteil um Überwachungsmaßnah-men geht, die in der Regel erst durch bestimmte Entwicklungen der wissenschaftlichen Erkennt-nisse und technischen Möglichkeiten ausgelöst werden. Das erfolgreiche Klonen eines Tieres durch schottische Wissenschaftler wäre ein Bei-spiel. Darüber hinaus zeigt uns die jahrzehnte-lange Erfahrung mit forschungs- und entwick-lungspolitischen Maßnahmen, dass sich die Entwicklungsdynamik von Technik und Wis-senschaft kaum durch politische Standards steu-ern lässt, wenn überhaupt. Die mangelnde Kon-trollierbarkeit bzw. Weichenstellung technisch-wissenschaftlicher Entwicklungen verstärkt sich natürlich in einer Welt, in der herkömmliche Grenzen an Relevanz verlieren.

Die Grenzen von Forschungs- und Wis-senspolitik sowie ihre – in ihrer idealtypischen Trennung – gesonderten strategischen Funktio-nen in der Gesellschaft nähern sich in Wissens-gesellschaften an und verwischen sich (dazu auch Wehling und Böhme in diesem Schwer-punkt). Politische und sonstige Bemühungen, Wissen zu regulieren, werden einen Einfluss auf die Wissenschaftspolitik haben, genau wie die Wissenschaftspolitik Konsequenzen für die Wissenspolitik haben wird. Die Wissenschafts-politik des Tages spiegelt die herrschenden poli-tischen Befindlichkeiten wie etwa ökonomische, soziale und umweltrelevante Zielsetzungen so-

wie die praxisrelevanten Möglichkeiten des Wissenschaftssystems wider, effektiv auf solche Anforderungen aus der Gesellschaft zu reagie-ren oder sie zurückzudrängen. Der Grad der Abschottung von Wissenschaft und Gesellschaft wird sich in Zukunft weiter verringern, die Grenzen der Wissenschaften werden poröser und die Häufigkeit und Intensität des gegensei-tigen Austausches wird zunehmen.

Dass die Grenzen zwischen Wissenschaft, Politik und Ökonomie dynamisch und durch-lässig geworden sind, zeigt sich besonders deutlich am Beispiel der Produktion von Er-kenntnissen. Und zwar gilt dies insbesondere für Prozesse der Konsensbildung, der Über-windung von kognitiven Differenzen oder der Entwicklung von dann nicht weiter kontrover-sen Fakten in wissenschaftlichen Spezialgebie-ten, bei denen Außenseitern, Nicht-Wissen-schaftlern und systemfremden Gruppen ein wachsender Einfluss zukommt. Eine mehr oder weniger unmittelbare Intervention nicht-wissenschaftlicher Akteure in das wissen-schaftliche Geschehen wird besonders deutlich in der problemorientierten Forschung wie zum Beispiel in der Umweltforschung, der Risiko-forschung und in den Versuchen, die Folgen der Technologieentwicklung einzuschätzen. Bestimmte Felder der Medizinforschung liefern weitere Beispiele für die durchlässiger werden-den Grenzen der modernen Wissenschaft. In Frankreich zum Beispiel haben die Aktivitäten organisierter Gruppen von an Muskelschwund erkrankten Patienten zu umfangreichen For-schungsinvestitionen in die Molekularbiologie und die Genomforschung geführt.

8 Perspektiven

Bisherige Formen der Wissenspolitik umfassen in erster Linie reaktive Strategien und Instru-mente gesellschaftlicher Institutionen in Form von Regulierungsmaßnahmen, Gesetzen, rich-terlichen Entscheidungen oder sozialer Bewe-gungen. Die reaktiven Strategien der Einfluss-nahme durch Regeln und Sanktionen erstre-cken sich auf wissenschaftliche Erkenntnisse und technische Artefakte, die schon weitge-hend entwickelt, umgesetzt und am Markt vor-handen sind.

Die zukünftige Wissenspolitik wird dage-gen zunehmend auf neue Erkenntnisse und

Seite 10 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 11: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

technische Erfindungen reagieren, deren gesell-schaftliche Funktionen und Folgen strittig sind. Die gesellschaftlichen Auswirkungen von neu-en Erkenntnissen sind nicht mehr unbedingt Motor von Veränderungen, sondern müssen erst antizipiert werden und die Regeln, für die man sich entscheidet, müssen antizipatorische Kontrollen sein. Die vorrangige Frage in dem neuen Politikfeld wird sein, ob wir neue Er-kenntnisse überhaupt verwenden sollen und nicht, wie man sie am besten verwerten kann. Darüber hinaus ist die grundsätzliche Frage, wie man wissenspolitische Maßnahmen in ei-ner demokratischen Gesellschaft überhaupt organisieren kann.

Wie massiv und signifikant die Entwick-lung in Umfang und Bandbreite der menschli-chen Handlungsmöglichkeiten im Verlauf von nur einem Jahrhundert sein kann, lässt sich an Folgendem illustrieren: 1945 war es Menschen möglich, Leben in umfassender Weise zu zer-stören; 2045 wird es wahrscheinlich möglich sein, Leben in umfassender Form zu schöpfen. Die Geschwindigkeit, mit der neue und neuar-tige Handlungsmöglichkeiten geschaffen wer-den, zwingt uns, so hat es den Anschein, nicht nur unser Selbstverständnis zu ändern, sondern auch, was noch weiter reichende Folgen haben wird, unsere eigene Natur. Die Versprechen und die Ängste, die mit dieser Entwicklung in engem Zusammenhang stehen, sind der Motor des entstehenden Politikfeldes der Wissenspoli-tik. Die Grenzen dessen, was einmal jenseits der Kontrolle des Menschen war, verschieben sich rapide.

Die politische Landschaft wird sich als Re-sultat wissenschaftlicher und technischer Entde-ckungen und Erfindungen ändern. Regierungen werden gezwungen sein, sich neuen Standards zu stellen, neue Regeln zu entwickeln und sich am Erfolg neuer Aufgaben messen zu lassen. Der Nationalstaat wird für die Wissenspolitik zwar weiter von Bedeutung sein, aber nicht mehr hauptsächlich als autonomer Akteur. Viel-mehr wird der Nationalstaat zunehmend die wissenspolitischen Vorgaben und Forderungen globaler Institutionen, internationaler Vereinba-rungen und sozialer Bewegungen umsetzen. Allerdings, und auch dies ist unschwer zu er-kennen, wird das Tempo, mit dem neue Proble-me wachsen, weitaus höher sein als das, mit dem wissenspolitische Lösungen akkumulieren.

Ob es aber in hoch differenzierten moder-nen Gesellschaften überhaupt eine (effektive) Wissenspolitik geben mag, wird die Zukunft zeigen. Möglicherweise muss man daran arbei-ten, die Reflexionsleistungen innerhalb der Wis-senschaft mit dem Ziel zu stärken, die praktische Umsetzung neuer Erkenntnisse auf bestimmte Ziele zu relativieren, d. h. die „Wachstum auslö-senden Impulse unter Kontrolle zu bringen und die Funktion so zu interpretieren, dass Verzichte auf Funktionserfüllung miteinbezogen sind“ (Luhmann [1981] 1987, S. 62). Und das ist ohne Zweifel eine Sisyphusarbeit ersten Ranges.

9 Zu den Beiträgen

Die Forderung nach einer Wissenspolitik als ein eigenständiges Handlungs- und Reflexionsfeld in der Gesellschaft speist sich aus dem Wandel der Wissensproduktion und der zunehmenden Integration wissenschaftlichen Wissens in die unterschiedlichsten gesellschaftlichen Berei-che. Dabei haben wir mindestens drei Trends ausgemacht, die dazu beigetragen haben, dass wir von einer sich herausbildenden Wissensge-sellschaft sprechen können.

Zum einen zeigt sich, zum großen Teil be-dingt durch die neuen Informations- und Kommunikationstechnologien, ein ungeheurer Zuwachs an verfügbarem Wissen. Es entstehen neue Formen der Wissensproduktion, die nicht mehr allein auf das Universitäts- und For-schungssystem beschränkt bleiben.

Zum anderen kann man eine zunehmende Funktionalisierung des Wissens nach Nützlich-keitsgesichtspunkten und Entscheidungsbedarf beobachten. Wissen soll handlungsrelevant im weitesten Sinne des Wortes sein.

Drittens wird Wissenschaft und Forschung moralisch und ethisch unmittelbar relevant, indem in ihren fortgeschrittensten Erschei-nungsformen (Bio- und Gentechnik, Nanotech-nologie und Hirnforschung) die Grenze zwi-schen Mensch und Natur zu verschwimmen scheint. In den Worten von Habermas: „[Sie] lösen Grenzziehungen und Zusammenhänge auf, die uns bisher in unserem Alltagshandeln als geradezu transzendental notwendig erschie-nen. Auf der einen Seite verschmilzt organisch Gewachsenes mit technisch Gemachtem, auf der anderen Seite wird die Produktivität des menschlichen Geistes von der erlebenden Sub-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 11

Page 12: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

jektivität abgespalten“ (2003, S.76). Habermas sieht hier die Gefahr einer Technisierung der menschlichen Natur, die ein verändertes Selbst-verständnis der Gattung erzeugen würde, das nicht mehr mit unseren Normen und Werten vereinbar ist, die sich in einem langen evoluti-onären Prozess herausgebildet haben und de-nen das frei verantwortlich handelnde Indivi-duum mit seine Freiheitsrechten zugrunde liegt.

Wissenspolitik als eine neue Form der Go-vernance von Wissen hätte diese drei Bezüge: Institution, Praxisrelevanz und Weltbildfunktion (moralische Orientierung) des in der Gesell-schaft laufend neu produzierten und angewand-ten Wissens zu reflektierten und im Medium des öffentlichen Diskurses zu regulieren.

Die in diesem Themenschwerpunkt ver-sammelten Beiträge versuchen von diesen un-terschiedlichen Sichtweisen das Thema Wis-senspolitik zu erfassen. Das neu entstehende Feld ist nicht nur durch differierende Ansätze gekennzeichnet, sondern hier kann man auch kulturelle Differenzen im Hinblick darauf fest-stellen, wie das Problem einer zunehmenden Moralisierung und Regulierung der Wissenspo-litik wissenschaftlich behandelt wird. Während die deutsche Debatte prinzipieller verläuft und unmittelbar in Richtung einer Ethisierung der Wissenschaft zielt (Böhme in diesem Schwer-punkt; Habermas 2001) oder Wissenspolitik in die Perspektive einer zweiten Modernisierung gerückt wird (Wehling in diesem Schwerpunkt) verläuft die amerikanische Diskussion pragma-tischer, empirischer und stark auf den Einzel-fall bezogen. Gleichwohl teilen auch die angel-sächsischen Autoren die Ansicht, dass Wis-senspolitik Regulationspolitik ist, nur sind sie bei Fragen der Einriffe in das Wissenschafts-system offener und vermeiden eine direkte Moralisierung der Wissenschaft.

Moralisierung der Wissenschaft als gesell-schaftliches Unternehmen ist Gernot Böhmes Vorschlag für eine Erneuerung der Wissen-schaftspolitik, worunter er das Errichten von moralischen Institutionen durch den politisch-öffentlichen Diskurs versteht, um so der Moral einen legitimen gesellschaftlichen Ort zu ver-schaffen. Wissenschaftliche Entwicklung und technische Innovationen können auf diese Weise dem moralischen Räsonnement zugänglich ge-macht werden. Die öffentliche Debatte der Wis-senschaftsentwicklung und deren Wendung ins

Moralische sind für ihn deswegen unabdingbar, da die Verschmelzung von Alltagsleben und von Wissenschaft und Technik tief in unser gesell-schaftliches Selbstverständnis eingreift und so-wohl die Lebensumstände als auch die traditio-nellen Wertordnung radikal verändert.

Steve Fuller analysiert das Problem der Wissenspolitik von einer anderen, der instituti-onellen Seite. Am Beispiel der Universität als „an institution of knowledge governance“ zeigt er den widersprüchlichen Zyklus der Produkti-on und Nutzung des Wissens auf. Sich bezie-hend auf Schumpeter und Sombart betrachtet er diesen Prozess als ein laufendes Ineinander-greifen von Produktion und Zerstörung von „sozialem Kapital“. Die Universität, institutio-nalisiert durch zwei unterschiedliche Rollen-sets, die des Forschers und die des Lehrenden, erzeugt einen endlosen Kreislauf: Als For-schungseinrichtung produziert die Universität Wissen, innovatives Wissen, das sie aber als öffentliches Gut (social capital) anbieten muss, indem es publiziert, gelehrt oder auf sonstige Weise der Allgemeinheit zugängig gemacht wird. Damit verliert es aber seine Exklusivität und seinen Wert. Meist wird auch noch die Position des Innovators untergraben.

William Leiss versucht nicht wie Böhme die Produktion und Anwendung neuen Wissens über Moralisierung zu regulieren. Indem er alte und neue Risiken mit möglicherweise katastro-phalen Folgen unterscheidet, wendet er sich direkt dem Problem der gesellschaftlichen Be-herrschbarkeit dieser Risiken zu. Moralische Risiken (moral risks), wie er sie bezeichnet, gehen von neuen Technologien aus, die die ethi-sche Basis der menschlichen Zivilisation bedro-hen und deren negative und „böse“ (evil) As-pekte praktisch unbegrenzt sind. Ihre besonde-ren Gefahren sieht er in der Unmöglichkeit ihre Kontrolle, ohne dabei die demokratischen Grundlagen der Gesellschaft zu zerstören. Neue Technologien werden nicht mehr zentral durch den Staat produziert, wie Atomwaffen oder die Kernenergie, sie können auch nicht mehr durch staatliche Instanzen überwacht und kontrolliert werden, da sie dezentral, in privaten Firmen und Unternehmen weltweit entwickelt und auf den Markt gebracht werden. Gentechnologie aber auch die Informations- und Kommunikations-technologien aufgrund ihrer Querschnittsfunkti-on, Dezentralität und verhältnismäßig leichten

Seite 12 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 13: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Reproduzierbarkeit sind tendenziell gefährliche und kaum kontrollierbare Techniken.

Die Rede von Risiken bezieht sich zum ei-nen auf die möglicherweise unkontrollierten Folgen einer Produktion und Freisetzung gen-technisch manipulierter Organismen in die Um-welt. Zum anderen wird damit aber gleichzeitig – diesmal als Chancen der Gentechnologie for-muliert – der Anspruch erhoben, auf gentechno-logischem Weg zur Eindämmung und Kontrolle gesellschaftlicher Gefahren wie Krankheiten oder Verhaltens- und Normabweichungen bei-zutragen. Die gentechnologische Praxis ist also auch in dem Sinne eine Risikotechnologie, als sie soziale „Risiken“ mit technischen Mitteln zu bekämpfen sucht. Gene werden für Phänomene verantwortlich gemacht, von denen bisher ange-nommen wurde, dass sie soziale, psychologische oder ökologische Ursachen haben.

An diesem Punkt setzt Troy Duster an. Er untersucht die kulturelle und politische Bedeu-tung des genetischen Reduktionismus. Auf der Grundlage der Molekularbiologie können tradi-tionelle Formen von rassistischer oder sexisti-scher Herrschaft erneuert werden. Es ist grund-sätzlich möglich, mit Hilfe der Erkenntnisse der Molekularbiologie Menschen von ihrer strafrechtlichen, moralischen oder politischen Verantwortung zu entlasten, aber sie kann auch als Mittel dazu dienen, massive soziale Aus-grenzungen vorzunehmen, da ja hier ein „natür-liches Verhalten“ vorliege, dem durch Resozia-lisierung oder durch Lernprozesse nicht beizu-kommen sei.

Am Beispiel des Rassenbegriffs zeigt Dus-ter, wie dieser entweder mit Hilfe biologischer Kategorien oder sozialer Kategorien begründet wird. Wissenspolitik als Machtstrategie, die sich jeweils ihre wissenschaftliche Fundierung von der führenden Leitwissenschaft ausleiht. Duster nennt das „ Feedback Loops in the Poli-tics of Knowledge Production” und eröffnet der Wissenssoziologie ein neues Forschungsfeld.

Der Bedarf nach einer Wissenspolitik ist auch ein Ausdruck der enger werdenden Kopp-lung der Wissenschaft an die unterschiedlichs-ten gesellschaftlichen Bereiche: Politik, Wirt-schaft, Gesundheitswesen usw. Was unter dem Schlagwort Verwissenschaftlichung der Ge-sellschaft abgehandelt wird, stellt sich bei nä-herem Hinsehen als hochkomplexer dynami-scher Prozess dar, in dem ein zunehmender

Distanzverlust von Wissenschaft und Gesell-schaft zu beobachten ist, der im Prinzip zu einer Instrumentalisierung der Wissenschaft für heterogene Zwecke führen kann, aber auch die Möglichkeit einer Öffnung der Wissenschaft gegenüber anderen Wissensformen in der Ge-sellschaft in sich birgt. Ein wichtiges, aber höchst umstrittenes Feld bildet hierbei die In-tegration von Laienwissen in die Produktion und Legitimation wissenschaftlichen Wissens.

Durch die Kopplung von diesen beiden Wissensformen können neue reflexive Koope-rationsformen gefunden werden, bei denen die Betroffenengruppen direkt mit in den For-schungsprozess eingebunden werden, wie dies insbesondere bei der Aidsforschung geschehen ist (Epstein 1996). Gleichzeitig besteht auch die Gefahr, dass Betroffene ausgeforscht und für fremde Interessen eingespannt werden. Javier Lezaun weist in seinem Beitrag am Beispiel der Konsumforschung auf die Ambi-valenz solcher Wissensgenerierung hin:

„To some observers, consumer research is partly an instrument to produce knowledge about the public, and partly a public relations strategy”. Wissenspolitik hätte hier Formen der Wissensproduktion zu suchen, die gleichsam beide Seiten zu ihrem Recht kommen lassen. Laienwissen trüge dann zur Modifikation der Forschung und Produkte bei ohne in den Ge-ruch der Akzeptanzbeschaffung zu geraten.

Stephen Turner untersucht in verglei-chender Perspektive auf einem allgemeineren Level die Rolle der Experten auf dem Gebiet der Wissenspolitik. Am Beispiel der Cholera im 19. Jahrhundert analysiert er drei unterschiedliche Muster des Zusammenspiels von Experten, Poli-tik und bürokratischen Strukturen. Er zeigt, wie die Möglichkeiten der Bekämpfung der Cholera abhängig sind von der Ausgestaltung der Wis-sensregime. Nur dort (Beispiel New York) fand eine effiziente Lösung des Problems statt, wo die Experten pluralistisch organisiert waren und die Wissenschaftler miteinander konkurrierten. Autoritative Wissensregime, mögen sie noch so hervorragende Wissenschaftler besitzen, stehen immer in Gefahr, unterkomplexe und einseitige Strategien zu entwickeln.

Peter Wehling geht in seinem Beitrag von der Theorie reflexiver Modernisierung (Beck) aus und sieht das Problem der Wissensordnung moderner Gesellschaften zum einen in dem

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 13

Page 14: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

rasanten Wachstum des Wissens, das im We-sentlichen durch die Wissenschaft ausgelöst wurde, zum anderen aber in den dabei mit pro-duzierten Risiken. Mit der Unterscheidung von innovationsorientierter, regulativer und reflexi-ver Wissenspolitik versucht er, die bisher etwas unübersichtliche Diskussion zu ordnen und gleichzeitig sein Votum für eine reflexive Wis-senspolitik zu begründen. Ausgangspunkt sei-ner Überlegungen ist das dabei mit entstehende Nichtwissen. Nichtwissen spielt insofern eine entscheidende Rolle, da Wissensproduktion immer zugleich auch Nichtwissen mit hervor-bringt. Durch die Politisierung des Nichtwis-sens wird auf eine weitere Risikoquelle der Wissensproduktion verwiesen und gleichzeitig die Anerkennung des „Nicht-Wissen-Wollens“ als eine legitime Strategie im Umgang mit neu-em Wissen begründet. Ignoranz als eigenstän-diges Rechtsgut ist die überraschende Pointe dieses Ansatzes der Wissenspolitik. Am Bei-spiel der prädiktiven Gendiagnostik zeigt er, dass das Recht auf Nichtwissen zu einem wich-tigen Faktor der genetischen Wissensordnung geworden ist. Der gesellschaftliche Streit be-steht darin, wie weit dieses Recht reichen soll. Es stellt sich das Problem, ob es ein Recht ist, das verhindern soll, dass bestimmte genetische Informationen erzeugt werden, oder ob es nur das Recht ist, gewisse Information nicht zur Kenntnis nehmen zu müssen.

Für die Ausgestaltung einer Wissenspolitik spielt diese Differenz eine entscheidende Rolle. Im ersten Fall würde es sich um ein Informati-onserzeugungsverbot handeln, im zweiten Fall um einen Schutz des Selbstbildes der Person. Gleich wie dieser Streit entschieden wird, liegt hier eine prinzipielle Weichenstellung vor, das Feld für eine reflexive Wissenspolitik zu eröff-nen: „…so wird deutlich, dass eine solche Poli-tik mehr beinhaltet als die Mobilisierung, Steue-rung oder Überwachung des Wissens. Reflexive Wissenspolitik kann sich vielmehr als eine „Po-litik des Nichtwissens“ herausstellen, die die institutionalisierte Präferenz für Wissen, das auf Dauer gestellte Bemühen, auftretende Probleme vorrangig oder ausschließlich durch mehr Wis-sen zu bewältigen, grundlegend in Frage stellt“ (Wehling in diesem Schwerpunkt). Damit ist nicht mehr, aber auch nicht weniger gesagt, als dass die gesamte gesellschaftliche Organisation der Wissensproduktion auf den Prüfstand ge-

stellt werden soll. Inwieweit dies einer Wissens-politik, selbst einer reflexiven Wissenspolitik möglich ist, dürfte sowohl eine theoretische als auch gleichzeitig eine praktisch-politische Frage sein, die wiederum nur durch den gesellschaftli-chen Diskurs beantwortet werden kann.

Literatur

Barnes, B., 1999: Biotechnology as Expertise. In: O’Mahony, P. (ed.): Nature, Risks and Responsibil-ity Discourses on Biotechnology. New York: Rout-ledge, S. 52-66 Epstein, S., 1996: Impure Science. AIDS, Activism, and the Politics of Knowledge. Berkeley, Los Ange-les: University of California Press Habermas, J., 2001: Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik? Frankfurt a. Main: Suhrkamp Kaschinski, K.; Spehr, C., 2001: Hoffen, Fürchten, Kritisieren? Gen- und Biotechnik in der populären Kultur und die Generationen der Kritik. In: Das Argument 43, S. 685-700 Lemke, T., 2004: Veranlagung und Verantwortung. Genetische Diagnose zwischen Selbstbestimmung und Schicksal. Bielefeld: transkript-Verlag Lopata, H.L., 1976: Expertization of everyone and the revolt of the client. In: Sociological Quarterly 17, S. 435-447 Mannheim, K., [1929] 1965: Ideologie und Utopie. Frankfurt a. Main: Schulte-Bulmke Mitnick, B.M., 1980: The Political Economy of Regu-lation. Creating, Designing, and Removing Regula-tory Forms. New York: Columbia University Press Reynard, P.C., 2002: Public order and privilege. Eighteenth-century French roots of environmental regulation. In: Technology and Culture 43, S. 1-28 Simmel, G., [1907] 1989: Philosophie des Geldes. Frankfurt a. Main: Suhrkamp (Gesamtausgabe Bd. 6) Weingart, P.; Engels, A.; Pansegrau, P., 2002: Von der Hypothese zur Katastrophe. Der anthropogene Klimawandel im Diskurs zwischen Wissenschaft, Politik und Massenmedien. Opladen: Leske+Budrich

«

Seite 14 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 15: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Die Moralisierung der Wissen-schaftspolitik

von Gernot Böhme, TU Darmstadt

Wenn die Wissenschaftspolitik bisher die Aufgabe hatte, die Wissenschaft qua For-schung soweit es irgend ging zu fördern, so geht es jetzt darum, die Forschung zu über-wachen, für Forschungsvorhaben Geneh-migungsverfahren einzurichten, einen mo-ralischen Konsens über mögliche For-schungen sicherzustellen, die Anwendung von Forschungsergebnissen zu beschrän-ken und zu kanalisieren. Der Autor stellt diesen Wandel dar, indem er von der Finali-sierungsthese über die Kritik an der Milita-risierung der Wissenschaft bis in die Debat-ten um die Forschung am Leben und den Umgang mit dem Wissen vom Leben in die Gegenwart hineinführt. Die Moralisierung dieser Debatte ist legitim, weil es hier um Fragen unseres gesellschaftlich geteilten Selbstverständnisses geht.

Dass wir tatsächlich eine Moralisierung der Wissenschaftspolitik erleben, wird vielen im Blick auf die Debatten um die Stammzellenfor-schung und die Einrichtung eines nationalen Ethikrates sofort einleuchten. Im Blick auf diese Entwicklungen hat jüngst der deutsch-kanadische Soziologe Nico Stehr formuliert: „Eine der größten politischen Herausforderun-gen der nächsten Zukunft, eine die Anlass zu unendlichen Kontroversen geben wird, ist die Frage einer gesellschaftlichen Überwachung und Regulierung des Wissens“. Nico Stehr behauptet, dass wir es in Zukunft nicht bloß mit Wissenschaftspolitik zu tun haben werden, dass vielmehr der Umgang mit Wissen selbst zu einem Politikum wird. Wenn die Wissen-schaftspolitik bisher die Aufgabe hatte, die Wissenschaft qua Forschung soweit es irgend ging zu fördern, unter der Bedingung knapper Mittel Prioritäten zu setzen und ein innovatives Klima zu schaffen, so geht es jetzt darum, die Forschung zu überwachen, für Forschungsvor-haben Genehmigungsverfahren einzurichten, einen moralischen Konsens über mögliche Forschungen sicherzustellen, die Anwendung von Forschungsergebnissen zu beschränken und zu kanalisieren. Man könnte sagen, es geht um Wissensmanagement, aber das wäre ein zu

schwacher Ausdruck. Genauer gesagt geht es darum beständig auszuhandeln, was wir über-haupt wissen wollen und welche Anwendungen von Wissen wir als legitim ansehen. Es geht darum, einen gesellschaftlichen Konsens zu finden, aufgrund dessen die Erzeugung und Anwendung von Wissen geregelt wird. Diese Verschiebung im Verhältnis von Wissenschaft und Gesellschaft hat einen Grund in einer Tat-sache, die mir Anlass gegeben hat, von einem Ende des Bacon’schen Zeitalters zu sprechen (Böhme 1993): Das Vertrauen, das seit Francis Bacon die Beziehung von Wissenschaft und Gesellschaft getragen hat, ist zerbrochen, näm-lich das Vertrauen darauf, dass wissenschaftli-cher Fortschritt in jedem Fall zugleich humaner und gesellschaftlicher Fortschritt sein werde.

Wenn wir heute Anlass haben, von einer Moralisierung der Wissenschaftspolitik zu spre-chen, so kann das keinesfalls bedeuten, dass etwa Politik durch Moral ersetzt würde. Insbe-sondere geht es hier nicht um die Moral des einzelnen Wissenschaftlers. Da viel für die rich-tige Einschätzung der gegenwärtigen Moralisie-rung der Wissenschaftspolitik davon abhängt, dass man dieses letztere Missverständnis abhält, möchte ich auf diesen Punkt etwas genauer ein-gehen: Der Appell an die Moral des einzelnen Wissenschaftlers ist häufig eine Verlegenheit oder ein Ausdruck der Verzweiflung, an den institutionellen Bedingungen der Wissenschafts-entwicklung nichts ändern zu können. Man er-wartet vom einzelnen Wissenschaftler, dass er verantwortungsvoll sein Handwerk betreibe, bzw. der einzelne Wissenschaftler, der sich au-ßer Stande sieht, eine Entwicklung in der Wis-senschaft, die er für bedenklich hält, zu ändern, versucht durch individuelle Verweigerung we-nigstens das zu tun, was in seiner Reichweite liegt. Für letzteres ist die Verweigerung von Naturwissenschaftlern und Technikern gegen-über der Rüstungsforschung ein charakteristi-sches Beispiel – ich werde darauf zurückkom-men. Ein anderes Beispiel ist die Boykottierung von Tierversuchen bzw. der Vivisektion, wie sie verschiedentlich von Medizinstudenten geübt wurde. Solche Aktionen sind allenfalls Zeichen, die bei entsprechender Publizität vielleicht ein Umdenken im größeren Rahmen initiieren kön-nen. Wirkungsvoller sind da schon kollektive Selbstbindungen von ganzen Wissenschaftler-gruppen, etwa bestimmte Experimente Sorg-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 15

Page 16: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

faltsregeln zu unterwerfen bzw. in einer For-schungsrichtung ein Moratorium einzulegen1. Skeptisch gegenüber all diesen Versuchen indi-vidueller Moralisierung stimmen die Ergebnisse, die die Wissenschaftssoziologen Stephen Box und Stephen Cotgrove seinerzeit gewonnen haben. Box und Cotgrove haben empirisch un-tersucht, welche Wirksamkeit die Grundnormen der Wissenschaft für das konkrete Verhalten von Wissenschaftlern haben. Ihr Ergebnis war de-primierend: Sie konnten zeigen, dass Wissen-schaftler zumindest im Konfliktfall nicht den generellen wissenschaftlichen Normen folgen, sondern jeweils den Normen der Institution, die sie beschäftigt (Box und Cotgrove 1966).

Die Moralisierung der Wissenschaftspoli-tik bedeutet also nicht die Ersetzung von Poli-tik durch Moral, insbesondere nicht durch die Moral des Einzelnen. Es geht vielmehr darum, dass in den öffentlichen Auseinandersetzungen um die Entwicklung von Wissenschaft morali-sche Argumente eine Bedeutung gewinnen. Das heißt aber: im Verhältnis von Wissenschaft und Gesellschaft hat sich etwas geändert, die Wissenschaft ist nicht mehr einfach als ein Instrument gesellschaftlichen Fortschritts anzu-sehen. Wie ist es dazu gekommen?

1 Die Finalisierung der Wissenschaft in den 60er und 70er Jahren des 20. Jahr-hunderts

In den 60er und 70er Jahres des 20. Jahrhunderts gab es außerordentliche Erwartungen an die Entwicklung der Wissenschaft – es war viel-leicht die letzte Periode, in der man die Lösung aller gesellschaftlichen Probleme von der Wis-senschaft erwartete. Da ist als erstes das Pro-gramm der grünen Revolution zu nennen. Es handelte sich um die Vorstellung, dass man durch die Entwicklung der Agrarwissenschaft – Anbaumethoden, Saatgutentwicklung, Dünge-mittel, Pestizide – die landwirtschaftlichen Er-träge weltweit so würde steigern können, dass das Welthungerproblem gelöst würde. Da ist als nächstes die Hoffnung zu nennen, die man in die sog. friedliche Entwicklung der Kernkraft investierte. Man glaubte, dass in Zukunft durch Kernkraftwerke, insbesondere durch Fusions-reaktoren Energie in unbeschränktem Maße zur Verfügung stehen würde. Alle anderen Prob-leme könnten dann durch die praktisch unend-

lich zur Verfügung stehenden Energien gelöst werden. Dieser Gedanke ist nicht ganz absurd. So können natürlich etwa das Abwasser- und Müllproblem und die Versorgung mit Trink-wasser durch Recyclinganlagen und Meerwas-ser-Entsalzung im Prinzip gelöst werden. Ferner können Umweltschäden durch Rekultivierung bzw. Renaturierung beseitigt werden, voraus-gesetzt man hat beliebig viel Energie zur Ver-fügung, deren Herstellung nicht wiederum andere Umweltschäden erzeugt. Nur eben die letzte Bedingung ließ sich nicht erfüllen und zudem ist bis heute die friedliche Kernfusion nicht gelungen. Schließlich die dritte große Hoffnung: Die Hoffnung, die man auf Robotik und Kybernetik setzte oder allgemeiner auf die Automatisierung aller Produktion. Es war die große Hoffnung auf Abschaffung der Fabrikar-beit, durch die die menschliche Arbeit zu sich selbst befreit werden sollte, nämlich in reine Kreativität und allenfalls noch Regelungs- und Wartungsarbeit transformiert. All diese Hoff-nungen haben sich nicht erfüllt.

Aber damals in den 60er/70er Jahren war die Erwartung an die Wissenschaft so groß, dass die zentrale Frage der Wissenschaftspolitik darin bestand, ob der wissenschaftliche Fortschritt auf gesellschaftliche Zwecke hin steuerbar sei. Dies war die Frage, auf die die sog. Finalisierungs-theorie (Böhme, Daele, Krohn 1973) eine Ant-wort zu geben suchte. In Fortsetzung der Theo-rie wissenschaftlicher Revolutionen von Tho-mas Kuhn hatten ihre Autoren ein 3-Phasen-Modell der Wissenschaftsentwicklung aufge-stellt. In der ersten Phase ist die Wissenschaft insbesondere durch die Wahl ihrer Gegenstände sehr wohl von gesellschaftlichen Einflüssen abhängig. In der mittleren Phase, in der sich für eine wissenschaftliche Disziplin ein theoreti-sches Paradigma herausbildet, ist sie weitgehend autonom: Problemerzeugung und Theorieselek-tion sind wesentlich eine Angelegenheit der Scientific Community. Ist aber einmal eine Dis-ziplin zu einer gewissen theoretischen Reife gelangt, dann ist ihre weitere Entwicklung, näm-lich in Richtung auf Anwendung und Speziali-sierung, wiederum von gesellschaftlichen Ein-flüssen abhängig; mehr noch sogar: auf sie an-gewiesen. Das ist die dritte Phase der Wissen-schaftsentwicklung.

Heute im Rückblick erscheint diese Theorie nahezu trivial. Sie beschreibt eigentlich nur was

Seite 16 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 17: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

ohnehin geschieht, nämlich dass die Wissen-schaft wesentlich als ein Instrument zu gesell-schaftlichen Zwecken entwickelt wird. Davon ist nur ein relativ schmaler Sektor autonomer Wissenschaft ausgenommen, in dem es um die Etablierung gewisser grundlegender Theorien geht. Jedoch, die Konsequenzen dieser Be-schreibung sind noch immer brisant. Zum einen: wenn Wissenschaft zu gesellschaftlichen Zwe-cken entwickelt wird, fragt man sich, um wessen Zwecke es sich handelt. Die Gesellschaft kennt Fraktionen und nur selten bildet sich ein Kon-sens über einen gesamtgesellschaftlichen Nutzen heraus. Zum anderen: wenn Wissenschaft zu gesellschaftlichen Zwecken, die in der Regel Zwecke gewisser Fraktionen der Gesellschaft sind, sich entwickelt, welche Zwecke werden dann nicht erreicht, welche gesellschaftlichen Fraktionen werden von der Wissenschaft nicht bedient, welche Fragen werden nicht erforscht? Und zum Dritten folgt aus der Finalisierungs-theorie, dass die Wissenschaft zwar ein Instru-ment der Gesellschaft, aber keineswegs ein neutrales ist. Letzteres war ja in den umfängli-chen Diskussionen über Verantwortung in der Wissenschaft immer wieder unterstellt worden, nämlich dass die Wissenschaft zwar ein Instru-ment sei, aber gerade als solches wertneutral, so dass die Verantwortung für die Wissenschaft letzten Endes nicht bei der Forschung, sondern bei der Anwendung läge. Wenn Wissenschaft, wie die Finalisierungstheorie behauptete, um nützlich zu sein, bereits auf bestimmte Anwen-dungen hin entwickelt werden muss, dann wird sie nicht ohne weiteres für andere Anwendungen zur Verfügung stehen. Der drastische Fall für diese Asymmetrie ist der Fall der Kernfusion. Die Wasserstoffbombe hat man seit 1952, die friedliche Kernfusion dagegen ist bis heute nicht gelungen.

Es sind diese Konsequenzen, die bereits damals die Wissenschaftsentwicklung in morali-sche Perspektiven rückte. Man kann sagen: Die Moralisierung setzte ein als Wissenschaftskritik. Die Kritik der Wissenschaft unter der Frage, zu wessen Nutzen sie betrieben werde, führte zur Idee der Betroffenen-Wissenschaft – Wissen-schaft für die Frauen, Wissenschaft für die Ar-beitnehmer – und zur Einrichtung der Wissen-schaftsläden, in denen engagierte Wissenschaft-ler Science for the People machen wollten. Sie war vor allem Kritik an der Kriegsforschung

und sie klagte insbesondere im Energiesektor die vernachlässigten Alternativen ein.

2 Individuelle Moralisierung

Die Kritik an der Wissenschaft, ihre Funktiona-lisierung für Interessen des Kapitals, ihre Ver-strickung in die Rüstungsindustrie, ihre ambi-valenten Wirkungen im medizinischen Sektor führte bei vielen Wissenschaftlern zu dem Ver-such, Wissenschaft anders zu machen oder gar eine andere Wissenschaft. Wissenschaftskritik führte bei vielen Wissenschaftlern zur Überprü-fung ihres Selbstverständnisses qua Wissen-schaftler. Diese individuelle Moralisierung von Wissenschaft, deren Wirksamkeit wir bereits skeptisch erwähnt haben, stellt aber doch eine wichtige Stufe in Richtung einer Moralisierung der Wissenschaftspolitik dar, wie wir sie heute erleben. Die engagierten Wissenschaftler folg-ten der Maxime, bei sich selbst anzufangen, wenn man gesellschaftlich etwas erreichen will. Der nächste Schritt, der eine solche Wis-senschaftspolitik von unten darstellt, war der Zusammenschluss engagierter Wissenschaftler – etwa in der Organisation Science for the Peo-ple oder der Vereinigung deutscher Wissen-schaftler, der Organisation Naturwissenschaft-ler für den Frieden, der Atomic Scientists und der Pugvash-Konferenzen. Hier wurde häufig durch Satzungen und Erklärungen versucht, das moralische Engagement der Wissenschaftler für ganze Gruppen verbindlich zu machen und insbesondere auf diese Weise in die Öffent-lichkeit hinauszuwirken. Charakteristisch für diese Form der Moralisierung ist die Darm-städter Verweigerungsformel, die in den Jahren der so genannten Nachrüstung von der Darm-städter Initiative für Abrüstung entworfen wur-de und von etwa 130 Wissenschaftlern und Technikern unterzeichnet wurde:

„Ich erkläre hiermit, dass ich mich im Rah-men meiner Tätigkeit als Wissenschaftler oder Techniker an der Entwicklung militäri-scher Rüstung nicht beteiligen will. Ich wer-de mich vielmehr um eine Aufklärung des Beitrages meines Fachgebietes zur Rüs-tungsentwicklung bemühen und der militäri-schen Verwendung wissenschaftlichen und technischen Wissens entgegenwirken.“ (Burkhardt 1964, S. 229)

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 17

Page 18: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Diese Erklärung ist ein weiteres Beispiel für individuelle Moralisierung in der Wissenschaft, aber sie zeigt doch über die Sammlung gleich lautender Einzelentscheidungen den Weg zur kollektiven Entscheidung, die den nächsten Schritt in Richtung einer Moralisierung des Umgangs mit Wissenschaft dargestellt.

3 Gesellschaftliche Moralisierung

Der Schritt über den mehr oder weniger großen Massenprotest gegen die Rüstungsforschung hinaus wurde gemacht in dem Moment, in dem eine ganze wissenschaftliche Institution durch demokratischen Beschluss sich gegen Rüs-tungsforschung entschied. Dieser Fall ist äu-ßerst lehrreich. Es handelt sich um die Fach-hochschule Hamburg, deren Senat 1983/84 folgenden Beschluss fasste: „Die Fachhoch-schule lehnt die Zusammenarbeit mit Firmen und Institutionen ab, deren militärische Zweckbindung erkennbar ist, und führt keine Untersuchung durch und übernimmt keine Auf-träge, die offensichtlich militärischen Zwecken dienen. Alle neuen Mitglieder sind auf diesen Beschluss hinzuweisen.“ Ein solcher demokra-tischer Beschluss einer Institution ist natürlich das einzig Richtige, wenn man der moralischen Haltung des einzelnen Wissenschaftlers gegen-über seinem wissenschaftlichen Tun Wirkung verleihen will und außerdem das von Box und Cotgrove aufgewiesene Dilemma vermeiden will, dass der einzelne Wissenschaftler trotz ggf. anderer moralischer Orientierung den Im-perativen der Institution folgt, die ihn beschäf-tigt. Doch gerade diese Lösung, bei der eine ganze wissenschaftliche Institution der in ihr laufenden Forschung eine moralische Orientie-rung geben wollte, ist gescheitert – musste scheitern. Sie widersprach nämlich – jedenfalls war das die Auffassung des damaligen Ham-burger Wissenschaftssenators Prof. Klaus Mi-chael Meyer-Abich – dem Grundgesetz. Mey-er-Abich hob auf dem Wege der dienstlichen Rechtsaufsicht den Beschluss des Senats der Fachhochschule auf. In der Begründung heißt es: „Der Beschluss des Fachhochschulsenats verstößt gegen Artikel 5 Abs. 3 des Grundge-setzes. Denn das Grundrecht der Freiheit der Forschung und der Lehre garantiert den einzel-nen forschenden und lehrenden Mitgliedern der Fachhochschule auch die Beteiligung an Pro-

jekten und Untersuchungen mit militärischen Zwecken oder Zweckbindungen ...“.2

Das Scheitern der gesellschaftlichen Mora-lisierung der Wissenschaft machte schlagartig deutlich, dass die Forschungsfreiheit, wie sie im Grundgesetz der Bundesrepublik Deutschland verankert ist, ein individuelles Freiheitsrecht darstellt. Als solches gehört es in den Kontext der Meinungsfreiheit, eines für die Demokratie essentiellen Grundrechtes, wie es im Vormärz und 1848 in der Paulskirche formuliert wurde. Für die damalige Zeit war das auch ganz ange-messen, insofern in der ersten Hälfte des 19. Jahrhunderts die wesentliche gesellschaftli-che Bedeutung von Wissenschaft noch in ihrem kritischen Potenzial bestand oder, allgemeiner gefasst, in ihrer Weltbildfunktion. Forschung wurde als Wahrheitssuche verstanden und war damit eine wesentliche Voraussetzung für die Freiheit der Feder und der Rede. Seit dem An-fang des 20. Jahrhunderts hat sich allerdings die gesellschaftliche Bedeutung von Wissenschaft wesentlich verändert. Durch die Nähe zur Tech-nik und Industrie ist Forschung Produktivkraft-entwicklung geworden. Ferner ist sie gerade in den wichtigsten Sektoren, und das sind für diese neue gesellschaftliche Funktion der Wissen-schaft die Naturwissenschaften, nicht mehr eine Sache des Einzelnen: Forschung wurde zum kollektiven Unternehmen. Diesen fundamenta-len Wandel von Wissenschaft im 20. Jahrhun-dert hat der parlamentarische Rat in der Formu-lierung des Grundgesetzes offenbar nicht be-rücksichtigt. Die Forschungsfreiheit wurde wei-terhin als Unterparagraph der Meinungs- und Pressefreiheit formuliert, nämlich als Art. 5 Abs. 3: „Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre ent-bindet nicht von der Treue zur Verfassung.“

Der zweite Satz des Art. 5 Abs. 3 GG macht deutlich, dass die Forschungsfreiheit keiner spezifischen Einschränkung unterliegt. Er verweist lediglich darauf, dass auch der Forscher wie jeder Bürger an die Verfassung gebunden ist. Diese Tatsache, dass der parlamentarische Rat es nicht für nötig befunden hat, eine Mög-lichkeit der Einschränkung der Forschungsfrei-heit zu konzipieren, ist mindestens ebenso er-staunlich wie seine Verkennung der gesell-schaftlichen Bedeutung, die die Wissenschaft des 20. Jahrhunderts erlangt hat: Der Artikel 5 Abs. 3 ist in keiner Weise von den Erfahrungen

Seite 18 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 19: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

des Missbrauchs von Wissenschaft unter dem Naziregime gezeichnet. Es ist, als habe es Dr. Mengele und die Experimente an und mit Menschen nicht gegeben. Der Hinweis, dass solche Versuche an Menschen selbstverständlich gegen die Menschenwürde (Artikel 1) verstoßen würden und es deshalb überflüssig sei, eine entsprechende Einschränkung der Forschungs-freiheit zu formulieren, sticht nicht, weil das Grundgesetz auch sonst Redundanzen enthält. So wird bspw. in Artikel 20 Abs. 4 ein Recht zum Widerstand gegen jeden formuliert, der es unternimmt, die grundgesetzliche Ordnung zu beseitigen. Außerdem zeigt sich heute, dass Einschränkungen der Forschungsfreiheit wün-schenswert wären, wo sie nicht schon durch den Hinweis auf die Menschenwürde zu rechtferti-gen sind, nämlich im Umgang mit Leben über-haupt. Das führt uns zu dem zentralen Punkt, der gegenwärtig zu einer Moralisierung der Wissen-schaftspolitik geführt hat.

4 Die Moralisierung der Wissenschafts-politik

Wenn heute Wissenschaftspolitik nicht mehr die kluge Regelung des wissenschaftlichen Fort-schritts ist, sondern zum Handeln im morali-schen Raum wird, dann werden offenbar von der Wissenschaft essentials unseres geteilten Selbstverständnisses, also unseres Verständnis-ses, in welcher Gesellschaft wir leben und was wir unter würdigem Menschsein verstehen, be-rührt. In diesem Moment sind moralische Ar-gumente im politischen Diskurs legitim und die Schaffung moralischer Institutionen zumindest als Foren eines öffentlichen moralischen Dis-kurses ist angezeigt, wenn nicht gar geboten. Im Folgenden soll nun das Grundsätzliche dieser Wendung der Wissenschaftspolitik ins Morali-sche skizziert werden. Es sind vor allem, soweit ich sehe, zwei Entwicklungen, die solche essen-tials unseres gesellschaftlichen Selbstverständ-nisses berühren, und zwar einerseits die Privati-sierung des Wissens vom Leben und anderer-seits die Funktionalisierung des menschlichen Lebens zu Forschungszwecken bzw. innerhalb von Forschungsvorhaben. Wenn sich angesichts dieser Entwicklungen ein öffentlicher morali-scher Diskurs entfaltet, so muss man nicht glau-ben, dass es dabei nur um ausformulierte Grund-rechte oder Schutzgüter geht, die im Grundge-

setz formuliert sind. Es kann auch durchaus um tief liegende Tabus gehen oder um moralische Intuitionen, die bisher noch keine explizite For-mulierung gefunden haben. Es ist ohnehin zu erwarten, dass im Moment der moralischen Herausforderung moralische Topoi, die bisher unbewusst oder implizit ihre Wirkung getan haben, erst zum Bewusstsein kommen und eine Explikation erfahren.

Es sind also in der Gegenwart im Wesentli-chen die Wissenschaften vom Leben, die mora-lische Sorgen verursachen – wenn man das so sagen darf. Der erste Bereich der Sorgen hängt damit zusammen, dass die Naturwissenschaft allgemein und die Wissenschaft vom Leben natürlich im Speziellen innerhalb eines Nut-zungsinteresses vorangetrieben werden. Gerade sehr teure Forschungen müssen sich irgendwie auch rechnen bzw. umgekehrt, sie werden nur deshalb unternommen, weil man sich von den Ergebnissen einen ökonomischen Nutzen ver-spricht. Da Wissen nun im Prinzip öffentlich ist und gerade wissenschaftliches Wissen nicht nur allgemein gültig ist, sondern im Prinzip auch von jedermann angeeignet werden kann, er-zwingt das ökonomische Nutzungsinteresse die Patentierung von Wissen und Verfahren. Das hat nun dazu geführt, dass Versuche unternom-men worden sind, einzelne genmanipulierte Lebewesen bzw. einzelne Funktionszusammen-hänge in Lebewesen unter Patentschutz zu stel-len. Diese Versuche sind äußerst umkämpft und haben nur in einzelnen Fällen bisher wirklich zu Patenten geführt. Aber der Trend ist klar: Die Entwickler, seien das nun einzelne Forscher oder Teams oder Firmen, wollen eine private Nutzung des von ihnen produzierten Wissens vom Leben sicherstellen.

Diese Intentionen verstoßen nun offenbar gegen gewisse tief sitzende moralische Intuiti-onen. Sie können sich etwa in der Form äußern, dass jemand sagt: Ein Tier ist doch keine Ma-schine, ein Tier kann nicht patentiert werden. Allgemeiner ist die hier gemeinte moralische Intuition im Entwurf der Bioethikkonvention der UNESCO von 1995 zum Ausdruck ge-bracht worden, indem sie das menschliche Ge-nom zum gemeinsamen Erbe der Menschheit erklärt hat. Dieser Satz kann bedeuten, dass man das menschliche Genom, d. h. also auch die genetische Ausstattung eines einzelnen Menschen, nicht als Privatsache betrachten darf

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 19

Page 20: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

und dass insbesondere nicht einzelne Men-schengruppen über das menschliche Genom nach ihren Interessen verfügen dürfen.3

Eine ähnliche Intuition regt sich bei dem, was inzwischen unter dem Stichwort intellektu-elle Piraterie bekannt ist: Man bezeichnet damit die wissenschaftliche Aneignung des Wissens der Einheimischen und dessen anschließende Patentierung. Auch hier geht es darum, dass ein bestimmtes Wissen als Allgemeingut angesehen wird und die Wissenschaft ein solches Wissen durch die wissenschaftliche Aneignung und Durchdringung zu etwas macht, auf das dann der einzelne Wissenschaftler oder seine Institu-tion ein Urheberrecht hat. In beiden genannten Fällen wird das Wissen vom Leben als eine Art Allmende angesehen, als ein Allgemeingut, das es als solches zu erhalten gilt.

Das zweite Beispiel ist die Funktionalisie-rung menschlichen Lebens im Forschungszu-sammenhang. Natürlich würde eine solche Funktionalisierung direkt die Menschenwürde verletzen, wenn es sich um Experimente an oder mit Menschen handeln würde. Ein Prob-lem ist hier nur deshalb aufgetreten, weil es fraglich ist, ob Embryonen außerhalb des Mut-terleibes bereits Menschenwürde zuzusprechen ist. Wenn es sich überhaupt um einen Menschen handelt, dann ist auch sein Leben gegenüber einer Funktionalisierung durch Artikel 2.2 GG geschützt.4 Da man eine embryonale Stammzel-le jedenfalls als eine Einheit menschlichen Lebens verstehen muss, so stellt sich die Frage, ob menschliches Leben als solches den selben Schutz genießt, wie das Leben eines Menschen. Dies ist nun eine Stelle, wo wiederum morali-sche Intuitionen verletzt werden können. Of-fenbar empfinden viele Menschen so, dass hier auch der kategorische Imperativ Kants greift, der ja jede Funktionalisierung des Menschen verbietet. Kant formuliert allgemein für ver-nünftige Wesen: „Dass jedes derselben sich selbst und alle anderen niemals bloß als Mittel, sondern jederzeit zugleich als Zweck an sich selbst behandeln solle.“5 Die moralische Intui-tion geht nur darüber hinaus, nämlich dass man überhaupt jede Einheit menschlichen Lebens niemals bloß als Mittel behandeln darf. Das aber würde in der verbrauchenden Embryonen-forschung geschehen.

Ein weiteres Beispiel, das hiermit zusam-menhängt, das man aber vielleicht doch als ei-

nen dritten Typ ansehen sollte, ist die durch die Fortschritte der genetischen Forschung und der Gentechnik mögliche Eugenik. Auch hier dürfte ein Teil des moralischen Widerstandes aus der Intuition resultieren, dass menschliches Leben nicht funktionalisiert werden dürfe. Dann wäre diese Möglichkeit in unserer zweiten Fallgruppe unterzubringen. In der Bundesrepublik Deutsch-land gibt es allerdings noch einen anderen mora-lischen Hintergrund und das ist das Selbstver-ständnis unserer Gesellschaft oder besser gesagt, des Staates Bundesrepublik Deutschland, aus der Überwindung des Faschismus hervorgegan-gen zu sein. Soweit dieses Selbstverständnis ein tragender Konsens unserer Gesellschaft ist, darf man natürlich nicht den Missbrauch, der unter den Nationalsozialisten mit der Eugenik ver-bunden war, vergessen. Die grundsätzliche Möglichkeit dieses Missbrauches und die Not-wendigkeit seiner Abwehr sind dann unver-zichtbare moralische Eckpfeiler jeder politi-schen Entscheidung bezüglich der Eugenik.

Diese Skizze dürfte ausreichen, um zu zeigen, dass die Moralisierung der Wissen-schaftspolitik, die wir in der letzten Zeit erlebt haben, nicht bloß ein Faktum ist, sondern dass sie legitim und notwenig ist. Die Wissenschaft selbst ist in eine Phase eingetreten, in der sie Gegenstände berührt und Wissen und damit Handlungsmöglichkeiten produziert, die nicht einfach nur unter dem Gesichtspunkt von Nut-zen und Schaden zu betrachten sind, sondern die Grundlagen unseres menschlichen und ge-sellschaftlichen Selbstverständnisses berühren.

Anmerkungen

1) Dergleichen wurde unternommen in der Asilo-mar-Konferenz 1975; zur Auswertung s. The Scientist 14(7): 3. April 2000

2) Ich habe den Fall näher untersucht in meinem Aufsatz „Schützt das Grundgesetz die Rüstungs-forschung?“ in Eckbert Nickel, Alexander Roß-nagel, Bernhard Schlink. (Hrsg.), Die Freiheit und die Macht – Wissenschaft im Ernstfall, Ba-den-Baden: Lomos, 1994, Seite 85-92.

3) Siehe dazu mein Buch Ethik im Kontext über den Umgang mit ernsten Fragen. Frankfurt/Main: Suhrkamp 2. Aufl.“ Der Satz ist in der endgülti-gen Fassung durch die blassere Formel ersetzt worden: Article 4: The human genome in its na-tural state should not give rice to financial gains.

Seite 20 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 21: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

4) Artikel 2.2: Jeder hat das Recht auf Leben und körperliche Unversehrtheit.

5) Imanuel Kant: Grundlegung zur Metaphysik der Sitten. BA 74/75.

Literatur

Böhme, G., 1993: Am Ende des Baconschen Zeital-ters. Studien zur Wissenschaftsentwicklung. Frank-furt a. M.: Suhrkamp St. Box, St. Cotgrove, 1966: Scientific Identity, Oc-cupational Selections, and Role Strain. In: BJS 17, pp. 20-38 Böhme, G.; Daele W. v.d.; Krohn, W., 1973: Die Finalisierung der Wissenschaft. In: Zeitschrift für Soziologie 2, S. 128 ff. Burkhardt, A. (Hrsg.), 1964: Hochschule und Rüs-tung. Ein Beitrag von Wissenschaftlern der Techni-schen Hochschule Darmstadt zur („Nach“) Rüs-tungsdebatte. Darmstadt: Verlag Darmstädter Blät-ter, S. 229

Kontakt Prof. Dr. Gernot Böhme Institut für Philosophie FB 2 – Gesellschafts- und Geschichtswissenschaften Technische Universität Darmstadt Schloss, 64283 Darmstadt Tel.: +49 (0) 61 51 / 16 - 21 97 Fax: +49 (0) 61 51 / 71 58 75 E-Mail: [email protected]: http://www.ifs.tu-darmstadt.de/phil/ index1.html

»

The University as a Creative Destroyer of Social Capital

by Steve Fuller, University of Warwick, UK

The university is distinguished as an insti-tution of knowledge governance by its de-dication to what the author calls the ‘crea-tive destruction of social capital’. That is, in their research function, universities create advantage; in their teaching function, they destroy it. This dual function has been his-torically tied to the university’s institutional autonomy. However, as the university has incorporated more of society into its activi-ties – and thereby truly universalized the knowledge it produces – it has opened itself to factors that threaten to dismember its institutional integrity. The author considers a series of these factors in this paper, argu-ing that their growing significance reflects the decline of the welfare state and the emergence of ‘capitalism of the third order’.

This tendency has had many historical well-wishers, who together reveal liberal-ism’s instinctive scepticism toward knowl-edge-bearing institutions combined with an openness to information technology. More-over, as the state has shifted its role from provider of knowledge as public good to regulator of intellectual property, a curious rewriting of the politics of knowledge gov-ernance has occurred. Thus, much of the critical thrust of my paper focuses on the influential claim by Edmund Kitch that knowledge tends to escape its bearers, un-less the state arrests its flight through leg-islation. Because the exact opposite is truer to history, the significance of the university as a knowledge-bearing institution tends to be grossly underestimated, and hence un-der threat in these neo-liberal times. The author addresses this threat in the final section of the paper, along with some ideas about how it may be overcome.

1 The University as the Ideal Knowledge-Bearing Institution

In the time-honored equation “knowledge is power”, power involves both the expansion and contraction of possibilities for action. Knowl-edge is supposed to expand the knower’s possi-bilities for action by contracting the possible

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 21

Page 22: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

actions of others. These others may range from fellow knowers to non-knowing natural and artificial entities. This broad understanding of the equation encompasses the interests of all who have embraced it, including Plato, Bacon, Comte, and Foucault. But differences arise over the normative spin given to the equation: Should the stress be placed on opening or closing possi-bilities for action? If the former, then the range of knowers is likely to be restricted; if the latter, then the range is likely to be extended. After all, my knowledge provides an advantage over you only if you do not already possess it. In this respect, knowledge is what economists call a positional good (Hirsch 1977), a concept that will loom large in the pages that follow. In this context, it helps to explain our rather schizoid attitudes toward the production and distribution of knowledge. We do research to expand our own capacity to act, but we teach in order to free our students from the actions that have been and could be taken by others.

By virtue of their dual role as producers and distributors of knowledge, universities are engaged in an endless cycle of creating and destroying “social capital”, that is, the compara-tive advantage that a group or network enjoys by virtue of its collective capacity to act on a form of knowledge (Stehr 1994). Thus, as research-ers, academics create social capital because intellectual innovation necessarily begins life as an elite product available only to those on the cutting edge. However, as teachers, academics destroy social capital by making the innovation publicly available, thereby diminishing what-ever advantage was originally afforded to those on the cutting edge. Recalling Joseph Schum-peter’s (1950 [1942]) definition of the entrepre-neur as the “creative destroyer” of capitalist markets, the university may be regarded as a meta-entrepreneurial institution that functions as the crucible for larger societal change. This pro-cess mimics the welfare state’s dual economic function of subsidizing capitalist production and redistributing its surplus. Not surprisingly, then, universities magnified in size and significance during the heyday of the welfare state, and have been now thrown into financial and wider insti-tutional uncertainty with the welfare state’s de-volution (Krause 1996).

Moreover throughout its history, the uni-versity has been institutionally predisposed to

engage in the creative destruction of social capi-tal. In the Middle Ages, they were chartered as permanent self-governing bodies in a world of limited sovereign reach. Keeping the peace was often the most that a realistic sovereign could hope to achieve. Thus, in exchange for loyalty to the local ruler, universities were legally permit-ted to set their own curricula, raise their own capital, and even help manage the region’s eve-ryday affairs. This was the context in which universities were chartered as among the first corporations (i.e., universitates, in Medieval law). This orientation marked a significant shift from the much more populous residential col-leges of the Islamic world, the madrasas, which depended on the benefaction of intrusively pious patrons, or the more venerable, but also more routinized, training centers for civil servants in imperial China (Collins 1998). To be sure, like these institutions of higher learning, the Medie-val universities were broadly dedicated to the reproduction of the social order. However, be-cause the universities were founded in times and places that were profoundly disordered, aca-demics were immediately thrown into situations where their words and deeds effectively bro-kered alternative futures.

Given these origins, it is not surprising that academics have found it relatively easy to seed social unrest, which invariably they have inter-preted as bringing order to an otherwise disor-dered situation. Perhaps the signature case of universities’ imposing order is the Humboldt-inspired research-and-teaching university of the modern era, which is fruitfully conceptualized as a social technology for incorporating large seg-ments of the population into the production and distribution of knowledge (Fuller 2002b). For example, exemplary works by eccentric gen-iuses were transformed into employment schemes for ordinary trainee academics. Kuhn would later call this routinization the “discipli-nary matrix” sense of “paradigm,” which has become the backbone of modern graduate edu-cation (also known as normal science). Thus, modern academia transformed Newton’s Prin-cipia Mathematica from an imperfectly realized masterwork to a blueprint for a collectively real-izable project. More generally, this attempt to cast the university as a social technology for truly universal knowledge has accelerated the institution’s tendency to drift from what I have

Seite 22 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 23: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

called a monastic to a priestly mode (Fuller 2000a: chap. 5; Fuller 2002a: chap. 4): the for-mer stressing the virtues of institutional auton-omy, the latter those of societal transformation.

Perhaps the clearest epistemic marker of this drift is the benchmark for original research. In the monastic mode, the inquirer’s empirical resources are typically confined to the univer-sity’s grounds, which means a reliance on the campus library or oneself (or sometimes stu-dents) as primary databases. Under the circum-stances, historical and philosophical studies provide the via regia to knowledge of the par-ticular and the universal, respectively. But as the university has extended its political ambitions into the priestly mode, these two disciplines were replaced, respectively, by sciences focus-ing on ethnographic field work and experimental laboratory work. Accordingly, universities have undertaken substantial commitments to trans-form and govern areas, or “sites,” often far off-campus. This has not only driven a physical and psychological wedge between the university’s teaching and research functions, but it has also recast the university as a participant in power structures about which many of its staff, over the years, have had serious reservations. Yet, at the same time, staff loyalty to particular universities has diminished, so that nowadays complainants are more inclined to look toward the greener pastures of other campuses than to try to reform their current institution.

However, the most obvious recent univer-sity policy that illustrates the university’s priestly mission is affirmative action legislation, which quite explicitly takes forward the univer-sity’s regulative ideal of creatively destroying societal advantage by giving priority to tradi-tionally underprivileged groups in the hiring and promotion of academic staff, as well as the se-lection and sometimes even evaluation of stu-dents (Faundez 1994). This point, which gener-ally goes unappreciated by the policy’s many critics, highlights the distinctive sense in which universities (and other chartered corporations) have participated in the more general processes of societal reproduction. For, here we have a legally self-perpetuating social institution whose process of inter-generational role replacement is not family-based. In other words, universities are pioneers in the decoupling of social repro-duction from biological reproduction.

2 The Knowledge Society as Capitalism of the Third Order

To understand the integral role of universities to the latest phase of capitalism, consider two gen-eral ways of thinking about the nature of capital-ism. The more familiar one is a first-order ac-count about how producers are engaged in per-petual – and largely self-defeating (according to Marxists) – competition to make the most out of the least, and thereby generate the greatest re-turn on investment, also known as ‘profits’. Whatever its other merits, this account takes for granted that the relative standing of competing producers is self-evident, so that no additional work is required to identify the ‘market leaders’. But in fact, such work is needed. This second-order account of how producers publicly dem-onstrate their productivity is the context in which ‘capitalism’ was coined by Max Weber’s great German rival, Werner Sombart, in 1902 (Grundmann and Stehr 2001). What contempo-raries, notably Thorstein Veblen, derided as the ‘conspicuous consumption’ of successful capi-talists, Sombart treated as the principal means by which capitalists displayed their social stand-ing in a world where social structure was no longer reproduced as a system of fixed heritable differences. Thus, capitalists had to spend more in order to appear more successful.

However, it would be misleading to think of these expenditures as allowing capitalists to luxuriate in their success. On the contrary, it spurred them to be more productive in the or-dinary, first-order sense, since their competi-tors were quickly acquiring comparable, if not better, consumer goods. Indeed, before long, the competition was so intense that it became necessary to spend on acquiring the connois-seurship needed to purchase goods that will be seen – by those who know how to see – as ahead of the competition’s purchases. By the time we reach this ‘third-order’ capitalism, we are at the frontier of the knowledge society. That the ‘knowledge society’ might be a more polite way of referring to third-order capitalism should not be prima facie surprising. After all, the founding father of scientometrics, Derek de Solla Price, trawled through the welter of na-tional economic statistics, only to find that the indicator that showed the strongest positive correlation with research productivity was not a

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 23

Page 24: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

measure of industrial productivity, but of elec-tricity consumption per capita (Price 1993; Fuller 2002a, chap. 1).

A certain vision of economic history is im-plied in the above account of capitalism. In pre-capitalist times, consumption was done at the expense of production, which explained (for example) the fleeting success of Spain and Por-tugal as imperial powers. They failed to reinvest the wealth they gained from overseas; they sim-ply squandered it. In contrast, capitalist con-sumption is second-order production supported on the back of increased first-order production. From a sociological standpoint, the most strik-ing feature of this ‘before-and-after’ story is its suggestion that capitalism is innovative in alter-ing the sense of responsibility one has for main-taining a common social order. In pre-capitalist times, this responsibility was, so to speak, equally distributed across its members, regard-less of status. Lords and serfs equally bore the burden of producing the distinction that enabled lords to dominate serfs. Expressions like ‘mu-tual recognition’, ‘respect’, and ‘honour’ capture this symmetrical sense of responsibility. How-ever, in capitalist times, it would seem that, like insurance in today’s devolved welfare states, individuals bear this burden in proportion to their desire to be protected from status erosion. Thus, those who would be recognized as supe-rior need to devote increasing effort to a demon-stration of their superiority.

This last point becomes especially poignant in advanced capitalist societies, where at least in principle the vast majority of people can lead materially adequate lives while spending less time and effort on first-order productive pur-suits. However, this situation simply leads peo-ple to intensify their efforts at second-order pursuits. As a result, for example, individuals spend more on education and firms on advertis-ing, even though the advantage they gain in terms of first-order production is marginal or temporary. Yet, this expenditure is necessary for one to be seen as ‘running with the pack’. Thus, we return to the concept of positional good in-troduced at the start of this article. The logic of producing such goods predicts that, over time, one’s relative status will decline, unless it is actively maintained, which usually involves trying to exceed it, thereby raising the absolute standard that everyone needs to meet. Thus, an

expanded production of positional goods, com-bined with increased efficiency in the produc-tion of material goods, results in the systemi-cally irrational outcomes that we have come to expect (and perhaps even rationalize) as our ‘knowledge society’. Specifically, the resources spent on acquiring credentials and marketing goods come to exceed what is spent on the ac-tual work that these activities are meant to en-hance, facilitate, and communicate.

Of course, such a classic case of means-ends reversal is not systemically irrational, if it marks a more-or-less conscious shift in values. Thus, it may not take much to be persuaded that we really do produce in order to have something to sell, and we take up particular jobs in order to have a platform for showing off our credentials. The struggle for recognition therefore overtakes the struggle for survival – the ultimate triumph of the German over the English tradition in po-litical thought (Fukuyama 1992, chaps. 13-19). But this point acquires more of a sting in the case of so-called ‘public goods’, especially knowledge. In the case of such goods, producers are (supposedly) not only unable to recover fully the costs of production, but they would also incur further costs, were they to restrict con-sumption of their good. However, I would urge that so-called public goods be analysed as sim-ply the class of positional goods that most effec-tively hide their production costs, specifically by everyone paying into a fund whose actual bene-ficiaries are undisclosed, perhaps because they are indeterminate (Fuller 2002a, chap. 1).

This abstract point may be illustrated by answering a concrete question: Why is Einstein not entitled to a patent for his theories of relativ-ity? The answer is that Einstein’s theories were innovative against a body of physical science whose development had been funded by the German state through taxation and other public finance schemes, major beneficiaries of which were institutions of higher education. These institutions were, in turn, open to anyone of sufficient merit, who would then be in a position to contribute to this body of knowledge. Einstein happened to take advantage of this opportunity that was in principle open to all taxpayers. But even if Einstein had not existed, it would have been only a matter of time before someone else would have come along to push back the fron-tiers of knowledge in a comparable manner. But

Seite 24 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 25: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

as long as it remains unclear from what part of the population the next Einstein is to be drawn, the public finance of higher education is justi-fied. In that case, Einstein does not deserve the economic advantage made possible by a patent because he simply exploited an opportunity that had been subsidized by his fellow citizens. I propose this as the ‘deep rationale’ for the pro-duction of public goods like university educa-tion and research that have been the hallmarks of welfare state regimes.

3 The Welfare State’s Role in Making Knowledge Appear “Self-Protective”

That knowledge would be the paradigm case of a public good is itself no mystery. It may have required much effort for Edison and Einstein to come up with their ideas, but once those ideas were published, anyone could potentially bene-fit from them. A logical conclusion of this line of thought, exploited by the U.S. legal theorist Edmund Kitch (1980), is that knowledge resists commodification to such an extent that the state must intervene to restrict its flow through intellectual property legislation, which ensures that knowledge producers can reap at least some of the fruits of their labors. Kitch imag-ines that knowledge is so naturally protective of its own interests that, in effect, a special class of laws is needed to protect knowledge producers from the knowledge they produce!

Thus, Edison is entitled to a patent because of the likely commercial benefit afforded by his ideas, since once I understand how Edison in-vented the first incandescent light bulb, I am in a good position to design similar goods more effi-ciently that can be then sold more cheaply, and thereby corner a market that would otherwise belong to Edison. (In the economic history lit-erature, this is sometimes called the “Japan Ef-fect”, whereby it is always better to run second in unregulated market competition.) But why do similar worries not arise in the case of Einstein’s discovery of relativity theory? In other words, suppose economists took seriously both the costs of acquiring the training needed to put Einstein’s theory to any sort of use and the fact that this training would allow the trainee to earn a reasonable living as a physics instructor, if not design a way to supersede Einstein’s theory that would merit the Nobel Prize. It that case, ques-

tions would be raised, not only about whether Einstein might not also be entitled to some legal protection, but also whether knowledge is as naturally footloose as Kitch and other public goods theorists make it out to be.

Two interrelated issues need to be explored here. The first is the source of the difference in our normative intuitions concerning Edison and Einstein as knowledge producers: Why should the former but not the latter be entitled to legal protection? But the second, more general issue is the source of Kitch’s influential intuition that knowledge is inherently “self-protective”. My response to the first question will lay the groundwork for answering the second question. I shall argue that by overlooking the background political economy of knowledge production, Kitch’s thesis about the self-protective nature of knowledge gets matters exactly backwards. In short, specific, mostly state-based, institutions (most notably the university) have been required to ensure that knowledge possesses the sorts of properties that Kitch personifies as self-protective. It should come as no surprise that Paul Samuelson (1969), the most influential welfare state economist of the post-WWII era, coined the phrase “public good” (albeit to for-malize the only non-protective function that Adam Smith prescribed for the state), or that the need for public finance schemes to support sci-entific research should have been first raised by a utilitarian philosopher with strong welfarist concerns, Henry Sidgwick (Lutz 1999, p. 110).

So let us ask: Why is Einstein not entitled to legal protection? Einstein’s theory of relativ-ity was innovative against a body of physical science whose development had been funded by the German state through taxation and other public finance schemes, the main beneficiaries of which were institutions of higher education. These institutions were, in turn, open to anyone of sufficient merit, who would then be in a position to contribute to this body of knowl-edge. Einstein happened to take advantage of this opportunity. But even if Einstein had not existed, it would have been only a matter of time before someone else would have come along to push back the frontiers of knowledge in a comparable manner – so it is assumed. But as long as it remains unclear from what part of the population the next Einstein is likely to be drawn, the public finance of higher education is

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 25

Page 26: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

justified (imagine a compulsory lottery). In that case, Einstein does not deserve the economic protection afforded by a patent because he ex-ploited an opportunity that had been subsidized by his fellow citizens.

Now, why would the state have undertaken such a public finance scheme in the first place? Here we must resort to some political metaphys-ics. The state must presuppose that some knowl-edge is vital to the national interest, yet there is no natural incentive for any particular citizen to engage in its pursuit. Therefore, the state must provide the sort of universalized incentive scheme exemplified by free public education. Germany acquired this mindset, courtesy of Baron Helmut von Moltke, the mastermind of its victory in the Franco-Prussian War of 1870-71. Von Moltke argued that a healthy nation was always ready for “total war”, that is, not merely strategic engagement with a definite goal in sight (the classical aim of warfare), but rather the ongoing removal of any threat to national security. This was the idea of a “permanent state of emergency”, which would come to be the signature stance toward research and education policy in Cold War America, a period of un-precedented university expansion (Noble 1991).

In a sense, then, Einstein received advance payment for the theory of relativity by having been allowed to obtain the training necessary for making his revolutionary breakthrough. To be sure, many other people underwent similar train-ing and failed to arrive at anything of compara-ble significance. But that just underscores the risk that the state, on behalf of its citizens, un-dertakes when it raises taxes for mass public education: There is no guarantee that the bene-fits will outweigh the costs. In contrast, some situations that call for new knowledge are suffi-ciently obvious that citizens, regardless of prior training, will find it in their self-interest to try to meet them. In that case, an innovator is vulner-able to similarly oriented individuals who are in a position to make marginal improvements that end up displacing the innovator from the market. Edison’s discoveries occurred in this environ-ment, which justifies his entitlement to a patent.

Now, in either Einstein’s or Edison’s case, is knowledge self-protective? Clearly not in Einstein’s case. On the contrary, the state had to seed opportunities for his kind of knowledge to be produced. Edison’s case is a bit more

ambiguous, but even here the answer is no. After all, the only people capable of capitaliz-ing on Edison’s innovation were those who were already thinking along similar lines. There is no reason to think that mass publica-tion of the details of Edison’s incandescent light bulb would have enabled most Americans to design such a product for home use, let alone mass consumption.

In order to address the more general ques-tion of the source of the idea that knowledge is somehow self-protective, I begin by returning to the eighteenth-century European Enlighten-ment to pose the problem in its most basic form: Should knowledge production be granted any special legal protection? What are the grounds, if any, for the regulation of intellec-tual property transactions – or, in less eco-nomically presumptuous terms, the regulation of intellectual life? Here laissez-faire and dirig-iste responses can be distinguished.

The laissez-faire response is that once people enjoy sufficient wealth not to have to live hand-to-mouth, they ought to use their leisure to improve themselves and the polity. The implied analogy, perhaps made most ex-plicit in the opening of Aristotle’s Metaphysics, is the imperative to physical fitness among the well-fed as a sign of both one’s superior status and preparedness to defend that superiority in warfare. Moreover, one would not be capable of advancing the frontiers of knowledge, were one not in a position to expend resources on lines of inquiry that might end up bearing no fruit. Thus, the fiscal benefit typically granted to the production of intellectual innovation in the eighteenth century was a prize, not a salary, grant, or for that matter, royalty. In other words, the reward consisted of a largely cere-monial event to mark the formal recognition of the innovation. Potential rivals for the prize were presumed to have independent means of material support, by virtue of either literal or adopted fathers: i.e., inheritance or patronage. (This is not the place to explore the Darwinian-cum-Freudian implications of this situation.) In either case, they harbored no expectations of living off their innovations, as today’s royalty regimes potentially allow. The contest to solve some problem left over by Newton was re-garded in the spirit of a game, in which even

Seite 26 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 27: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

losers never lose so much that they cannot re-turn to compete in the next battle of wits.

The dirigiste response is associated with the reasoning behind the patent law provision in the U.S. Constitution. The U.S. founding fathers, whose perspective on human nature owed more to Hobbes than Aristotle, did not believe that a free citizenry would be necessarily inclined toward the pursuit of knowledge. After all, a happy existence may be obtained through rela-tively effortless and unproductive means, like charging high rents to tenants on one’s property. At the same time, the founding fathers also be-lieved in the overall benefits of new knowledge to the progress of the common wealth. This led to a characteristically eighteenth-century strat-egy of converting private vices into public virtue by providing explicit financial incentives for people to engage in knowledge production, namely, the temporary monopoly on inventions afforded by a patent. Moreover, since the main economic impact of a successful invention is that it destabilizes, or creatively destroys, mar-kets, as more people seek patents, everyone else will soon have reason to engage in the same activity in order to restore their place in the market. Thus, a lethargic economy dominated by rent-seekers is quickly transformed into a dynamic commercial environment.

Both the laissez-faire and dirigiste ap-proaches to the regulation of intellectual life continue to have cultural resonance today. The idea that society is best served by individuals exercising their right to be wrong, a theme that unites civic republican democracy and Pop-perian philosophy of science, presupposes that inquirers are materially insulated from the con-sequences of their bold conjectures, just as the laissez-faire approach would have it (Fuller 2000a, chap. 1; Fuller 2002a, chap. 4). More controversially, the dirigiste sensibility lurks in the “orientalism” that has led political econo-mists from Adam Smith onward to demonize the decadence of the East in favor of the indus-triousness of the West, with Western aristocrats consigned to the oriental side of the divide.

A feature strikingly common to the laissez-faire and dirigiste Enlightenment approaches to intellectual property regulation is the absence of any assumption that knowledge is self-protective. To be sure, both approaches presup-pose that new knowledge is potentially available

to any rational being inclined to pursue it. How-ever, the inclination to inquiry is not itself uni-versal. Certain economic conditions first need to be in place before the epistemic appetite is whet-ted. In the dirigiste case, it consists of a financial incentive to counteract the natural tendency to gain the most pleasure from the least effort; in the laissez-faire case, it is simply a generalized cultural expectation of people who are relatively secure in their material existence.

So, if that is the view from the Enlighten-ment, where does the idea of knowledge as self-protective come from? As so often happens with our ideas about knowledge, the answer lies in a syncretistic understanding of history. That is, factors of rather different origins are treated as contributing to a common contemporary effect.

I have already indicated the determining role of what Alvin Gouldner (1970) dubbed the “welfare-warfare state” in establishing the mod-ern political economy for the production of knowledge as a public good. Each citizen, sim-ply by virtue of performing the fiscal duties of a citizen, contributes to the capital needed to pro-duce public goods and, of course, becomes a potential beneficiary of that investment. How-ever, in fact, most citizens reap modest epis-temic returns from their investment, namely, the assortment of skills that enable them to earn a living. The identities of the few who benefit as Einstein did are rather unpredictable, since they would not necessarily have been in direct con-tact with the researchers whose work theirs builds upon or, for that matter, overturns. Rather, these innovators encounter their precur-sors secondhand, through textbooks and their often undistinguished classroom interpreters.

Those still in the grip of Thomas Kuhn’s mythic history of science easily forget how this very basic element of knowledge consolidation and transmission – a textbook usable by the entire range of a discipline’s practitioners – first emerged in the context of nation-building efforts in the late nineteenth century (Olesko 1993). In earlier times, an aspiring intellectual innovator would not have appeared credible, had he not made personal contact with a recog-nized master of the innovator’s discipline. By such cultish means, disciplinary practitioners jealously protected their knowledge so that it could not be easily appropriated by others. And while these ancient prejudices linger in aca-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 27

Page 28: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

demic hiring practices, the provision of free public education has sufficiently loosened their constraint on actual intellectual innovation to leave the impression that innovators can come from anywhere, thereby contributing to the illusion that knowledge is self-protective.

4 Conclusion: Will Universities Survive the Era of Knowledge Management?

Academics are too easily flattered by talk of “knowledge management” (Fuller 2002a). They often think it points to the central role of univer-sities in society. Yet, the phrase signals quite the opposite – that society is a veritable hotbed of knowledge production, over which universities do not enjoy any special privilege or advantage. Academics have been caught off-guard because they have traditionally treated knowledge as something pursued for its own sake, regardless of cost or consequences. This made sense when universities were elite institutions and independ-ent inquirers were leisured. However, there is increasing global pressure to open universities to the wider public, typically for reasons unrelated to the pure pursuit of knowledge. Today’s uni-versities are expected to function as dispensers of credentials and engines of economic growth. Consequently, academics are no longer in full control of their performance standards.

In this context, knowledge managers have their work cut out. Former Fortune editor Tom Stewart (1997) calls universities “dumb or-ganizations” that have too much "human capi-tal” but not enough “structural capital”. Behind these buzzwords is the view that a fast food chain like McDonalds’ is a “smart organiza-tion” because it makes the most of its relatively ill-trained staff through the alchemy of good management. In contrast, business as usual in academia proceeds almost exactly in reverse, as department heads and deans struggle to keep track of the activities of its overeducated staff. If a McDonalds’ is much more than the sum of its parts, a university appears to be much less.

Academics remain largely in denial about the impact of knowledge management. Never-theless, the sheer increase in the number of uni-versity heads drawn from business and industry concedes that McDonalds’ and MIT may be, at least in principle, judged by the same perform-ance standards. A glaring recent example is

Richard Sykes, whose appointment as Rector of Imperial College London was based largely on his successful merger of two transnational drugs companies, Glaxo and Smith-Kline. Not surpris-ingly, he has recently tried to merge Imperial and University College London into the UK’s premier research-led university. Moreover, it is unreasonable to expect the increasing number of academics on short-term contracts to defend the integrity of an institution that cannot promise them job security. Even Ph.D.s quickly acquire the survival skills and attitudes of the much less trained disposable staff one finds at McDonalds’. Thus, they become quite willing and able to move for better pay and work condi-tions (Jacob and Hellstrom 2000).

Indeed, many academics – and not just pro-fessional knowledge managers – have endorsed recent steps taken to disaggregate the unity of teaching and research that has defined the uni-versity since its modern reinvention in early 19th century Germany. These steps occur daily with the establishment of each new on-line degree program and science park – the one reducing the university to a diploma mill, the other to a patent factory. Though they pull in opposing direc-tions, these two “post-academic” organizations share an overriding interest in benefiting those who can pay at the point of delivery. In this context, universities appear quite vulnerable, as they have always been hard-pressed to justify their existence in such immediate cost-benefit terms. But it would be a mistake to place all the blame for this “service provider” view of uni-versities on knowledge managers, or even the recent wave of neo-liberal ideology.

Academics who nostalgically recall the flush funding for universities in the heyday of the welfare state often forget that service provi-sion was precisely what lay behind the appeal of academia to policymakers. The public was willing to pay higher taxes because either they (or, more likely, their children) might qualify for a course of study that would enable them to improve their job prospects or academics might come up with a cure or a technique that would improve the quality of life in society. The same mentality operates today, only in an increas-ingly privatised funding environment.

In short, a Faustian bargain was struck dur-ing the era of the welfare-warfare state that was typically cloaked in a social democratic rhetoric.

Seite 28 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 29: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Universities grew to an unprecedented size and significance, but in return they had become the premier site of socio-economic reproduction. In the long term, this bargain has caused the uni-versities to lose their political – and conse-quently their intellectual – independence, a point that is increasingly clear with the removal of state legal and financial protection. After having been in the service of all taxpayers and judged by the benefits provided to them, universities are now being thrown into a global market where US universities already enjoy a long history of providing high quality knowledge-based goods and services on demand.

At least, this is how the shifting political economy of academia appears from the Euro-pean side of the Atlantic. It is now common for university heads to complain that lingering attachments to the welfare state prevent gov-ernments from charging the full student fees needed to compete with US universities on the world stage. They seem to assume that Ameri-cans are willing to pay a lot for higher educa-tion at the best institutions because these have a long track record of proving themselves in the marketplace. However, this does not explain how, say, the Ivy League manages to officially charge the world’s highest fees, yet require only a third of the students to pay them. Time-honoured universalist, democratic, and meri-tocratic ideals may explain why the Ivy League has this policy, but the mystery for Europeans is to determine how they have pulled it off.

As it turns out, the European understand-ing of the American scene – especially at the elite end – is seriously flawed. What makes the flaw so serious is that it involves forgetting what has historically made universities such a distinctive European contribution to world culture. I shall return to this shortly. But at an even more basic level, this flaw should remind us of the long-term corrosive effect that mar-ginal utility thinking has had on how we con-ceptualize value. Both welfare state economics and the current wave of neo-liberalism agree that the economy is built from transactions in which the traders are simultaneously trading with each other and trading off against their own competing interests. Thus, the rational economic agent is willing to accept a certain price, but only for a certain amount of any good or service. Beyond that point, ‘diminish-

ing returns’ set in and rational agents shift their spending elsewhere. This means that goods and services are judged by the prospect of their im-pact on the consumer in the relative short term. Such a frame of reference is fundamentally antithetical to the character of the university.

To their credit, welfare economists have long realized that their conception of the econ-omy tends to devalue benefits that accrue only in the long term and especially to others not intimately connected to the agent (Price 1993). As we saw in the previous section, the welfare state conception of universities as both in-stances and producers of ‘public goods’ was meant to address this problem by arguing, in effect, that it is cheaper to indemnify everyone in a society than to target particular citizens for providing the costs and enjoying the benefits. But to unsympathetic neo-liberal ears, this sounds like a concession that higher education is a market with an indeterminate price struc-ture. Could this be because producers and con-sumers are impeded from effectively commu-nicating with each other? Such a suspicion motivates the knowledge manager’s general call for the removal of state barriers to the free competition of universities, which will quickly force them to restructure and perhaps even devolve, in the face of market forces.

However, buried beneath this now familiar line of thought is its anchoring intuition: The paradigm case of all economic activity is the exchange of goods that might occur in a weekly village trade fair between parties trying to provide for their respective households. From that standpoint, the main practical prob-lem is how to clear the market so that no one is left with unsold goods or unmet needs once the sun goes down. This formulation of the prob-lem makes at least three assumptions that are alien to the economic situation in which uni-versity has (always) found itself:

1.

2.

Each trader is both a ‘producer’ and ‘con-sumer’. In contrast, the two roles are clearly distinguished in any transaction between a university and a prospective client, including a student. No trader wants a surplus of goods, let alone accumulate as many goods as possi-ble. Unused goods will either rot or be the target of thieves. In contrast, the sheer ac-cumulation of knowledge – be it in books,

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 29

Page 30: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

brains, or databanks – is central to the uni-versity’s mission.

3. There is a cyclical structure to each trader’s needs that ideally corresponds to the trade fair’s periodicity. There are no inherently insatiable desires, only recurrent desires that are met as they arise. In contrast, the idea of termination is so foreign to academic in-quiry that attempts to arrest or even channel its conduct have tended to be treated as re-pressive.

However, universities can be managed as other than multi-purpose service providers joined to their clients by discrete transactions that end once the academic goods have been delivered. Recall that what originally entitled a university to corporate status under Roman law (univer-sitas in Latin) was its pursuit of aims that tran-scend the personal interests of any of its current members. This enabled universities to raise their own institutionally earmarked funds, which were bestowed on individuals who were "incorporated" on a non-hereditary basis. This typically required renegotiating one’s identity through examination or election, as well as being willing to become something other than one already is. Along with universities, the original corporations included churches, reli-gious orders, guilds, and cities. In this respect, being a student was very much like being a citizen. Commercial ventures came to be regu-larly treated as corporations only in the 19th century. Before then, a business was either a temporary and targeted venture (akin to a mili-tary expedition) or an amplified version of family inheritance, the default mechanism for transmitting social status under Roman law.

The corporate origin of universities is of more than historical interest. The oldest and most successful US universities were founded by British religious dissidents for whom the corporate form of the church was very vivid. From the 17th century onward, American gradu-ates were cultivated as “alumni” who regard their time in university as a life-defining process that they would wish to share with every worthy candidate. The resulting alumni endowments, based on the Protestant “tithing” of income, have provided a fund for allowing successive generations to enjoy the same opportunity for enrichment. In return, the alumni receive glossy magazines, winning sports teams (which the

alumni worship every weekend), free courses, and nominal – and occasionally not so nominal – involvement in university policy. Two-thirds of Ivy League students have their education subsidized in this fashion. Moreover, the leading public American universities display similar, and sometimes even stronger, tendencies in the same direction. Thus, UCLA, the University of Michigan, and the University of Virginia are “public universities” that are 70 % privately funded, relatively little of which comes from full payment of student fees.

In contrast, the two main strategies for “privatizing” the universities in former welfare state regimes – market-driven tuition fees and income-based graduate taxes – operate with a long-term strategy for institutional survival that is nothing more than a series of short-term strategies. At most, these compulsory payment schemes would enable universities to replace the capital they invest in their students, but they would also provide little incentive for graduates to contribute more than had been invested in them. If anything, such fees and taxes could become a source of resentment, non-compliance, and even overall fiscal failure, since in a world where knowledge is pursued as a positional good, it becomes harder to justify high quality university education on a short-term value-for-money basis.

Therefore, to overcome the knowledge manager’s jibe that they are dumb organizations, universities must endeavour to be wholes much greater than the sum of their parts. At the very least, this means that a university’s value must be measured beyond the short-term benefits it provides for immediate clients, including stu-dents. The ideal of uniting teaching and research promised just such a breadth of organizational vision, one worth updating today. After all, uni-versities are unique in producing new knowl-edge (through research) that is then consolidated and distributed (through teaching). In the former phase, academia generates new forms of social advantage and privilege, while in the latter phase, it eliminates them. This creative destruc-tion of social capital entitles universities to be called the original entrepreneurial organizations. However, universities have been neither pro-duced nor maintained in a social vacuum. With the slow but steady decline of the welfare state, it is time to recover the university as one of the

Seite 30 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 31: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

original corporations, whose style of “privatiza-tion” is superior to the “trade fair” model that has dominated modern economic thought and today threatens the institution’s integrity.

References Collins, R., 1998: The Sociology of Philosophies: A global theory of intellectual change. Cambridge: Harvard University Press Faundez, J., 1994: Affirmative Action: International perspectives. Geneva: International Labour Organi-zation Fukuyama, F., 1992: The End of History and the Last Man. New York: Free Press Fuller, S., 2000a: The Governance of Science. Mil-ton Keynes, U.K.: Open University Press Fuller, S., 2000b: Thomas Kuhn: A Philosophical History for Our Times. Chicago: University of Chi-cago Press Fuller, S., 2002a: Knowledge Management Founda-tions. Woburn, Mass: Butterworth-Heinemann Fuller, S., 2002b: The University: A social techno-logy for producing universal knowledge. Technolo-gy in Society 25, pp. 217-234 Gibbons, M.; Limoges, C.; Nowotny, H.; Schwartz-man, S.; Scott, P.; Trow, M., 1994: The New Pro-duction of Knowledge: The dynamics of science and research in contemporary societies. London: Sage Publications Gouldner, A., 1970: The Coming Crisis in Western Sociology. New York: Basic Books Grundmann, R.; Stehr, N., 2001: Why is Werner Sombart not part of the core of classical sociology? Journal of Classical Sociology 1, pp. 257-87 Hirsch, F., 1977: The Social Limits to Growth. London: Routledge and Kegan Paul Jacob, M.; Hellstrom, Th. (eds.), 2000: The Future of Knowledge Production in the Academy. Milton Keynes UK: Open University Press Kitch, E., 1980: The law and the economics of rights in valuable information. The Journal of Legal Studies 9, pp. 683-723 Krause, E., 1996: The Death of the Guilds: Profes-sions, States, and the Advance of Capitalism. New Haven, Conn.: Yale University Press Lutz, M., 1999: Economics for the Common Good. London: Routledge Noble, D., 1991: The Classroom Arsenal. London: Falmer Press Olesko, K., 1993: Tacit Knowledge and School Formation. In: Geison, G.; Holmes, F. (eds.): Re-

search Schools. Osiris, New Series, Volume 8, Chi-cago: University of Chicago Press, pp. 16-29 Price, C., 1993: Time, Discounting, and Value. Oxford: Blackwell Samuelson, P., 1969: Pure Theory of Public Expen-ditures and Taxation. In: Margolis, J.; Guitton, H. (eds.): Public Economics. London: Macmillan, pp. 98-123 Schumpeter, J., 1950 [1942]: Capitalism, Socialism, and Democracy. New York: Harper and Row Schumpeter, J., 1961 [1912]: The Theory of Eco-nomic Development. Chicago: Galaxy Books Stehr, N., 1994: Knowledge Societies. London: Sage Publications Stewart, Th., 1997: Intellectual Capital. London: Nicolas Brealey

Contact Prof. Steve Fuller Department of Sociology University of Warwick Coventry CV4 7AL, United Kingdom Tel.: +44 - 24 76 / 523 - 940 Fax: +44 - 24 76 / 523 - 497 E-Mail: [email protected]: http://www.warwick.ac.uk

«

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 31

Page 32: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Policing Science: Genetics, Nanotechnology, Robotics

by William Leiss, McLaughlin Centre for Risk Assessment, University of Ottawa

The paper opens with the question raised by Grundmann and Stehr, as to whether “know-ledge policy” may include “the aim of limit-ing, directing into certain paths, or forbid-ding the application and further development of knowledge”. It then explores this theme with reference to contemporary develop-ments in biotechnology and nanotechnol-ogy, where the objective of knowledge is to enable us to create and modify at will bio-logical entities (including humans and com-bined species known as “chimeras”), as well as self-assembling mechanical entities, ab initio through recombinant DNA techniques. I argue that a new category of risks is cre-ated by the promised technological applica-tions of these forms of knowledge, called “moral risks”, which threatens the ethical basis of human civilization; these are also “catastrophic risks”, in that their negative and evil aspects are virtually unlimited. The paper asks whether our institutional struc-tures, including international conventions, are robust enough to be able to contain such risks within acceptable limits; or alterna-tively whether these risks themselves should be regarded as unacceptable, a position which would impel us to seek to forbid indi-viduals and nations from acquiring and dis-seminating the knowledge upon which those technologies are based.

1 Introduction: “Eppur si muove” (“And yet it moves!”)

At the conference “The Governance of Knowl-edge”, Essen, Germany, September 5-7, 2001, Reiner Grundmann and Nico Stehr presented the background paper “Policing Knowledge: A New Political Field” which poses “the question of social surveillance and regulation of knowl-edge”. They suggest that “knowledge policy” may include “the aim of limiting, directing into certain paths, or forbidding the application and further development of knowledge” (Stehr, Grundmann 2003; Stehr 2005). If scientific knowledge is included here, as I assume it is, this proposition will not be well received. One of the great founding faiths of modern society is that of the infinite benefits of the liberation of

the natural sciences from the intellectual and institutional shackles of dogma, including relig-ion; its inspirational image is that of Galileo before the Inquisition, forced to recant publicly his belief about earth’s movement in space, but unyielding in his mind and certain subjectively of his ultimate vindication.1 Anyone who seeks to challenge this faith is in for a rough ride.

Are there forms of knowledge about nature (including a technological capacity to manipu-late nature based on them), now envisioned as practical possibilities in foreseeable futures, of which it may be said that they are too dangerous for humanity to possess? Too dangerous, at least, in the hands of that radically imperfect humanity in and around us, including its all-too-delicate veneer of civilization, which now seems prepared to seek that knowledge? And if so, is it even conceivable that one could argue for their suppression on the grounds that, once realized they will inevitably be deployed, to ends so evil, running unhindered into the future, as to destroy the moral basis of civilization?2 I at least am not ready to answer these questions – although they are being raised by some in the academic com-munity, especially with reference to biotechnol-ogy. An editorial earlier this year in New Scien-tist, commenting on the inadvertent laboratory creation of a virulent engineered virus which could be used as a weapon in biological warfare (see further discussion below), said:

There’s also the problem that many biologists choose to ignore biotechnology’s threats…. John Steinbruner of the University of Mary-land, College Park, has suggested setting up bodies to oversee areas of biological research. Such bodies could question or even stop re-search, or decide if results should be pub-lished. As Steinbruner is well aware, his pro-posal strikes at the heart of scientific openness and freedom. But leaving things as they are is not an option. Biotechnology is beginning to show an evil grin. Unless we wipe that smile from its face, we’ll live to regret it.3

Here I wish only to ruminate on specific themes with reference to a number of poten-tially catastrophic risks – risks having a dimen-sion that calls into question the future of hu-manity itself – related to advances in contem-porary scientific knowledge.

I define “catastrophic risk” in this sense as the possibility of harms to humans and other

Seite 32 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 33: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

entities that call into question the future viabil-ity of existing animal species, including our own. Thus these are not only risks to the pre-sent generations of living animal species, but also to future (perhaps all future) generations of presently existing species. One well-known risk of this type is what has been called “nu-clear winter”, the threat of a pervasive envi-ronmental catastrophe that could follow a large-scale exchange of nuclear weapons be-tween the United States and the former Soviet Union (now Russia), under the doctrine of “mutually assured destruction.” The hypothesis of environmental catastrophe was based on the expectation that the earth’s atmosphere would become loaded with particulate matter, block-ing much of the solar radiation reaching the earth’s surface, perhaps for a period of years (such an event is thought to have occurred fol-lowing the impact of massive asteroids collid-ing with the earth).4 In addition, of course, the huge doses of radiation emitted by these ex-ploding weapons would have profound genetic consequences for plants and animals.

2 The Lords of Creation

Given the existing stockpiles of nuclear weap-ons, the risks associated with them still exist, although (in view of the political instability in Russia) it is difficult to know whether the probability now is greater or less than before. But new catastrophic risks are on the horizon, and these have a fundamentally different char-acter that may require very different institu-tional responses from us. Their common char-acteristic, considered as basic and applied sci-ence and the technological applications made possible through them, is that they are all based on our latest understanding of biological sys-tems through molecular biology. More specifi-cally, their common scientific basis is the ca-pacity to characterize complete genomes and to manipulate them by means of recombinant DNA techniques (or to create DNA-like me-chanical structures).

The ultimate goal, already envisioned and set as an objective for research, is a knowledge of genomics so complete that living entities (and life-like mechanical entities) could be constructed, or alternatively deconstructed and then rebuilt and varied, ab initio. According to

an article published in Science in 1999, re-searchers working with a microbial parasite sought to characterize and develop “an organ-ism with a minimal genome, the smallest set of genes that confers survival and reproduction”:5

But since each of the 300 genes found to be essential could have multiple functions (pleiotropism), investigators had no way of finding the degree of redundancy and whitt-ling the genome down further. The next logical step: make a synthetic chromosome of just those genes to build a living cell from the ground up.

Considered in their human implications, I re-gard these developments as giving rise to a new type of catastrophic risk, which I have called “moral risks”.6 Gradations of being (inorganic and organic matter, plants, insects, animals, humans) are and always have been a founda-tion-stone of humanity’s ethical and religious systems. More particularly, “self-conscious-ness” has been regarded as the essential and distinguishing mark of a human being, uniquely; yet as illustrated in the following section we have, apparently even among some senior scientists, an inclination to experiment with “crossing” these dimensions of existence in an almost casual mood. In my opinion very great evils await us in going down that road.7

3 A Short List of “Catastrophic Risks”

1. There are risks from the use of future bio-engineered pathogens used as weapons or war or terrorism.8 A recent review in Nature listed the following possibilities:9 a) Transferring genes for antibiotic resis-

tance (e.g., to anthrax or plague, as Rus-sian scientists have done) or pathogenic-ity (the toxin in botulinin, which could be transferred to E. coli), or simply mix-ing various traits of different pathogens, all of which is said to be “child’s play” for molecular genetics today.

b) Through “directed molecular evolution”, especially what is called “DNA shuf-fling”, producing “daughter genes” by shattering genes and then recombining gene fragments in ways that change the natural evolutionary pathways of bacteria.

c) Creating “synthetic” pathogens, that is, “artificial” bacteria and viruses, by start-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 33

Page 34: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

ing with a synthesized “minimal genome” which was capable of self-replication (a kind of empty shell), to which “desired” traits could be added at will.

d) Creating hybrids of related viral strains. These possibilities multiply as scientists be-gin publishing the complete DNA sequences of well-known pathogens: “… [G]enomics efforts in laboratories around the world will deliver the complete sequence of more than 70 major bacterial, fungal, and parasitic pathogens of humans, animals and plants in the next year or two….”10 Scientists working in these areas point out that actually getting engineered viruses and bacteria to survive in the environment, and to be maximally useful as weapons of war and terrorism, would not be easy to do; moreover, defenses against them can be constructed. What we are faced with the advances in molecular genetics, therefore, is an increase in the risks (possible harms) of novel agents being used in these ways for nefarious purposes.

2.

3.

4.

5.

There are related risks from accidental or unintended consequences of genomics re-search, especially from the genetic engi-neering of viruses and bacteria, which could result from the escape into the environment of virulent new organisms, irrespective of whether these organisms were intended originally for “beneficent” or “malevolent” purposes.

There was a brief flurry of publicity ear-lier this year when Australian researchers announced that, in engineering the relatively harmless mousepox virus with a gene for the chemical interleukin 4, in an attempt to create a contraceptive vaccine for mice, they had accidentally made the virus excep-tionally toxic: “The virus does not directly threaten humans. But splice the IL-4 gene into a human virus and you could create a potent weapon. Add the gene to a pig virus, say, and you could wreck a nation’s food supply”.11

There are risks to the “nature” of humans and other animals from intended or unin-tended consequences of genetic manipula-tions that either introduce reproducible changes into an existing genome (e.g., hu-man or animal germ-line gene therapy), thus modifying existing species, or create en-

tirely new variant species. For illustration here, I will confine myself to the example of “chimeras”, that is, combined entities made up of parts of the genome of two or more different species, including of course hu-mans. Some molecular biologists apparently already have done casual experiments in-serting human DNA into the eggs of other animals and growing the cell mass for a week or so; and there is much speculation as to what would happen if human and chim-panzee DNA were crossed, since chimps share over 98 % of human genes.12 The DNA of all species now on earth is composed of the same four chemical bases, abbreviated A, T, C, G, arranged into two pairs (A/T, C/G), that make up the “ladders” on the double helix of DNA; different com-binations of the base-pairs specify one of 20 amino acids, which combine to form various proteins.13 Some scientists are experimenting with adding more chemicals that would act as new bases, so that, for example, there would be six rather than four bases and per-haps three base-pairs. One of the scientists doing this work is Peter Schultz: “Schultz of-ten says living things have only 20 amino ac-ids because God rested on the seventh day. ‘If He worked on Sunday,’ he said, ‘what would we look like?’”14 The self-comparison between Dr. Schultz and God is interesting, to say the least. There have been widely-publicized discus-sions of certain unique risks to organic life, stemming from possibilities allegedly inher-ent in the development of robotics and nanotechnology, especially in a now-infamous paper by Bill Joy (April 2000), Chief Scientist at Sun Microsystems and creator of the “Java” script. Joy wrote:

The 21st-century technologies – genetics, nanotechnology, and robotics (GNR) – are so powerful that they can spawn whole new classes of accidents and abuses. Most dangerously, for the first time, these acci-dents and abuses are widely within the reach of individuals or small groups…. I think it is no exaggeration to say that we are on the cusp of the further perfection of extreme evil, an evil whose possibility spreads well beyond that which weapons of mass destruction bequeathed to the na-

Seite 34 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 35: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

tion-states, on to a surprising and terrible empowerment of extreme individuals.15

The link between nanotechnology and bio-technology is fascinating: Although the former works with intrinsically inert materi-als, it is seeking to turn them into a perfect analogue of a biological (self-assembling) system. One of the leading Canadian scien-tists in this field, Dragon Petrovic, has ex-plained the quest as follows:

In the future, he predicts, technicians will teach individual molecules and atoms to assemble themselves into wires and sheets of impeccable purity and thin-ness…. [Imagine] instruments made of compounds that are self-assembled, atom by perfect atom – materials so pure that they could never snap apart or break un-der normal conditions…. “Imagine [Pet-rovic says] the linkage to telecom – can we get DNA molecules to self-assemble into perfect sheets and wires only an atom thick, and then send electrons and photons to stimulate the DNA to do things – start growing; stop growing; as-semble into certain geometric shapes? It’s analogous to what a structure like bone does in nature, where the brain is the electronic device and the nervous sys-tem transmits the information”.16

Bill Joy’s essay already had explored the dark side possibly inherent in the quest for self-replicating nanotechnology machines; the internal quotation in the passage by Joy below is from a book by Eric Drexler, En-gines of Creation:17

An immediate consequence of the Faust-ian bargain in obtaining the great power of nanotechnology is that we run a grave risk – the risk that we might destroy the biosphere on which all life depends. As Drexler explains:

Tough omnivorous “bacteria” [cre-ated by nanotechnology] could out-compete real bacteria: They could spread like blowing pollen, replicate swiftly, and reduce the biosphere to dust in a matter of days…. Among the congnoscenti of nanotechnology, this threat has become known as the “gray goo problem”.

The “gray goo problem” attracted so much attention that in England the Royal Society and the Royal Academy of Engineering

commissioned a special expert report on it: “Nanoscience and nanotechnologies: Op-portunities and Uncertainties” (July 2004). This report contained a special appendix on the “problem”, which, it suggested, repre-sented a remote and dubious risk; but it also addressed some unique and quite relevant risks, associated with nanotechnologies, which will be a challenge for government regulatory regimes to come to grips with.18

One important point must be emphasized here, namely, that what has been just described are (hypothetical) catastrophic “downside risks”, that is, the potential for very great harms to be done through some future technologies that are already on the drawing-boards. For each of these developments there are both “upside benefits”, resulting from future applications of these tech-nologies that could bring substantial benefits to us, as well as the potential for “protective” tech-nological innovations that could mitigate, offset, reduce, or even eliminate at least some of the downside risks. To take the example of the en-gineering of viruses as bioweapons: As a counter to this threat (and also just to reduce the debilitating effects of viral infections on popula-tion health), research is under way in molecular genetics to develop new antiviral drugs that can block the infectious action of any viruses at the cellular level (preventing receptor binding, cell penetration, replication, production of viral pro-teins, and so on).19 Considered as a totality, however, what these conjoined prospects do is to continually “raise the stakes” in our techno-logical game with nature, whereby the new sets of risks and benefits reflect both, and simultane-ously, the potential for an upside of hitherto unattainable benefits and a downside of hitherto unimaginable horrors. As discussed in a later section, this entire prospect increases the chal-lenge to our social institutions to manage our technological prowess so as to realize the bene-fits and avoid the harms, and likewise increases the risk that we will be unable to do so.

4 What is different today?

There are undoubtedly other types of catastro-phic risks, but those introduced above are suffi-cient for purposes of discussion! My main point is that these newer risks are fundamentally dif-ferent in character from the case of nuclear win-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 35

Page 36: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

ter, and the difference has to do with the distri-bution of knowledge and technological capacity relevant to them (thus requiring a very different institutional response). The technologies giving rise to the nuclear winter risk are controlled by just two nation-states and are maintained (for the most part, and until now) under a thick blanket of military security and secrecy, although the smuggling of nuclear materials out of the former Soviet Union is cause for worry. Both the essen-tial theoretical knowledge, and the engineering capacity needed to turn that into weapons, is confined to a relatively small circle of experts and officials. Not so with the new technologies.

The catastrophic risk areas listed above stem from current research programs that are widely distributed around the world; moreover, the strongest drivers of them are private corpo-rations, including the large pharmaceutical multi-nationals, acting with full encourage-ment, support, and incentives from national governments. Especially where the possible health benefits of genetic manipulations are concerned, the combined public-private inter-ests are overwhelmingly supportive, driving the research ahead at an accelerating pace. Gov-ernments especially are enthralled with the economic significance of these new technolo-gies, are competing with each other under in-novation agendas to capture major shares of the corporate investments, and are loathe to stop and think about unintended consequences.

All of the characteristics of the knowledge and applications in these areas mean that it is extremely difficult even to think about control-ling either the process or the results. For one thing, the knowledge is widely distributed among individual scientists; for another, it is widely distributed among private actors (corpo-rations) which have the option of moving their operations on a regular basis, seeking perhaps the least-regulatory-intensive national base on the globe. (Might we expect H. G. Wells’ The Island of Doctor Moreau to be replicated many times?20) Third, the technologies themselves become increasingly “simplified” and thus eas-ier to hide, if necessary; the genetics technolo-gies, for example, can be carried out in small laboratories almost anywhere. Sergei Popov, the Russian scientist who pioneered germ warfare research using recombinant DNA techniques, observed recently: “The whole technology be-

comes more and more available. It becomes easier and easier to create new biological enti-ties, and they could be quite dangerous”.21

Fourth, oversight is inhibited by the lure of truly extraordinary economic and health benefits promised by the new knowledge and technologies. And fifth, just the astonishing pace of innovation itself today makes the pros-pect of control and regulation a challenge.

During the past year national governments have been scrambling to respond to just a few of the dimensions of these new risks. Most attention has been focused on human cloning, where a few rogue scientists have challenged authorities in various jurisdictions to “try to stop us”, and laws prohibiting this technology are being passed rapidly. But this is a relatively crude technology, albeit one which excites public attention, and one wonders whether authorities will become complacent about their ability to control unacceptable technologies due to their experience with this case. (Mean-while, there are increasing reports that many genetics scientists are “going underground”, in the sense that they have stopped talking pub-licly about their research in progress for fear that public reactions will be hostile and will result in official steps to halt it.)

Among the scientists cited in this paper, two (Bill Joy and Ian Ramshaw) have called for urgent action under the Biological and Toxic Weapons Convention (1975, hereafter BTWC), to provide explicitly for a global oversight effort over some of the new technologies and their applications described earlier. Unfortunately, and ironically in view of what was to happen only two months later, at a meeting of the par-ties in Australia in July 2001 the United States unexpectedly blocked the process of completing a protocol under the BTWC that would have made the Convention something other than a statement of good intentions, for in its present form it has no provisions for verification or compliance monitoring. The US government has been pressured by its biotechnology industry sector not to agree to a verification protocol, under which inspections of laboratories and other facilities by international teams of experts would be carried out in all the signatory coun-tries, because industry fears that its intellectual property and commercial secrets could be com-promised. At the time of writing other signato-

Seite 36 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 37: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

ries were considering whether they should pro-ceed to complete the adoption of the verification protocol without US support.22

Unfortunately, we know international ne-gotiation to be at the best of times a tedious and protracted process, and there is reason to be-lieve that in this domain it could be fractious and unsuccessful. This is because all of the technologies described represent frontiers of industrial innovation in which great multina-tional corporations and the national govern-ments which protect their interests (especially the United States) have significant investments; both corporations and governments would be loathe to see those investments and the im-mense payoffs expected from them jeopardized by an international control regime. A recent article co-authored by a molecular geneticist and a specialist in the international convention on biological weapons has called for an urgent new effort to strengthen verification under the 1975 Convention and to enlist the biomedical research community in an effort to strengthen deterrence against the uses of bio-engineered organisms for war and terrorism.23

5 Conclusion

Now is the time for intensive exploration of the theme of policing science and to ask the fol-lowing types of questions:

1.

2.

3.

4.

Can we characterize a set of new catastrophic risks, as defined here, related to the leading-edge technologies that are being developed? Do these new risks have an essential charac-ter that will make them difficult to control, because the knowledge and the technologies will be so widely diffused? Can these risks be confined to acceptable dimensions by the institutional means now at our disposal, including international conven-tions on prohibitions? If not, what new tools do we need, and how can we get them? Do professional associations of scientists working in these fields have special respon-sibilities to assist societies in controlling these risks, and if so, are those responsibili-ties now being discharged adequately?24

What is at risk in this game, now, is the possibil-ity that the tension between science and society will become both unmanageable for institutions

and unbearable for individuals, in other words, that the destructive applications of our opera-tional power finally will overwhelm the rest. This possibility arises out of the striking contrast between the pace of change in social and legal institutions (especially international agree-ments), on the one hand, and in new scientific and technological breakthroughs in the sciences, especially in genomics, including applications relevant to biowarfare and bioterrorism on the other. In the first-mentioned the pace is pain-fully slow and progress often remains ineffec-tive even after decades of negotiation, as in the case of the Convention on Biological and Toxic Weapons. The second proceeds at a frenetic and steadily-accelerating pace

To reduce the probability that change in the second will overwhelm our social and legal capacity to steer technological development away from the zone of catastrophic risks, it is necessary first to get agreement among influen-tial social actors that this is, as described here, a momentous challenge which contemporary so-ciety cannot avoid. The first practical test of our resolve in this regard, I believe, is whether influ-ential scientists can be mobilized in the cause, scientists who will reaffirm the need for new oversight structures, to be erected both within the practice of science itself and also in the rela-tion between science and society. Hegel made a remark, I believe, somewhere in his writings, to the effect that only the hand which inflicts a wound can heal it. The wound here is the rup-ture with the dominant pre-modern relation of humanity and nature, governed by value-laden categories of being, and its replacement by modern science’s purely operational orientation to the totality of the natural world.

I will not speculate here on what a healing of that rupture could mean now, at least, not in any “ontological” sense. But in a practical sense, as a matter of public policy, I think it is clear what is required – namely, that the practi-tioners of science join others in a program to try to bring our operational powers under the control and direction of social institutions that have universal validity, ones that correspond in sufficient measure with the common aspira-tions of humanity. It is my contention that to-day’s dominant institutions do not have such validity and that, as a result, everyone on earth is at risk of having these powers become in-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 37

Page 38: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

struments in an Armageddon waged to the bit-ter end by contending social, ethnic, national, and religious interests.

What remains to be seen is whether the task as defined here can be widely recognized and grasped as such, while there is still time, and whether our scientific enterprise can be steered towards the shelter of a social compact having universal validity.25 If it turns out that despite our best efforts this cannot be done, there will arise a set of other questions that, for now at least, are too abhorrent for many even to consider. These questions have to do with the possibility that, taking both “normal” hu-man passions and human institutional failings into consideration, there may be forms of knowledge that, as a practical matter, are too dangerous for us to possess, and that our only choice is to renounce and suppress such knowledge or suffer the consequences. In men-tioning them we go to the heart of the fateful compact between science and society that has set the course for the development of modern society from the seventeenth century onwards, under the program known as the domination of nature. It is likely that contemporary society is not ready to deal with them, at least, not yet.

Notes

1) Galileo Galilei (1564-1642): http://www.rit.edu/~flwstv/galileo.html

2) There is a practical argument to the effect that, since the development and deployment of such knowledge cannot be thwarted, the most pru-dent course of action is to superintend its pro-gress closely, so that technological antidotes to the potentially most frightful and destructive applications will be ready before they are needed. I regard this as a strong and possibly definitive counter-position to the one posed here in the series of rhetorical questions.

3) New Scientist, 13 January 2001 (http://www.newscientist.com/editorial/_22731.html).

4) On asteroid risk: http://impact.arc.nasa.gov/: “Statistically, the greatest danger is from an NEO [Near-Earth-Object] with about 1 million megatons energy (roughly 2 km in diameter). On average, one of these collides with the Earth once or twice per million years, produc-ing a global catastrophe that would kill a sub-stantial (but unknown) fraction of the Earth’s human population. Reduced to personal terms,

this means that you have about one chance in 20,000 of dying as a result of a collision.”

5) The Scientist 14[1]: 12, Jan. 10, 2000 (http://www.the-scientist.com/yr2000/jan/ multiple_p12_000110.html)

6) “We encounter a state of moral risk when we pose certain options for ourselves, as goals which might be realized by using science to manipulate nature, that imply fundamental changes in the ‘order of being’ as it has been experienced by humans until now.” Leiss, In the Chamber of Risks, Chapter 11, “Into the Maze of Moral Risks”, p. 267.

7) See generally ibid., pp. 259-68, where Mary Shelley’s great novel, Frankenstein (1816), provides the basis for discussion.

8) The awareness on the part of US officials that the bioengineering of pathogens using recom-binant DNA techniques could pose new bioter-rorism and biowarfare risks goes back to the beginning of the 1980s: Miller et al., Germs, pp. 80-84. Under the leadership of Sergei Popov, Russian scientists at “Biopreparat”, the huge cover operation for the former Soviet Un-ion’s biological warfare research program, be-gan carrying out this type of recombinant re-search at about this same time, creating among other things a “superplague” germ by inserting the gene for diphtheria toxin into plague bacte-ria, as well as engineering viruses so that they would trigger catastrophic autoimmune re-sponses in the victims. Popov and his associ-ates were not only interested in making lethal products; their experiments included attempts to manipulate moods though alterations in brain chemistry. Ibid., pp. 300-304.

9) Dennis, “The Bugs of War”. 10) Fraser and Dando, “Genomics and future bio-

logical weapons: the need for preventive ac-tion by the biomedical community”, p. 2.

11) New Scientist, 13 January 2001 (http://www.newscientist.com/editorial/_22731.html). “Ian Ramshaw, a member of the Austra-lian team, says [no one] could have foreseen that the altered virus would kill even vaccinated mice.” The researchers were so alarmed by what they had inadvertently done that they first notified the Ministry of National Defense, then waited two years before publicly announcing and publishing their experiment, simultaneously calling for modifications to the international convention on biological warfare to include de-vices of this type. The original story is in New Scientist, 10 January 2001 (http://www.newscientist.com/news/news.jsp?id=ns9999311) See also Miller et al., pp. 310-312.

Seite 38 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 39: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

12) Scott Foster, “Man-beast hybrid beyond talk-ing stage,” The National Post (Toronto, Can-ada), 22 August 2001, p. A16. “Last October, Greenpeace Germany dug up a patent claim for a human-animal hybrid, … U.S.-based Bio-transplant and Australia-based Stem Cell Sci-ences grew a pig-human embryo to 32 cells before ending its life”.

13) On DNA see the superb graphics and anima-tion at: http://vector.cshl.org/dnaftb/

14) Andrew Pollack, “Not Life as we know it,” The National Post (Toronto, Canada), 26 July 2001, p. A15 (reprinted from The New York Times).

15) Bill Joy, “Why the future doesn’t need us,” Wired Magazine (http://www.wired.com/ wired/archive/8.04joy_pr.html)

16) Allen Abel, “The God of Small Things,” Sat-urday Night Magazine (The National Post, To-ronto, Canada), 21 & 28 July 2001, pp. 34-37.

17) Drexler, Engines of Creation, online in its entirety at: http://www.foresight.org/EOC/

18) http://www.royalsoc.ac.uk/templates/search/ websearch.cfm?mainpage=/nanotec/ pressmedianov03.htm

19) Haseltine, “Genetic Traps for Viruses”; cf. Miller et al., pp. 305-307.

20) First published in 1896, this is the story of a rogue scientist who sets up a secret scientific research facility on a remote Pacific island in order to pursue vivisectionist experiments on animals and humans. The entire text is avail-able at: http://www.bartleby.com/1001/0.html

21) Quoted in Miller et al., p. 304. 22) http://www.brad.ac.uk/acad/sbtwc/ See espe-

cially G. S. Pearson, M. R. Dando, and N. A. Sims, “The US rejection of the Composite Pro-tocol: A huge mistake based on illogical as-sessments,” and G. S Pearson, “Why Biologi-cal Weapons present the Greatest Danger,” at: http://www.brad.ac.uk/acad/sbtwc/evaluation/ evalu22.pdf

23) Fraser and Dando, op. cit., p. 4. 24) The 1975 Asilomar Conference that established

some early ground-rules for DNA research at the initiative of the scientific community itself, had a 25th-anniversary meeting in 2000. At least according to one report, some senior scientists today are doubtful that the “Asilomar model” will prove to be useful in the future for the oversight of problematic applications of DNA research, particularly because of the enormous pressure of commercial interest that has devel-oped in the meantime. See The Scientist 14[7]: 15, 3 April 2000 (http://www.the-scientist.com/ yr2000/apr/russo_p15_000403.html)

25) There is not time here to develop this concept adequately. Here it must suffice to say that “universal validity” is not an absolute, in the sense that every person must “buy in,” but rather is some common orientation that can attract and hold the support of the most influ-ential and enduring cultural traditions around the world.

References Dennis, C., 2001: The Bugs of War. Nature 114 (17 May), pp. 232-5 Drexler, E.; 1986: Engines of Creation: The Coming Era of Nanotechnology. New York: Anchor Books Fraser, C.M.; Dando, M.R., 2001: Genomics and future biological weapons: the need for preventive action by the biomedical community. Nature Genet-ics, advance online publication, 22 October (http://nature.com.anthrax) Haseltine, W.A., 2001: Genetic Traps for Viruses. Scientific American, November, pp. 56-63 Leiss, W., 2001: In the Chamber of Risks: Under-standing Risk Controversies. Montreal: McGill-Queen’s University Press Miller, J.; Engelberg, St.; Broad, W., 2001: Germs: Biological Weapons and America’s Secret War. New York: Simon & Schuster Stehr, N., 2005: Knowledge Politics. Governing the Consequences of Science and Technology. Boulder, Colorado: Paradigm Publishers (forthcoming) Stehr, N.; Grundmann, R., 2003: Social control and knowledge in democratic societies. Science and Public Policy 30, pp. 183-188 The Royal Society, 2004: Nanoscience and nanotechnologies: Opportunities and Uncertainties. London (July)

Contact

Prof. William Leiss, PhD, Scientist McLaughlin Centre for Risk Assessment University of Ottawa 1 Stewart St., Room 311 Ottawa, ON K1N 6N5 Tel.: +1 - 613 - 562 - 58 00, - 21 16 Fax: +1 - 613 - 562 - 53 80 E-Mail: [email protected]: http://www.leiss.ca

«

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 39

Page 40: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Feedback Loops in the Politics of Knowledge Production

by Troy Duster, New York University

The current debates about the role of race in the biological sciences, clinical genetics, and the allied fields of practical applications (pharmacogenomics and forensics) have generated a considerable amount of friction and heat. Adversaries tend to line up on one side or the other of the argument about the legitimacy, or lack of it, of the category of race. This is an unfortunate binary trap, and can be avoided if we can step back and look at the feedback loops between social and biological categories in the production of knowledge.

1 Fluidity in the Scientific Status of the Concept of Race

A consortium of leading scientists across the disciplines from biology to physical anthropol-ogy issued a “Revised UNESCO Statement on Race” in 1995 – a definitive declaration that summarizes eleven central issues, and con-cludes that in terms of “scientific” discourse, there is no such thing as a “race” that has any scientific utility:

…the same scientific groups that developed the biological concept over the last century have now concluded that its use for charac-terizing human populations is so flawed that it is no longer a scientifically valid concept. In fact, the statement makes clear that the biological concept of race as applied to hu-mans has no legitimate place in biological science (Katz 1995, p. 4, 5).

Note that the statement is not only about the utility of the concept of race for biological science. Rather, it asks in its title, “Is race a legitimate concept for science?” and in the quotation above, states that the concept “is so flawed that it is no longer a scientifically valid concept.” For more than two centuries, the intermingling of scientific and common-sense thinking about race has produced remarkable trafficking back and forth between scientists and the laity, confusing for both laypersons and scientists about the salience of race as a strati-fying practice (itself worthy of scientific inves-tigation) versus race as a socially de-contextu-

alized biologically accurate and meaningful taxonomy. The current decade is no exception. In the rush to purge common-sense thinking of groundless belief systems about the biological basis of racial classifications, the current lead-ership of scientific communities has over-stated the simplicity of very complex interac-tive feedback loops between biology and cul-ture and social stratification.

I will demonstrate how and why “purging science of race” – where race and ethnic classi-fications are embedded in the routine collection and analysis of data (from oncology to epidemi-ology, from hematology to social anthropology, from genetics to sociology) – is neither practica-ble, possible, nor even desirable. Rather, our task should be to recognize, engage and clarify the complexity of the interaction between any taxonomies of race and biological, neurophysi-ological, social, and health outcomes. Whether or not race is a legitimate concept for scientific inquiry depends upon the designation of the unit of analysis of “race”, and will in turn be related to the purposes for which the concept is de-ployed. This may seem heretical at the outset, but may rescue an important role for examining the purpose of an investigation to legitimize the analytic utility of the concept of race.

My strategy will be threefold. First, I will summarize an emerging clinical genetics prob-lem from recent blood studies that is now forc-ing scientific medicine to reconsider the practi-cal or efficacious meaning of race when it comes to blood transfusions. Second, I will turn to recent attempts to identify individuals from ethnic and racial populations through the use of the new technologies of molecular ge-netics. Here it is vital to note the emphasis upon the practical applications of these tech-nologies, from their uses in forensics (the ex-clusion or probable identification of suspects in criminal investigations) to pharmacogenomics – a field that explicitly deploys the concept of “race” in the attempt to focus the delivery of pharmaceuticals to populations so designated, and does not bother to place quotation marks around the concept. Third, I will briefly point to the possible, even likely interaction between racial or ethnic identity, nutritional intake, and biochemical manifestation of disease states, most notably, cancer and heart disease. Finally, I will suggest a way to address and even re-

Seite 40 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 41: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

solve the confusing and contradictory messages about “race” from the biological sciences and their applied satellites.

I will conclude with some remarks about how anthropologists (and others working on aggregate data on selected populations desig-nated by “race”) should try to advance our understanding of how “race” is always going to be a complex interplay of social and biological realities with ideology and myth.

2 Context and Content for Feedback Loops: Setting the Empirical Problem

By the mid 1970s, it had become abundantly clear that there is more genetic variation within the most current common socially used catego-ries of race than between these categories (Po-lednak 1989; Bittles and Roberts 1992; Chap-man 1993; Shipman 1994). The consensus is a recent development. For example, in the early part of the twentieth century, scientists in several countries tried to link up a study of the major blood groups in the ABO system to racial and ethnic groups.1 They had learned that blood type B was more common in certain ethnic and racial groups – which some believed to be more in-clined to criminality and mental illness (Gundel 1926; Schusterov 1927). They kept running up against a brick wall because there was nothing in the ABO system that could predict behavior. While that strategy ended a full half-century ago, there is a contemporary arena in which hematology, the study of blood, has had to re-suscitate a concern with “race”.

In the United States there has been an in-creasing awareness developed over the last two decades of the problem that blood from Ameri-cans of European ancestry (read mainly white) tends to contain a greater number of antigens than blood from Americans of African or Asian ancestry. This means that there is a greater chance for hemolytic reactions for blacks and Asians receiving blood from whites, but a lower risk for whites receiving blood from Asians or blacks. Here we come to a fascinat-ing intersection between the biological and social sciences. In the United States, not only do whites comprise approximately 80 percent of the population, proportionally fewer blacks and fewer Asian Americans donate blood than do whites. This social fact has some biological

consequences, which in turn have some social consequences.

This provides a remarkably interesting in-tersection. While the full range of analysts, commentators, and scientists – from post-modern essayists to molecular geneticists to social anthropologists – have been busily pro-nouncing “the death of race”, for practical clinical purposes the concept is resurrected in the conflation of blood donation frequencies by “race”. I am not merely trying to resurrect “ra-ce” as a social construct (with no biological meaning) – no more than I am trying to resur-rect “race” as a biological construct with no social meaning. Rather, I am arguing that when “race” is used as a stratifying practice (which can be apprehended empirically and systemati-cally) there is often a reciprocal interplay of a biological outcome that makes it impossible to completely disentangle the biological from the social. While that may be obvious to some, it is completely alien to others, and some of those “others” are key players in current debates about the biology of race.

In late September 1996, Tuskegee Univer-sity hosted a conference on the Human Ge-nome Project, with specific reference to the Project’s relevance to the subject of race (Smith and Sapp 1997). In attendance was Luca Cavalli-Sforza, a pre-eminent population geneticist from Stanford University and per-haps the leading figure behind the Human Ge-nome Diversity Project.2 Cavalli-Sforza had appeared on the cover of Time magazine a few years earlier, as something of a hero to the forces that were attacking the genetic determin-ism in The Bell Curve.3 At this conference, he repeated what he had said in the Time article: “One important conclusion of population ge-netics is that races do not exist” (ibid., p. 53).

If you take differences between two random individuals of the same population, they are about 85 % of the differences you would find if you take two individuals at random from the whole world. This means two things: (1) The differences between individuals are the bulk of the variation; (2) the differences among populations, races, continents are very small – the latter are only the rest, 15 %, about six ti-mes less than that between two random indi-viduals of one perhaps very small population (85 %). Between you and your town grocer there is on average a variation which is almost

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 41

Page 42: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

as large as that between you and a random in-dividual of the whole world. This person could be from Africa, China, or an Australian aborigine (ibid., p. 55).

Cavalli-Sforza is speaking here as a population geneticist, and in that limited frame of what is important and different about us as humans, he may be empirically correct. But humans give meaning to differences. At a particular histori-cal moment, to tell this to an Albanian in Kos-ovo, a Hutu among the Tutsi, to a Zulu among the Boers, or to a German Jew among the Na-zis, may be as convincing, for the purposes of further action, as telling it to an audience of mainly African Americans at Tuskegee Uni-versity.4 Indeed, David Botstein, speaking later in a keynote address, had this to say about the Bell Curve:

So from a scientific point of view, this whole business of The Bell Curve, atrocious though the claims may be, is nonsense and is not to be taken seriously. People keep asking me why I do not rebut The Bell Curve. The an-swer is because it is so stupid that it is not re-buttable. You have to remember that the Na-zis who exterminated most of my immediate family did that on a genetic basis, but it was false. Geneticists in Germany knew that it was false. The danger is not from the truth, the danger is from the falsehood. (ibid., p. 212)

3 The American Anthropological Associa-tion Statement on “Race”

In May 1998, the American Anthropological Association issued its own statement on “race” (1998). It attempts to address the myths and misconceptions, and in so doing takes a “cor-rective” stance towards the folk beliefs about race. The statement strongly states the position that “physical variations in the human species have no meaning except the social ones that humans put on them”. But in casting “the prob-lem” in this fashion, it gives the impression that the biological meanings that scientists attribute to race are biological facts, while the social meanings that laypersons give to race are first either errors or mere artificial social con-structions, and second not themselves capable of feedback loops into the biochemical, neuro-physiological, and cellular aspects of our bod-ies that, in turn, can be studied, scientifically. The statement of the Anthropological Associa-

tion is consistent with that of the UNESCO statement on race. However, by formulating the matter so that it is “only the social meanings that humans provide” implies that mere lay notions of race provide a rationale for domina-tion, but have no other utility.

There is profound misunderstanding of the implications of a “social contructivist” notion of social phenomena. How humans identify themselves, whether in religious or ethnic or racial or aesthetic terms, influences their sub-sequent behavior. Places of worship are so-cially constructed with human variations of meaning and interpretation and use very much in mind. Whether a cathedral or mosque, a synagogue or Shinto temple, those “construc-tions” are no less “real” because one has ac-counted for and documented the social forces at play that resulted in such a wide variety of “socially constructed” places of worship. “Race” as social construction can and does have a substantial effect on how people behave. One important arena for further scientific ex-ploration and investigation is the feedback between that behavior and the biological func-tioning of the body. It is now appropriate to restate the well-known social analytic aphorism of W.I. Thomas, but to refocus it on human taxonomies of other humans: If humans define situations as real, they can and often do have real biological and social consequences.

4 Explicating the Conflation of Crime, Ge-netics and Race

If “race” is a concept with no scientific utility, what are we to make of a series of articles that have appeared in the scientific literature over the last seven years, looking for genetic mark-ers of population groups that coincide with common-sense, lay renditions of ethnic and racial phenotypes? It is the forensic applica-tions that have generated much of this interest. Devlin and Risch (1992a) published an article on “Ethnic differentiation at VNTR loci, with specific reference to forensic applications” – a research report that appeared prominently in the American Journal of Human Genetics.

The presence of null alleles leads to a large excess of single-band phenotypes for blacks at D17S79…. This phenomenon is less im-portant for the Caucasian and Hispanic popu-

Seite 42 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 43: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

lations, which have fewer alleles with a small number of repeats (p. 540)

…it appears that the FBI’s data base is re-presentative of the Caucasian population. Re-sults for the Hispanic ethnic groups, for the D17S79 locus, again suggest that the data ba-ses are derived from nearly identical popula-tions, when both similarities and expected bi-ases are considered…. For the allele fre-quency distributions derived from the black population, there may be small differences in the populations from which the data bases are derived, as the expected bias is .05. (p. 546)

The work of Devlin and Risch (1992a, 1992b), Evett et al. (1993, 1996) and others suggest that there are only about 10 percent of sites in the DNA that are “useful” for making distinctions. This means that at the other 90 percent of the sites, the allele frequencies do not vary between groups such as “Afro-Caribbean people in Eng-land” and “Scottish people in England”. But it does not follow that because we can not find a single site where allele frequency matches some phenotype that we are trying to identify (for forensic purposes, we should be reminded), that there are not several (four, six, seven) that will not be effective, for the purposes of aiding the FBI, Scotland yard, or the criminal justice sys-tems around the globe in highly probabilistic statements about suspects, and the likely ethnic, racial, or cultural populations from which they can be identified – statistically.

An article in the 8 July 1995 issue of the New Scientist entitled “Genes in black and white” details some extraordinary claims made about what it is possible to learn about socially defined categories of race from reviewing in-formation gathered using new molecular ge-netic technology (Vines 1995):

In 1993, a British forensic scientist published what is perhaps the first DNA test explicitly acknowledged to provide “intelligence infor-mation” along “ethnic” lines for “investigators of unsolved crimes”. Ian Evett, now at the Home Office’s forensic science laboratory in Birmingham, and his colleagues in the Metro-politan Police, claim that their DNA test can distinguish between “Caucasians” and “Afro-Caribbeans” in nearly 85 percent of the ca-ses…. Evett’s work, published in the Journal of Forensic Science Society, draws on appar-ent genetic differences in three sections of human DNA. Like most stretches of human DNA used for forensic typing, each of these

three regions differs widely from person to person, irrespective of race. But by looking at all three, say the researchers, it is possible to estimate the probability that someone belongs to a particular racial group.

The implications of this for determining, for legal purposes, who is and who is not “offi-cially” a member of some racial or ethnic cate-gory are profound.

Two years after the publication of the UNESCO statement purportedly burying the concept of “race” for the purposes of scientific inquiry and analysis, and during the same time period that the American Anthropological As-sociation was deliberating and generating a parallel statement, an article appeared in the American Journal of Human Genetics, au-thored by Ian Evett and his associates, summa-rized thusly:

Before the introduction of a four-locus multi-plex short-tandem-repeat (STR) system into casework, an extensive series of tests were carried out to determine robust procedures for assessing the evidential value of a match be-tween crime and suspect samples. Twelve da-tabases were analyzed from the three main ethnic groups encountered in casework in the United Kingdom; Caucasians, Afro-Carib-beans, and Asians from the Indian subconti-nent. Independence tests resulted in a number of significant results, and the impact that these might have on forensic casework was investi-gated. It is demonstrated that previously pub-lished methods provide a similar procedure for correcting allele frequencies – and that this leads to conservative casework estimates of evidential value. (Evett et al. 1996, p. 398)

These new technologies have some not-so-hidden potential to be used for a variety of fo-rensic purposes in the development and “authen-tication” of typologies of human ethnicity and race. A contemporary update of an old idea of the idea of deciding upon “degree of whiteness” or “degree of nativeness” is possibly upon us, anew, with the aid of molecular genetics. Vines (1995) describes the Allotment Act of 1887, denying land rights to those native Americans who were “less than half-blood”. The U.S. gov-ernment still requires American Indians to pro-duce “Certificates with Degree of Indian Blood” in order to qualify for a number of entitlements, including being able to have one’s art so labeled. The Indian Arts and Crafts Act of 1990 made it

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 43

Page 44: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

a crime to identify oneself as a Native American when selling artwork without federal certifica-tion authorizing one to make the legitimate claim that one was, indeed, an authentic (“one-quarter blood” even in 1990s) American Indian. As noted above, it is not art, but law and foren-sics that ultimately will impel the genetic tech-nologies to be employed on behalf of attempts to identify who is “authentically” in one category or another. Geneticists in Ottawa, Canada have been trying to set up a system “to distinguish between ‘Caucasian Americans’ and ‘Native Americans’ on the basis of a variable DNA re-gion used in DNA fingerprinting” (Vines 1995, p. 37). For practical purposes, the issue of the authentication of persons’ membership in a group (racial/ethnic/cultural) can be brought to the level of DNA analysis. The effectiveness of testing and screening for genetic disorders in risk populations that are ethnically and racially designated poses a related set of vexing con-cerns for the “separation” of the biological and cultural taxonomies of race.

5 Genetic Testing and Genetic Screening

When social groupings with a strong endoga-mous tradition (such as ethnic or racial groups) intermarry for centuries, they are at higher risk for pairing recessive genes and passing on a genetic disorder. In the United States, the best knowns of these clustered autosomal recessive disorders are Tay-Sachs disease, beta-thalas-semia, sickle-cell anemia, and cystic fibrosis. For Tay-Sachs, concentrated primarily among Ashkenazi Jews of northern and eastern Euro-pean ancestry, about one in thirty is a carrier, and approximately one in every 3,000 new-borns will have the disorder. For cystic fibro-sis, about one in thirty Americans of European descent is a carrier, with a similar incidence rate. In contrast, approximately one in every 12 American blacks is a carrier for sickle-cell anemia and one in every 625 black newborns will have the disorder. Irish and northern Euro-peans are at greater risk for phenylketonuria. In the United States, one in 60 Caucasians is a carrier, and about one in every 12,000 newborn Caucasians is affected (Detailed information on the Incidence of Genetic Disorders can be found in Burhansstipanov et al. 1987, p. 6-7).

When both parents are carriers of the auto-somal recessive gene, the probability that each live birth will be affected by the disorder is 25 percent. However, being a carrier, or passing on the gene so that one’s offspring is also a carrier, typically poses no more of a health threat than carrying a recessive gene for a dif-ferent eye color. That is, carrier status typically poses no health threat at all. The health ration-ale behind carrier screening is to inform pro-spective parents about their chances of having a child with a genetic disorder.

In the United States, the two most wide-spread genetic screening programs for carriers have been for Jews of northern European de-scent (Tay-Sachs) and for Americans of west-ern African descent (sickle-cell anemia). From 1972 to 1985, there was widespread prenatal screening for both disorders, and by 1988, newborn screening for sickle-cell anemia had become common (Duster 1990). It is the auto-somal recessive disorders, located in risk popu-lations that coincide with ethnicity and race, that are of special interest as we turn to address genetic screening for populations that are at greatest risk for a disorder.

It is important to distinguish between a ge-netic screen and a genetic test. A genetic test is done when there is reason to believe that a par-ticular individual is at high risk for having a genetic disorder, or for being a carrier of a gene (recessive) for a disorder. So for example, a sibling of someone who has been diagnosed with Huntington’s (a late-onset neurological disorder) would be a candidate for a genetic test for that disorder. A genetic screen, on the other hand, is used for a population that is at higher risk for a genetic disorder. Thus, with the risk figures cited above, Ashkenazi Jews were the subjects of genetic screening for Tay-Sachs.

6 The Interaction between Race as Identity, Nutrient Consumption, and Health

The scientific literature on the rates of specific cancers in racially and ethnically designated populations is fairly well-developed. For exam-ple, Ashkenazic Jewish women are reported, clinically, to have higher rates of breast cancer than other groups. African-American men have almost double the rate of prostate cancer of white men in certain age groups, according to

Seite 44 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 45: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

reports released by the National Cancer Institute (Ries et al. 2002). How might this be explained, using race not simply as an “outcome” – but as a factor that helps produce the outcome? Consider the possibility that certain forms of cancer may be a function of nutrition and diet. Groups with certain dietary patterns or restrictions might then be systematically (i.e., apprehensive scientifi-cally) at greater risk for cancer. If members of a certain group identify themselves as say, Ash-kenazic Jewish, and then have a diet that follows certain patterns, they might well routinely have rates of certain groups of cancers, at both lower and higher risks than groups with different die-tary habits. African American males, for exam-ple, may, by identifying as African Americans, be more likely to eat a category of food (“soul food”) that might systematically put them at higher risk for prostate cancer. With this formu-lation, I am “bringing the systematic study of race” back into the “scientific inquiry” – even though I am not going to the molecular level to attempt a reductionist account of “race as cau-sed” at the level of the DNA.

Here is where the computer revolution en-ters the story: Up until very recently, we could not do much with these random variations in the DNA, called single nucleotide polymor-phisms – SNPs. However, with the new com-puters, we can now put the DNA of several clusters of people on computer chips, and see what might be patterns in their DNA (Hamadeh and Afshari 2000).

It is now possible to do hundreds, even thousands of experiments in a few hours. This might prove to be a useful technology in the hunt for particular regions that might help ex-plain some illnesses. For example, if we get a few hundred patients, all with prostate cancer – then look at their SNP profiles using this chip technology. Or perhaps with heart disease, a similar strategy.

With these new SNPs on chips, we will come up with new taxonomies of people who share certain kinds of patterns in their DNA, and who suffer from the same illness

Even with strong epidemiological evidence that heart disease and hypertension among Afri-can Americans is strongly associated with such social factors as poverty, there has been a persis-tent attempt to pursue the scientific study of hypertension through a link to the genetics of

race. Dark pigmentation is indeed associated with hypertension in America. Michael Klag et al. (1991) reported the results of a carefully controled study looking at the relationship be-tween skin color and high blood pressure. He and his colleagues found that darker skin color is a good predictor of hypertension among blacks of low socioeconomic status, but not for blacks of any shade who are “well employed or better educated”. The study further suggested that poor blacks with darker skin color experi-ence greater hypertension “not for genetic rea-sons” but because darker skin color subjects them to greater discrimination, with conse-quently greater stress and psychological/medical consequences. Of course, from another way of looking at it, “darker skin color” is dark mainly for genetic reasons, so it is all a matter of how one chooses to direct theorizing about the loca-tion of causal arrows. When practicing physi-cians see “darker skin color,” their diagnostic interpretation and their therapeutic recommen-dations are systematically affected. Schulman et al. (1999) recently published some research indicating that in clinical practice, physicians are likely to make systematically different recom-mendations for treatment of heart disorders, by race, even when patients present the same symp-toms. Thus, when there is an analysis of out-come data such as “cause of death” by race, and researchers find that blacks have a higher inci-dence of death from heart failure – it would be easy to make an incorrect inference about causa-tion and direction of the relationship between the variables.

By heading toward an unnecessarily bi-nary, socially constructed fork in the road, by forcing ourselves to think that we must either choose between either “race as biological” (now out of favor) and “race as merely a social construction” we fall into an avoidable trap. A refurbished and updated insight from W. I. Thomas can help us. It is not an either/or proposition. Under some conditions, we need to conduct systematic investigation, guided by a body of theory, into the role of “race” (or ethnic-ity, or religion) as an organizing force in social relations, and as a stratifying practice (Oliver and Shapiro 1995). Under other conditions, we will need to conduct systematic investigation, guided by a body of theory, into the role of the interaction of “race” (or ethnicity, or religion)

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 45

Page 46: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

however flawed as a biologically discrete and coherent taxonomic system, with feedback loops into the biological functioning of the human body; or with medical practice. The latter studies might include examination of the systematic administration of higher doses of x-rays to African Americans; the creation of ge-netic tests with high rates of sensitivity to some ethnic and racial groups, but low sensitivity to others; and the systematic treatment, or lack of it, with diagnostic and therapeutic interventions to “racialized” heart and cancer patients.

It is not difficult to understand why they persisted. Humans are symbol-bearing crea-tures that give meaning to their experiences and to their symbolic worlds. The UNESCO statement is ultimately about the problem of the difference between first-order constructs in science, versus second-order constructs. Some fifty years ago, Felix Kaufmann ([1944] 1958) made a crucial distinction that throws some light on the controversy. Kaufmann was not addressing whether or not there can be a sci-ence of race. Rather, he noted that there are different kinds of issues, methodologies, and theories that are generated by what could be called “first-order constructs” in the physical and natural sciences versus “second-order con-structs.” For the physical and natural sciences, the naming of objects for investigation and inquiry, for conceptualizing and finding em-pirical regularities, is in the hands of the scien-tists and their scientific peers. Thus, for exam-ple, the nomenclature for quarks or neurons, genes or chromosomes, nitrogen or sulfides, etc., all reside with the scientist in his/her role as the creator of first-order constructs.

This is quite different from the task of the observer, analyst, or scientist of human social behavior. This is because humans live in a pre-interpreted social world. They grow up, from infancy, in a world that has pre-assigned catego-ries and names for those categories, which were in turn provided by fellow common-sense ac-tors, not by “scientists” (Schutz 1973). Their continual task is to try to navigate, negotiate and make sense of that world. The task of the social scientist is therefore quite distinct from that of the natural scientist. While the latter can rely upon “first-order constructs”, the former must construct a set of categories based upon the pre-interpreted world of common-sense actors. The

central problem is that “race” is now, and has been since 1735,5 both a first- and second-order construct. The following joke, making the rounds among African-American intellectuals, makes the point with deft humor:

‘I have noted’, the joke laments, ‘that my re-search demonstrating that race is merely a so-cial and ideological construction helps little in getting taxis to pick me up late at night’.

This throws into a different light the matter of whether race can be studied scientifically. If we mean by that, is there a consensus among the natural scientists about race as a “first-order construct”, then the answer since about 1970 is categorically “no”. The UNESCO statement summarizes why this is so at every level that is significant to the biological functioning of the organism, with two exceptions. We have already noted that scientific research on first-order con-structs about race as a biological category in science in the last four decades has revealed over and over again that there is greater genetic heterogeneity within versus between major ra-cial groupings (Polednak 1989; Bittles and Rob-erts 1992; Chapman, 1993; Shipman 1994). One exception is that the gene frequencies, as dem-onstrated in the use of specific polymorphic markers, occur more frequently in certain popu-lations than in others. But this distribution of gene frequencies, though occasionally overlap-ping with racial groupings, is definitively not only a racially defined issue. For example north-ern Europeans have greater concentrations of cystic fibrosis than southern Europeans, and both are categorized as “Caucasians”. Moreover, southern Europeans have higher rates of beta-thalassemia than northern Europeans – but even more to the point, sickle-cell anemia is found in greater concentration in Orchomenos, Greece, than among African Americans (Duster 1990). This is not a biologically racially defined matter (i.e., racial in the sense of first-order constructs).

7 Race and “Second-Order Constructs”

Financially, the biggest difference between whi-tes and African Americans today is their median net worth, which is overwhelmingly attributable to the value of equity in housing stock. In 1991, the median net worth of white households ($ 43,279) was more than 10 times that of the

Seite 46 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 47: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

median net worth of African-American house-holds ($ 4,169, Bureau of the Census 1991). This is a truth that can be determined by the systematic collection of empirical data, and either replicated or refuted – which is to say that it can be investigated scientifically, without reference to blood groups, the relationship be-tween genotype and phenotype, or the likelihood that one group is more likely to be at risk for cystic fibrosis while the other is more likely to be at risk for sickle-cell anemia. Here is why:

In 1939, the Federal Housing Authority’s Underwriting Manual that provided the guides for granting housing loans explicitly used race as one of the most important criteria. The man-ual stated that loans should not be given to any family that might “disrupt the racial integrity” of a neighborhood. Indeed, the direct quote from Section 937 of the FHA manual went so far as to say that “If a neighborhood is to retain stability, it is necessary that properties shall be continued to be occupied by the same social and racial classes” (Massey and Denton 1993, p. 54). On this basis, for the next thirty years, whites were able to get housing loans at 3-5 percent, while Blacks were routinely denied such loans. For example, of 350,000 new ho-mes built in Northern California between 1946 and 1960 with FHA support, fewer than 100 went to blacks. That same pattern holds for the whole state, and for the nation as well.

To throw out the concept of race is to take the non-thinking alternative – the ostrich ap-proach to race and ethnicity, pioneered and celebrated by the French government: “We don’t collect data on that topic. Therefore, it does not exist!”6 Or perhaps the legacy of Sapir and Whorf where language limits thinking is alive and well in the scientific study of race.

Notes

1) For the discussion in this paragraph, and for the references to the German literature that are used here, I am indebted to William H. Schneider (1996).

2) The Human Genome Diversity Project is not to be confused with the Human Genome Project. The latter is a $ 3-billion effort, jointly funded in the United States by the National Institutes of Health and the Department of Energy. The goal is to map and sequence the entire human ge-nome, and the major rationale for the project,

from the outset approximately a decade ago, was to provide information that would assist medical genetics in de-coding, better understanding, and eventually, hopefully producing gene therapeutic interventions for genetic disorders. In contrast, the Human Genome Diversity Project has been concerned with tracing human populations through an evolutionary history of many centu-ries. Its goal was primarily to better understand human evolution (Committee on Human Genome Diversity 1997).

3) This was a popular book by Richard Herrnstein and Charles Murray (1994).

4) Tuskegee, after all, was the site of the infamous syphilis experiments on black males – where the Public Health Service of the U.S. Government had studied the racial effects of how the disease ravages the body of blacks in contrast to whites (Jones 1981).

5) This was the year that Linnaeus published System Naturae, in which he revealed a four-part classi-fication scheme of the human races that has resi-dues still today.

6) Perhaps an internally consistent emanation from a society that gave the world the Cartesian for-mulation about thought and existence – and sub-ject/object dualities.

References

American Anthropological Association, 1998: Ame-rican Anthropological Association statement on ‘race’. American Anthropologist 100(3), p. 712-13 Bittles, A.H.; Roberts, D.F. (eds.), 1992: Minority Populations: Genetics, Demography and Health. London: Macmillan Burhansstipanov, L., Giarratano, S.; Koser, K.; Mongoven, J., 1987: Prevention of Genetic and Birth Disorders. Sacramento: California State De-partment of Education, p. 6-7 Chapman, M. (ed.), 1993: Social and Biological Aspects of Ethnicity. New York: Oxford University Press Committee on Human Genome Diversity, 1997: Scientific and Medical Value of Research on Hu-man Genetic Variation. In: Evaluating Human Ge-netic Diversity. National Research Council. Wash-ington, D.C.: National Academy Press, p. 16-22 Devlin, B.; Risch, N., 1992a: Ethnic differentiation at VNTR loci, with specific reference to forensic applications. American Journal of Human Genetics 51, p. 534-48 Devlin, B.; Risch, N., 1992b: A note on the Hardy-Weinberg equilibrium of VNTR data by using the Federal Bureau of Investigation’s fixed-bin method. American Journal of Human Genetics 51, p. 549-53

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 47

Page 48: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Duster, T., 1990: Backdoor to Eugenics. New York: Routledge Evett, I.W., 1993: Criminalistics: The future of ex-pertise. Journal of the Forensic Science Society 33(3), p. 173-8 Evett, I.W., Gill, P.D.; Scranage, J.K.; Wier, B.S., 1996: Establishing the robustness of short-tandem-repeat statistics for forensic application. American Journal of Human Genetics 58, p. 398-407 Evett, I.W.; Buckleton, I.S.; Raymond, A.; Roberts, H., 1993: The evidential value of DNA profiles. Journal of the Forensic Science Society 33(4), p. 243-4 Gundel, M., 1926: Einige Beobachtungen bei der rassenbiologischen Durchforschung Schleswig-Holsteins. Klinische Wochenschrift 5, p. 1186 Hamadeh, H.; Afshari, C.A., 2000: Gene chips and functional genomics. American Scientist 88(6), p. 508-15 Herrnstein, R.J.; Murray, C., 1994: The Bell Curve: Intelligence and class structure in American life. New York: The Free Press Jones, J.H., 1981: Bad Blood: The Tuskegee syphi-lis experiment: A tragedy of race and medicine. New York: The Free Press Katz, S.H., 1995: Is race a legitimate concept for science? The AAPA Revised Statement on Race: A Brief Analysis and Commentary, University of Pennsylvania, February Kaufmann, F., [1944] 1958: Methodology of the Social Sciences. New York: Humanities Press Klag, M.; Whelton, P.K.; Coresh, J.; Grim, C.E.; Kuller, L.H., 1991: The association of skin color with blood pressure in U.S. blacks with low socio-economic status. Journal of the American Medical Association 265(5), p. 599-602 Massey, D.S.; Denton, N.A., 1993: American Apart-heid: Segregation and the Making of the Under-class. Cambridge, MA: Harvard University Press Oliver, M.L.; Shapiro, Th.M., 1995: Black Wealth/ White Wealth: A new perspective on racial inequal-ity. New York: Routledge Polednak, A.P., 1989: Racial and Ethnic Differ-ences in Disease. New York, N.Y.: Oxford Univer-sity Press Ries, L.A.G.; Eisner, M.P.; Kosary, C.L.; Hankey, B.F.; Miller, B.A.; Clegg, L.; Edwards, B.K. (eds.), 2002: SEER Cancer Statistics Review, 1973-1999, National Cancer Institute. Bethesda, MD. Table XXII-1 Schneider, W.H., 1996: The history of research on blood group genetics: Initial discovery and diffu-sion. History and Philosophy of the Life Sciences 18(3), p. 277-303

Schulman, K.A.; Berlin, J.A.; Harless, W.; Kenner, J.F.; Sistrunk, S.; Gersh, B.J.; Dube, R.; Taleghani, C.K.; Burke, J.E.; Williams, S.; Eisenberg, J.M.; Escarce, J.J., 1999: The effect of race and sex on physicians’ recommendations for cardiac catheteri-zation. New England Journal of Medicine 34(8, February 25), p. 618-26 Schusterov, G.A., 1927: Isohaemoagglutinierenden Eigenschaften des menschlichen Blutes nach den Ergebnissen einer Untersuchung an Sträflingen des Reformatoriums (Arbeitshauses) zu Omsk. Mosk-ovskii Meditsinksii Jurnal 1, p. 1-6 Schutz, A., 1973: Common Sense and Scientific In-terpretation of Human Action. In: Collected Papers I: The Problem of Social Reality, edited and introduced by Maurice Natanson (The Hague: Martinus Nijhoff) Shipman, P., 1994: The Evolution of Racism: Hu-man differences and the use and abuse of science. New York: Simon and Schuster Smith, E., Sapp, W. (eds.), 1997: Plain Talk About the Human Genome Project. Tuskegee, Ala: Tuske-gee University Vines, G., 1995: Genes in black and white. New Scientist 147(8 July), p. 34-7

Contact

Troy Duster, Director Institute for the History of the Production of Knowledge Professor of Sociology, New York University 285 Mercer Street, 10th Floor New York, NY 10003-6653, USA Tel.: +1 - 212 - 998 - 8882 Fax: +1 - 212 - 995 - 4904 E-Mail: [email protected]

«

Seite 48 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 49: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Genetically Modified Foods and Consumer Mobilization in the UK

by Javier Lezaun, London School of Eco-nomics

In the late 1990s “the consumer” became the key constituency in the struggle over genetically modified foods in the United Kingdom. Consumers were represented and mobilized in a variety of strategies of com-mercialisation and opposition. This article traces one of the genealogies of this proc-ess: the effort of the British food industry to produce an accurate image of the consumer of biotechnology foods, and to enlist that image in a successful marketing strategy for GM products. A comprehensive labelling policy was seen as the key to addressing consumer demands and anxieties, but this strategy soon faltered, as companies aban-doned the use of transgenic ingredients under pressure from anti-GM campaigners. The article draws attention to the particular epistemologies of the consumer that are produced in the course of disputes over new technologies, and interrogates the em-phasis on information and choice as the fundamental elements of a proper “con-sumer understanding.”

On 27 March 1999, four members of the “ge-netiX snowball” campaign walked calmly into a Tesco supermarket in London, and “confis-cated” foods allegedly containing genetically modified ingredients. When the “snowballers” refused to pay for the foods they had seized – offering to exchange them for organic products instead – they were briefly arrested by the po-lice. One of the activists stated the reason for their action as follows: “Tescos are breaking the law by selling food which is not proven to be safe and which is endangering other farmers’ crops in the production process through genetic pollution. I intend to carry on decontaminating supermarkets and I hope others will join in”.1

GenetiX snowball was a small group for-med in the late 1990s by a small number of environmental activists with roots in the peace movement of the previous decade. It initiated its campaign against genetically modified or-ganisms (GMOs) in the summer of 1998, with

the uprooting of a few dozen plants at the Mo-del Farm that the American biotechnology firm Monsanto owned in Watlington, Oxfordshire. That action resembled many others then taking place against genetically modified crops throughout Britain.2 The marked difference between this initial action of “non-violent civil responsibility” and the supermarket decon-tamination exercise in London less than a year later illustrates an important shift in the tactics of mobilization and protest against the release of transgenic organisms in the United King-dom. What had begun as a campaign targeting experimental farms and test fields where GM crops were being introduced into the local en-vironment, morphed into an effort to pressure food manufacturers and retailers to abandon the use of genetically modified ingredients and thereby affect the international political econ-omy of agricultural biotechnology. The locus of resistance moved progressively from the country to the city, the farm to the supermarket, and the decontamination of fields to the confis-cation of contaminated foods. The change, in the case of genetiX snowball, reflected an on-going discussion of consumption- versus pro-duction-oriented tactics among its members. “So far, genetiX snowball has focused on the production end of GM food – the GM crops in our fields,” a member pointed out in a posting on the group’s website. “But is it really enough to keep the genetic peril from our own field whilst it is being imported from fields in other countries? We also need to pay attention to the consumer end of things – the GM products in our supermarkets”.3

Ultimately, the supermarket was chosen as the location where direct action could meet the international diffusion of genetically modified foods, and certainly the “consumer end of things” became in the late 1990s the central arena in the struggle over the new technology in the United Kingdom and the rest of Europe. If anything, the “snowballers” were rather late in joining a general trend away from traditional forms of environmental activism, and towards the mobilization of consumers at the point of purchase. Large environmental groups had de-cided to frame the issue primarily in terms of “consumer rights.” Friends of the Earth de-scribed the introduction of genetically modified foods in the United Kingdom as “a crime against

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 49

Page 50: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

consumer choice,” and initiated in 1998 their Supermarket Challenge campaign, while Green-peace published the popular “supermarket shop-pers’ guide” to help consumers avoid products containing GM ingredients, and routinely staged protests in front of retailers and manufacturers. Throughout 1998 and 1999 several British newspapers carried regular sections advising readers on how to avoid consuming GM foods, and offered purchasing tips in the style and for-mat of other consumer information campaigns.4

The result of this multifaceted campaign was swift and extraordinarily successful. By the spring of 1999, all major UK supermarket chains and food manufacturers had made prom-ises to eliminate genetically modified ingredi-ents from their shelves and products. So effec-tive were the “supermarket challenge” cam-paigns that, by the time the snowballers carried their decontamination action in London, only two food retail chains – Tesco and Safeway – were still refusing to phase out GM food and ingredients.5 The importance of the action of the four “snowballers” in the London super-market lies less in its novelty or originality, and more in what it says about the trajectory of action of the British environmental movement in its opposition to genetically modified organ-isms. If a group so deeply embedded in the traditions and tactics of the ecology and peace movement could stage their “decontamination” actions in a supermarket, it was clear that the terrain of the struggle had changed decisively, and that “the consumer end of things” had in-deed become the vital arena of action.

1 Tracing the genealogies of consumer mobilizations

We must ask how the consumer emerged as the key constituency in the GM food debate, and what kind of consumer was mobilized in the disputes over food biotechnology. It is perhaps difficult to retrieve the problematic centrality of consumer rights and interests, now that “con-sumer choice” has become an incontrovertible axiom in the policy and politics of genetically modified organisms. The right of consumers to choose is a political truism – the kind of unas-sailable cliché that fills the speeches of govern-ment officials, corporate CEOs and activists alike. However, we need to recuperate some of

the strangeness that this idea should evoke, and to trace its particular genealogy in the debates over GM foods. Not that long ago, Raymond Williams found the very idea of “consumer choice” paradoxical. It was a “curious phrase,” he argued, because historically the term ‘con-sumer’ is a product of the age of mass produc-tion and of increased corporate control over the market. Contrary to the traditional concept of ‘customer,’ which used to denote a personalized and regular relationship between a buyer and a seller, the ‘consumer’ was by definition an ab-stract actor, who operated in an abstract market over whose internal functioning he had very little knowledge or control. “Consumer choice” is in this sense a paradoxical slogan, for it brings together elements that are historically divergent. The emergence of the notion of “the consumer” went hand in hand with the individual’s loss of actual control over market forces and exchanges (Williams [1976] 1983, p. 78-9).

I use the term “consumer mobilization” to describe the process of developing a particular image of “the consumer” and inserting it into the strategies of market actors. I borrow the expression from Miller and Rose’s study of psychological knowledge in the advertisement industry of the 1950s. Mobilization is a process of producing knowledge about and making statements on behalf of a certain public, there-by linking it to other actors’ strategies. This is, Miller and Rose argue, “less a matter of domi-nating or manipulating consumers than of ‘mo-bilizing’ them by forming connections between human passions, hopes and anxieties, and very specific features of goods enmeshed in particu-lar consumption practices” (Miller, Rose 1997, pp. 1-36). If the actor entitled to “consumer choice” is construed as an abstract entity, and positioned vis-à-vis abstracted market forces, the process of “consumer mobilization” is a concrete practice of inserting particular under-standings of consumer motivation and behav-iour into market strategies.

The following sections will address one example of such mobilization. Rather than focusing on the tactics of “consumer power” used by the “snowballers” and others to oppose the introduction of GM foods, I would like to consider the other side of the coin: the articula-tion and enlistment of a particular understand-ing of the consumer in the marketing strategies

Seite 50 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 51: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

of the British food industry. This genealogy of consumer mobilization has been relatively ne-glected, which is surprising given that the food industry tried to develop an operational view of the consumer of GM foods even before bio-technology became a “public issue” in the late 1990s. The industry deployed for this purpose a variety of consumer research tools – surveys, focus groups, and “stakeholder consultations” – to develop a coherent commercialization strat-egy for GM foods. The purpose was to find the “path of least resistance” to the British con-sumer, to preempt as far as possible a damag-ing public controversy, and to articulate a “food chain” approach, or a single industry strategy towards the marketing of GM foods.

As demonstrated below, the image of the consumer that the industry developed is not radically different from the constituency that would later be mobilized by the likes of Green-peace and Friends of the Earth. In both cases the discourses centered on the right of consum-ers to know, and the responsibility of compa-nies to provide them with informed choice. Yet, while the industry hoped that these princi-ples would allay consumer fears and gain ac-ceptance for the new technology, in the hands of activists they became the battle cry of an increasingly unruly constituency.

2 Producing “Consumer Understanding” for the Food Industry

It would be easy to infer from the industry’s rapid retreat in the face of the anti-GMO mobi-lization that the arrival of GM foods, and the responses generated in the British public, took the industry unprepared. Nothing could be farther from the truth. From the early 1990s streneous efforts had been made by the indus-try to predict the likely consumer response to food biotechnology, and to develop a coherent strategy of commercialization for the food sec-tor as a whole. The possibility of serious con-sumer opposition to GM foods was always present in the minds of leading industry execu-tives, who had experienced, throughout the 1990s, a series of “food safety scares” culmi-nating in the BSE crisis in 1996. Drawing from these experiences, the industry tried to find the antidote to a crisis of consumer confidence and

to plan well ahead of the arrival of GM prod-ucts into the British market.

Two elements were central to this plan-ning: a process of consultation among key companies, and a program of consumer re-search designed to map out the anxieties, fears and desires of the future consumer of GM foods. Both elements were centralized at the Institute of Grocery Distribution (IGD), the research arm of the largest UK retailers and manufacturers. It was the IGD Policy Issues Council who, in 1994, began to address the issue of food biotechnology and created a Bio-technology Advisory Working Group encom-passing the largest retailers, key international manufacturers (i.e. Unilever, Nestlé), a British biotechnology company (Zeneca), and inter-ested stakeholders (i.e. the National Farmers Union, the Consumers’ Union). The goal was to develop an understanding of “consumer attitudes and consumer requirements” which would help identify both a “strategy for the introduction of products of biotechnology in order of consumer acceptance,” and the “retail-ers and manufacturers with the customer pro-file most likely to accept the new technology” (Brown 1994, p. 72).

At the time, the view put forward by IGD consumer researchers was already dominated by the perception that “consumer confidence in the food industry has been rocked,” and that consumers were proving to be “far more aware and less trusting of developments in food pro-duction” than the industry had thought (ibid., p.v.). Given the general lack of trust, and a concern with avoiding the mistakes of the re-cent past, the industry focused on accurately anticipating and addressing the possible con-sumer pitfalls of GM foods:

We have learnt from our experience with food irradiation that consumers will not accept new technology without sufficient information and time to evaluate the new technology. In order to meet consumer requirements for informa-tion on biotechnology and to ensure that food products of biotechnology are introduced ap-propriately it is essential to fully understand consumer awareness, understanding and ac-ceptance of biotechnology (ibid., p. 33).

On the basis of these preliminary views, the Working Group issued its first public statement on biotechnology in October of 1995. The dec-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 51

Page 52: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

laration did not include specific commitments, but it did introduce some key terms that would dominate the industry’s discourse throughout the 1990s:

As an industry we are committed to a policy of openness and facilitating understanding as a means of addressing any concerns about the new technology. We believe that the pro-vision of information is essential to enable customers to make an informed choice about food products. The industry will endeavour to make information available in the most ef-fective manner to give an objective and bal-anced view of genetic modification (IGD/PIC Biotechnology Advisory Working Group, October 1995).

Terms like “openness” (or later, “transpar-ency”), “understanding,” and, more crucially, “informed choice” would dominate future pub-lic statements on food biotechnology. Labeling, though not explicitly mentioned in the state-ment, was the central issue under discussion. The absence of a clear position on this issue was indicative of the uncertainty about the position of North American producers of agri-cultural commodities on the segregation of GM crops, and of the divisions that this uncertainty generated among different sectors of the food industry. Supermarkets were keen to make a comprehensive commitment to labeling, but the large manufacturers were skeptical of its feasi-bility. The main opposition to labeling, how-ever, came from companies and sectors not represented in the IGD working group – bio-technology firms selling transgenic seeds to North American farmers, and international providers of raw materials and food and feed ingredients.

Partly to bridge the differences within the industry, the IGD initiated its consumer re-search program. Between 1994 and 1997 this generated an increasingly consistent image of consumer attitudes and behavior, particularly on consumers’ opinions on labeling. According to the reports of the IGD, consumer attitudes to GM foods were characterized by a low level of awareness of the issues at hand, combined with a very strong desire for adequate “informa-tion.” The consumers interviewed in the focus groups seemed fundamentally ambivalent about the risks and benefits of the new technology, but decisive and demanding as far as their right

to proper information was concerned. “There was,” an IGD report points out, “little un-prompted mention of the process and when asked about genetic modification the partici-pants expressed no knowledge.” Yet, as soon as the researchers provided “a simple explana-tion of the technology,” the participants in the focus groups began to express tangible views on the issue. On the crucial issue of labeling, the IGD’s research subjects offered a clear heuristic of labeling and trust:

Product labelling was seen as an essential route to providing information. (…) If information was not made available consumers would pre-sume that the industry had something to hide. On the other hand, if industry was perceived to be open and honest about genetic modification, this conveyed industry confidence in the tech-nology and this would be conveyed to the con-sumer (Sadler, 2000, p. 147).6

On the basis of this interpretation, the IGD be-gan to formulate a more precise position, speci-fying the kinds of information that would satisfy the consumers’ demands. Of all the products containing or consisting of GMOs, which ones should be labeled, and how? The evidence pro-duced in the focus groups suggested that “the important issue for consumers would be the presence of modified genetic material, a novel entity that would be perceived to present a po-tential risk…. Consumers would be unable to differentiate between genetic material that is viable (intact; active) and non-viable (degraded through processing; inactive)” (Sadler 2000, p. 45). This suggested a labeling regime based on the ability of the food provider to know whether transgenic material had at any point been in-volved in the manufacture of the product. The consumers represented by the IGD thought that “product labeling is independent of the concen-tration or format of GM ingredients; if the com-pany knows an ingredient from a GM crop is present, however small, then the product should be labeled” (ibid., p. 180).

It was at this time, a couple of years into the launch of the IGD Biotechnology Initiative, that the food industry achieved its first, and groundbreaking success in the commercializa-tion of GM foods, a success that helped solid-ify the emerging views on the link between labels and consumer acceptance. The product in question was a tomato purée derived from a

Seite 52 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 53: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

genetically modified tomato developed by the British firm Zeneca. In 1996, two supermarket chains – Sainbury’s and Safeway – agreed to commercialize cans of the tomato purée under their own labels. The cans, sold at a compara-tively cheaper price than conventional alterna-tives, were clearly labeled as “produced from genetically modified tomato.” Following the premise that “the more publicity the better,” the launch included an intense media campaign (see Harvey 1999).7 Sainsbury’s and Safeway sold 1.6 million cans of the genetically modi-fied tomato purée.

It is now easy to forget that the first ex-perience of the British food industry with a GM product was, by their own standards, highly successful. Consumers seemed perfectly happy to purchase a genetically modified food, pro-vided it offered some direct benefit (in this case, a better price) and was clearly labeled. To many in the food industry, this represented the validation of a theory of consumer behavior that linked the acceptance of food biotechnol-ogy to the provision of clear and unambiguous labels and information. Nigel Poole, who was then group manager for external and regulatory affairs at Zeneca, emphasized the exemplarity of the tomato purée case in testimony to the House of Lords. “Listening” to social concerns and providing consumers with “choice,” he argued, were the key to the successful market-ing of a GM product:

You need many other things to come together, not just to bring the product out but to make a commercial success. The stakeholders are an essential part of that. When we started the launch of the tomatoes we communicated – and, I want to emphasize, we listened to – many different parts of society from the media to civil servants, to Members of Parliament, Lords, members of the European Parliament, local people and consumers. We tried our best to build their thinking and their thoughts into the way we behaved. When we came forward we thought this would be the first such prod-uct in Europe. It is easy for us: it is our cul-ture, but we wanted to make sure that there was choice. That was never a question. The reason we labelled our tomato puree was not for safety reasons at all. It was simply be-cause we wanted to give information to the consumer.8

Soon after the launch of the tomato purée, the IGD Policy Issues Council issued in March 1997 its final recommendations on the labeling of genetically modified products. Ross Buck-land, then president of the IGD, urged the food industry to adopt the regulations in order to “demonstrate a positive commitment to con-sumer understanding and choice”.9

“As we have seen with food irradiation,” the guidelines document reminded its readers, “new technologies are not always readily ac-cepted by consumer. The provision of freely available, objective information and, where practicable, informed choice are key to the successes of these products” (IGD 1997, p. 18). To meet the demand for information, the guide-lines proposed labeling criteria that were stricter and more inclusive than the rules of the European Novel Foods Regulation. They called for the labeling of any foods “known to contain modified genetic material, whether active or not” (ibid. pp. 7-19),10 which, for the first time, made labeling independent of whether the new products were substantially different from their conventional counterparts. The IGD recom-mended labelig even of foods where the modi-fied DNA or protein was no longer “intact,” on the basis, once again, of the consumer’s alleged inability to appreciate the distinction between different types or degrees of modification.

The inclusiveness of these labeling criteria corresponded to a very particular understanding of the relationship between consumer confi-dence and the inscription of information in food products. In the thinking of the IGD, labeling was first and foremost a marketing instrument. Labels were expected to provide consumers with choice, but also to generate a familiarity with products that might otherwise generate suspi-cion. Rather than a warning sign, the industry hoped, labels could be a way of earning the confidence of the public. “When purchasing products for consumption at home,” Michele Sadler, consumer preferences manager at the IGD argued, “consumers wanted products to be labelled as this conferred that the food producers had nothing to hide about use of biotechnology” (Sadler 1998, pp: 306-309). This position reso-nated with the corporate philosophy of several major players in the UK food industry, particu-larly retailers trying to build a brand identity around their ability to “listen to the consumer.”

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 53

Page 54: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Enshrining consumer choice as the key to suc-cess was appealing to retailers and other indus-try sectors who, at this stage, had no direct in-vestment in the success biotechnology, and who would very likely be able to shift the technical burdens and labeling to their suppliers.

3 Market Failure

It is well known how the story developed after this. Soon after the food industry announced the new labeling guidelines, what had been a planned concerted strategy towards the man-aged introduction of GM foods turned, under increasing consumer pressure, into a series of individual and uncoordinated avoidance ac-tions, as company after company tried to limit the impact of the controversy on their brands by promising to eliminate GM ingredients from their products. By the spring of 1999 the GMO issue had become, according to the industry’s own polls, the main “food safety concern” of British consumers, surpassing pesticides, food poisoning, or even BSE. Supermarkets began to offer “GMO-free” products, thereby violat-ing the IGD guidelines, which had urged that “under no circumstances should negative claims, such as ‘free from genetically modified [ingredient]’ or ‘contains no genetically modi-fied [ingredient],’ be used.” Iceland, a medium-size retailer that had not participated in the IGD initiative, was the first to publicize its products as “containing no GMOs,” but very soon all the major supermarket chains, as well as the largest food manufacturers, announced similar policies of avoidance. By the spring of 1999, following the decision of Tesco and Unilever to cave in to the anti-GM campaign, The Independent of London could publish a triumphant paeon to the power of consumer mobilization:

What a good week this has been for those who believe in the power of the consumer. Nothing, we had been told, was to stand in the way of the progress that was genetically modified food; only Luddites and hysterics, we were led to understand, had doubts about health implications; why wait for further testing, said those who know better, when the technology was available now? The con-sumers didn’t accept any of this, and made it clear that they wanted more information be-fore buying new foods. One by one the su-permarkets, which had started selling geneti-

cally modified products without so much as a blush, began to change their tune.11

Despite streneous attempts to anticipate the re-actions and anxieties of the virtual consumer of GM foods, the particular form that consumer mobilization took in the late 1990s seemed to take the IGD by surprise. Suddently, the con-sumer appeared as an unruly constituency. Sev-eral culprits for the failure of the industry’s con-sumer management efforts were readily at hand. The media was blamed for its sensationalistic coverage of the GMO issue, which replaced the consumer’s legitimate demand for “meaningful” information with irrational fear. On the other hand, the introduction of unsegregated trans-genic soybeans and maize from North America had made the labeling recommendations largely unfeasible. Since companies had no way of knowing whether the ingredients of their prod-ucts were conventional or modified, but had reason to assume that a majority of their prod-ucts would contain at the very least traces of trasgenic organisms, the strict application of the IGD guidelines would lead to the labeling of all food products. The culprit in this case was also easy to identify: the American company Mon-santo, which had failed to heed the warning of the British food industry and had refused to segregate genetically modified crops from con-ventional commodity streams. The uncontrolled introduction of Monsanto’s soybeans violated all the axioms of the IGD’s understanding of a successful commercialization strategy, which rested on careful management and piecemeal introduction of products. As an IGD review of the events of the late 1990s argued:

The inclusion of a GM soya variety in the commodity stream was in contrast to the UK industry’s desired approach to introducing GM products. GM soya had no direct con-sumer benefit, and without segregation, con-sumers would not easily be able to exercise choice. With soya ingredients used in an es-timated 60% of processed foods, the possible presence of GM soya ingredients in a wide range of products would give consumers the impression of a very fast introduction of the technology (Sadler 2000, p. 27).

Many things have changed since 1999, when most food companies decided to avoid trans-genic ingredients in their products. New Euro-pean regulations have strengthened the labeling

Seite 54 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 55: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

requirements for GM foods, and some new transgenic organisms have been authorized for commercialization. Theoretically, then, the food industry could proceed with the marketing of GM foods. Yet, no company seems willing to attach the stigma of a GM label to its products.

One could expect that the market failure of GM foods in the UK would lead to a reexami-nation of the model of consumer behavior that the British food industry applied in their com-mercialization strategy of the mid-1990s. The model put forward by the IGD and adopted by the food industry was predicated on the exis-tence of an “epistemic” consumer, an actor whose competencies and behavior are defined in terms of “understanding” the issues – or, more frequently, not understanding them – and whose fundamental demand, precisely because he does not understand, is an abstract “right to know,” to be satisfied through product labeling.

There are signs that this peculiar episte-mology of consumer behavior has lost some of its appeal, and future controversies over new technologies will probably see the mobilization of a different sort of consumer. An IGD report published after the onslaught of anti-GM con-sumer boycotts already insinuated that perhaps what really concerned consumers might not be information and the provision of choice be-tween products, but rather a “lack of control” over the introduction of new technologies (Sadler 2000, p. 81).12 An inkling that suggests a form of consumer mobilization less focused on the epistemology of shopping behavior and more attentive to the politics of technology development and control; an understanding of consumers that centers less on the choice be-tween products and more on the legitimization of processes of technological innovation.

Notes

1) Genetix Snowball, Press Release, 27 March 1999 2) For an analysis of this form of action, see Iain

A. Boal, 2001, pp. 155-185 3) GenetiX snowball, “The principles for supermar-

ket decontamination.” At http://www.gn.apc.org/ pmhp/gs/shopping.htm, retrieved 20 August 2001.

4) Several “consumer guides” appeared in the late 1990s, among them Sue Dibb and Tim Lobstein, GM Free: A Shopper’s Guide To Genetically Modified Food (Virgin Publishing, 1999) and

Joanna Blythman, How To Avoid GM Food (Fourth State Limited, 1999). The emphasis on responsible consumption resonates with a long tradition of “green consumerism” among British environmentalists. In the landmark Consumers’ Guide to the Protection of the Environment, published in 1971 by Friends of the Earth, Jona-than Holliman argued that “the conversion to a life style more related to the ability of the Earth to supply our needs must start by the consumer regaining the political power of the individual to have real choice in the market place.” Green consumer guides, the predecessors of the best-selling anti-GM guides of the late 1990s, were extremely successful in the late 1980s. Some have argued that green consumerism was a “compromised response” to the status quo Thatcherism, a sort of hybrid between environ-mental activism and the free-market ideology that dominated British policy and politics in the 1980s and 1990s. In this view, the reliance on “con-sumer power” would be a result of the difficulty of shaping the policy process through the institu-tions of political representation. The role of the state, as a target and potential ally of environ-mental activism, became secondary, shifting the emphasis to the ability of individual citizens to affect changes in the marketplace in their capac-ity as consumers. For an extended interpretation of the British case, see Mike Robinson, The Greening of British Party Politics (Manchester: Manchester University Press, 1992).

5) And both retailers changed their position short-ly, under increasing competitive pressure from rivals that had already made commitments to “GM-free” foods.

6) Sadler’s report provides a summary of the work of the IGD consumer researchers on the accept-ability of GM foods throughout the 1990s.

The consumers’ position on labeling was sometimes independent of their concrete attitude towards bioengineered foods. “A few consumers said,” the IGD report quoted above pointed out, “that their decisions on labeling were not neces-sarily driven by what they wanted, but what they felt was right for other consumers who might be concerned about genetic modification.” (p. 174) Consumers were providing opinions on the right to know whether a food product had been geneti-cally modified, rather than on the issue of genetic modification per se, and their demand for label-ing could be interpreted as a declaration of the rights of consumers, rather than a show of mis-trust in the technology.

7) As had been the case with the commercializa-tion of the FlavrSavr tomato in the United States, biotechnology and food industry execu-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 55

Page 56: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

tives thought at the time (1996) that a high-public profile could only help the prospects of the new products. According to the industry’s own data, about 22 million viewers received in-formation about the new product through televi-sion commercials and news reports. Martineau provides a first-hand account of the regulatory and public relations disputes involved in the FlavrSavr case (cf. Martineau).

8) Dr Nigel J. Poole, Testimony before the House of Lords, Select Committee on the European Communities, 3 June 1998.

9) Ross Buckland, Chief Executive of Unigate PLC, Chairman of the Policy Issues Council and IGD President, Foreword to the Institute of Grocery Distribution, Labelling and Communi-cation Guidelines (Wartford: Institute of Gro-cery Distribution, March 1997).

10) Institute of Grocery Distribution, Labelling and Communication Guidelines, p. 7. In this, as in other cases, the IGD justified their conclusions by reference to the insights generated by the consumer research program. On the issue of la-beling active versus inactive modified genetic material, the IGD argued that “our discussions with consumers on this subject demonstrated that they were unable to distinguish between ac-tive and inactive (as a result of processing) ge-netic material” (p. 5).

11) The Independent on Sunday, 21 March 1999. 12) This is, of course, not a particularly innovative

idea. It was already present in the early reports of IGD researchers, although there it was ex-pressed as a concern over the timing of techno-logical innovation (i.e. the speed with which GM foods would be introduced). The impor-tance of control was also strongly argued in a report commissioned by Unilever and published simultaneously with the IGD labeling guide-lines. In Uncertain World, Robin Grove-White Phil Macnaghten, Sue Mayer and Brian Wynne cautioned that “reliance on labels as a political response to concerns about the wider cumula-tive implications of biotechnology for society, reduces inherently general issues to matters of atomised consumer ‘decision’ at the point of sale.” See Uncertain World: Genetically Modi-fied Organisms, Food and Public Attitudes in Britain (Centre for the Study of Environmental Change, Lancaster University, March 1997). Similar arguments are being made at the mo-ment about the introduction of nanotechnology in the UK, and the need to incorporate the con-cerns of citizens and consumers earlier in the re-search and development process. See for in-stance James Wilsdon and Rebecca Willis, See-

through Science: Why Public Engagement Needs to Move Upstream (Demos, 2004).

References Boal, I.A., 2001: Damaging Crops: Sabotage, Social Memory, and the New Genetic Enclosures. In Lee Peluso, N.; Watts, M. (eds.): Violent Environments. Ithaca: Cornell University Press, pp. 155-185 Brown, C.M., 1994: Consumer Attitudes In Agricul-ture and Food: A Critical Review. Watford: The Institute of Grocery Distribution Harvey, M., 1999: Genetic Modification as a Bio-Socio-Economic Process: One Case of Tomato Puree. CRIC Discussion Paper No. 31, University of Manchester IGD – Institute of Grocery Distribution, 1997: La-belling and Communication Guidelines. Wartford: Institute of Grocery Distribution Martineau, B., 2001: First Fruit: The Creation of the Flavr Savr Tomato and the Birth of Biotech Foods. New York: McGraw-Hill Miller, P.; Rose, N., 1997: Mobilizing the Con-sumer: Assembling the Subject of Consumption. Theory, Culture & Society, 14(1), pp. 1-36 Sadler, M., 1998: Labelling genetically modified soya and maize in the EU. Nutrition & Food Sci-ence 6 (1998), pp. 306-309 Sadler, M., 2000: GM Foods: Past, Present, Future? Industry’s Approach, Consumer Attitudes, Expecta-tions for the future. Watford: Institute of Grocery Distribution, p. 147 Williams, R., 1983[1976]: Keywords: A vocabulary of culture and society. New York: Oxford Univer-sity Press, p. 78-9

Contact Dr Javier Lezaun ESRC Research Officer Centre for Analysis of Risk and Regulation (CARR) London School of Economics and Political Science Houghton Street, London, WC2A 2AE, UK Tel.: +44 (0) 20 - 7955 - 78 38 Fax: +44 (0) 20 - 79 55 - 65 78 E-Mail: [email protected]

«

Seite 56 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 57: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Speaking Truth to Bureaucratic Power: Three National Re-sponses to Cholera

by Stephen Turner, University of South Florida

The State delegates its executive authority to civil servants, or bureaucracies, and dele-gates much of the “discussion” leading up to decisions to advisory bodies of various kinds. But there are strong national differ-ences in the patterns of delegation, particu-larly in relation to expert knowledge. The article examines three major traditions in the light of one revealing example: the problem of cholera in the nineteenth century. It also considers the problem of expert knowledge in relation to claims made by Ulrich Beck (1992, 1994, 1995, 1997) to the effect that some form of popular participation is an appropriate corrective to expert opinion.

1 Cholera and Experts

In recent writings regarding cholera in the nine-teenth century, scholars have increasingly made clear the extent to which the “right” experts were ignored, the distinctiveness and contin-gency of the situations which they were in, and the extent to which politics, especially bureau-cratic politics, played a significant role in both the failed reception of new ideas about cholera failure to implement the necessary measures, particularly the creation of sanitation processes and water filtration. The story of the Hamburg epidemic of 1892 is emblematic of expertise gone wrong. The reaction of the London St. James Parish Board, which was persuaded to remove the handle of the Broad Street pump by a commission that included John Snow, is em-blematic of right decision making. The actions of the sanitary commission of the city of New York also stand out as a success. The actions in Britain of the General Health Board, which op-erated with a bad theory of cholera that was only slowly abandoned, is an example of partial suc-cess. London was spared an epidemic like Ham-burg’s as a result of their efforts.

Richard Evans’s classic text on the Ham-burg cholera epidemic of 1892 comes to the following conclusion:

Hamburg experienced a major cholera epi-demic in 1892 for three basic reasons. Last in order of importance, and coming into opera-tion only when the other two factors had their effect, was the chronic overcrowding, poverty, and malnutrition which ... existed in virtually all the poorer areas of the city, above all after the new harbor construction of the 1880s. This acted as a “multiplier” of the disease by facilitating its rapid spread from person to person. It could only come into action because the disease was carried to virtually every household in the city by mains water. The failure of the Senate and the Citizens’ Assembly to agree on a proper filtration system for the water-supply until it was too late, and the failure to implement a comprehensive system of sewage disposal and treatment, must be accounted the princi-pal reasons for the epidemic proportions reached by the disease ... Most important of all was the Hamburg authorities’ policy of concealment and delay. (Evans 1987, p. 304)

This is a good point to begin the comparisons, because this was a case in which expert knowledge – science – was catastrophically misgoverned.

The misrule in Hamburg occurred through a combination of the inability of “public dia-logue between the broadest variety of agents” – to use Beck’s phrase – to reach agreement, and a powerful official bureaucratic apparatus able to keep secrets. So we may take it as a test of a certain model of governance of science: one in which powerful bureaucracies are directed and controlled by public discussions which are themselves governed by elaborate procedures. The alternatives to this model are those in which intermediate bodies operate to provide facts or conclusions that can be made the sub-ject of public discussion and action.

In Hamburg there had been, prior to the epidemic of 1892, a long political discussion over the problem of drinking water, of precisely the inconclusive kind that Beck supposes should be an expected outcome of what we may call, for want of a standard label, “expert-egalitarian” discussion, by which we may mean “discussions in which everyone is treated as undifferentiated with respect to their expertise”. A political deci-sion for filtration and clean water, which, ac-cording to the theories accepted elsewhere, was essential to avoid cholera being spread through the water supply, would have been costly. It was

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 57

Page 58: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

blocked through disagreement over how to charge for it, as well as because of skepticism about the need. The popular opinion was that the available river water was especially pure, and this was an important reason for the failure of the political discussion to produce agreement. Yet the Hamburg politicians did consider expert advice from their local bureaucrats and the local medical community: the two were closely en-twined, and both groups supported a theory of cholera derived from Max von Pettenkoffer’s view of cholera (Evans 1987, pp. 194-7, 199-200), which minimized the problem of transmis-sion through water of the cholera bacterium. Pettenkoffer, a Munich physician, held the view that the cholera bacterium alone could not pro-duce the disease. In a famous demonstration, he drank a beaker of infected water, to no ill effect. He thought the disease required other condi-tions, including “fermentation” in the ground, which implied different public health measures.

The board acted in accordance with a proc-ess in which they were constrained not by the views of other experts, which might have forced them to consider alternatives to their own view, but were directly controlled only by the Ham-burg senate and lower house, that is to say by politicians and notables who provided the sole form of official public discussion. Hamburg also had commissions. But public discussion in these commissions conformed rather closely to Beck’s ideal: the commission was ignored (Evans 1987, p. 158). There was no delegation of decision-making power to expert bodies, no “monopoli-zation,” which is what Beck in principle rejects. Delay and non-decision were the consequence.

2 Where Bureaucratic Expertise Fails

The inadequacy of the advice of the Hamburg medical community reflects a more general phenomenon. One of the features of bureaucra-cies is that career advancement is heavily de-pendent on conformity. Strong bureaucracies penetrate into the professional or expert com-munity, affecting the climate of opinion within them. The effect of a powerful bureaucracy in this case was to assure conformity with what turned out to be a mistaken theory of cholera. But powerful bureaucracies of this sort suc-ceeded elsewhere. In Berlin, the same kind of bureaucratic power produced conformity with

what turned out to be the right view, and Berlin was spared. But Koch’s powers, as described by Evans, are the fullest realization of the inter-twining of bureaucratic power and control of opinion through the control of careers:

Koch could ... be assured ... of vigorous back-ing from the Imperial government in imposing his views on cholera prevention on medical authority throughout the Empire. Already in June 1884 he was made a member of the Prussian Privy Council (Staatsrat) and co-opted onto the Cholera Commission for the German Empire. This had hitherto been con-trolled by Pettenkoffer. Koch became the dominant force. In the same year he organized a course of the diagnosis and prevention of cholera, in which 146 doctors took part, in-cluding 97 civilian (i.e., nonmilitary) doctors from all parts of Germany and 20 other coun-tries. In 1885 he became full professor (Ordi-narius) of Hygiene at the University of Berlin, and was appointed Director of a specially cre-ated institute for Infectious Diseases in 1891. These positions enabled him to influence large numbers of pupils in favor of his ideas and methods. His influence was further spread by his senior pupils. ... Koch founded a journal for the propagation of his ideas, the Zeitschrift für Infektionskrankheiten. Thus Koch and his pupils were rapidly taking over the field of hygiene (Evans 1987, pp. 266-67).

So the expert advice which the politicians dealt with in each case was essentially monolithic, but different. The expert with authority in Ber-lin was Koch. But Koch had no direct authority over Hamburg, whose physicians were influ-enced by Pettenkoffer.

3 Multiple Sources of Expertise

If we consider two other cases with different structures, the results are revealing. In London, there was a national bureaucracy, the General Health Board, headed by a statistician and sani-tary reformer named William Farr. Farr was wrong about cholera – he was a miasmatist, who had produced an impressive curve fit to data on cholera deaths in London, which he published, based on the idea that elevation decreased the number of cholera deaths in an epidemic. He also produced a vast quantity of research relat-ing to other variables, especially social vari-ables, water quality and so forth, none of which

Seite 58 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 59: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

produced the startling consistency of the eleva-tion data. The bureaucracy headed by Farr was never powerful as a regulatory body. Decisions about water, for example, were local. Moreover, the career structure of London medicine was such that no bureaucracy had much ability to assure the conformity of the local medical community. Farr’s office had a monopoly on the official publications it produced about cholera, but these were not binding on local authorities. Nor was there any particular career benefit to conformity to the position of the General Health Office. And this led to a different outcome.

Beginning with the political achievement, which is only now being acknowledged, of the St. James Parish committee which was per-suaded to remove the handle of the Broad Street pump – now one of the most celebrated episodes in the history of medicine (Brody et al 1999). The means by which this political act occurred are partly known. The parish commit-tee, faced with a local outbreak of cholera, what we would now call a “cluster,” appointed Snow and a clergyman named Henry White-head to a special cholera inquiry committee to deal with an outbreak of cholera near Golden Square. He applied the spot map technique, and found that 73 of the 83 cases were near the Broad Street pump, which Snow reasoned was the source. Whitehead was skeptical of this explanation at first, but was soon convinced. Some who drank the water escaped cholera, others who didn’t drink it contracted the dis-ease. But the proportions were overwhelmingly in support of the pump hypothesis.

The parish committee asked Snow to write the report up, and Whitehead himself figured out what had contaminated the pump water – a leaky cesspool three feet from the pump. The material came from the washing of the diapers of an infant who had died and for whom the cause of death was listed as diarrhea. The dis-covery led the parish committee to excavate the pump area, which revealed that the brick lin-ings of both the well and the cesspool had de-cayed, allowing seepage. The pump’s handle was removed, and the outbreak subsided. This was an act of a small political body faced with an emergency, but in a position to create its own commission, listen to its conclusions, and act independently on them – or decline to act.

This dramatic episode was only a small part of the story, however. Snow’s own efforts began long before this episode, and the absorption of his views continued long after. The medical background was complex. Cholera was the most researched disease of the century, and many correlations, as well as many well-attested cases, were part of its large literature. Snow, a private physician, was struck by the many remarkable cases in which cholera spread over vast dis-tances, apparently carried by individuals, strange cases in which cholera attacked one group, such as the passengers of a particular ship, and spared those that had left from the same port at the same time, and cases where one company of soldiers passing a water hole and drinking from it left healthy, and the next one became deathly ill. These cases were difficult to square with any sort of miasmatic or “fermentation” account.

Snow hypothesized, as it turned out cor-rectly, that the real cause was minute material in the evacuations of the victims, that got into the water supply or was otherwise ingested. In an era in which proportionality of cause and effect was a standard methodological rule, and before the microbe account of disease was accepted, this was a radical idea. It was also easy to regard it not as radical, but as old news. Even Farr’s research office agreed in some respects with the basic idea: bad water was one of the many vari-ables they found to be associated with cholera. But bad water was badly defined, and not de-fined in a way that was readily amenable to policies that allowed epidemics to be stopped or prevented. In the long run, this was the loophole through which the bureaucracy grudgingly ac-cepted Snow’s arguments – as though they had been theirs all along. But it was an important loophole, for it allowed for the institution of reforms that had the desired result.

Snow’s hypothesis was startlingly recon-firmed as a result of a natural experiment in which a mysterious outbreak of cholera occurred after changes had been made in the water sup-ply, but only among the customers of one water company. This appeared to refute Snow. It was then discovered that the company had been ille-gally drawing water from a source that was “im-pure.” What is striking about this story is, on the one hand, the obduracy of the bureaucratic ex-perts, though they did eventually concede that Snow was right, and on the other the ability of

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 59

Page 60: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Snow – and the motivation– to persuade the parish committee, which promptly created a “commission” rather than attempting to make the decision on its own, to act on his ideas, and the openness of the committee to being per-suaded. The result was that London did not have another cholera epidemic after the changes in the water supply were fully put into effect.

4 Private Expertise: the American Case

The American version of this story is equally interesting, largely because it represents a dif-ferent combination of politics, expertise, and bureaucratic structures. In the United States, public health matters in the nineteenth century were for the most part controlled by municipali-ties, which were, in the case of New York and other major cities, democratic in a particular sense – dominated by the “spoils system”. The major device for dealing with the threat of chol-era was sanitation, and sanitation contracts were political plums. Boards of Health, in a typical arrangement that applies to many boards even today, were composed of elected officials who were stakeholders of various kinds who sat as the board of health and used its special powers when circumstances required. The politicians – Democrats, in this case – preferred to conduct business as usual. But they were vulnerable to reformers, and in the manner that they were defeated the deep roots of national political and bureaucratic traditions become visible.

Tocqueville, writing a few decades before, had observed that “a single Englishman will often carry through some great undertaking, whereas Americans form associations for no matter how small a matter. Clearly the former regard association as a powerful means of ac-tion, but the latter seem to think of it as the only one” ([1835]1966, p. 514). This is precisely how cholera was attacked. As Charles Rosen-berg notes in his history of the American re-sponse to cholera (1962), “it is hardly surprising that New York’s Citizens’ Association (an in-formal group of respectable – and predomi-nantly Republican – Gothamites organized early in the 1860’s to promote ‘honest government’) should sponsor a subsidiary Council of Hygiene and Public Health” (p. 187). This “council” – a case of a Tocquevillian association – surveyed the sanitation arrangements of the city, and re-

ported the dismal results of the sanitary regime in place. Another arm of the Citizens’ Council was at work on reforming the political structure that produced it, proposing a bill in the state legislature to create a board of health that did not operate on the spoils system, and had ex-perts rather than politicians on it. This was a lesson drawn from the examples of Paris and London, but also from Providence, Rhode Island and Philadelphia. The bill required that the board consists of medical men trained especially for public health work (Rosenberg 1962, pp. 188-91).

The state of knowledge in 1866 was ex-pressed by the New York Academy of Medi-cine, yet another Tocquevillian association – which advised the medical profession to “for all practical purposes, act and advise in accordance with the hypothesis (or the fact) that the cholera diarrhoea and ‘rice-water discharges’ of cholera patients are capable in connection with well-known localizing conditions, of propagating the cholera poison, and that rigidly enforced precau-tions should be taken in every case to disinfect or destroy these ejected fluids” (quoted in Rosenberg 1962, p. 195). The resolution re-flected some medical politicking – the “local conditions” clause assured unanimity, though few doubted that the discharges alone were the cause. But it also reflected the internationaliza-tion of expertise on the topic, and the rapidity of “conversions” to the “Snow-Pettenkoffer” ac-count of the disease, which in practice was the Snow account, was impressive.

The New York Sanitary Commission, which had been granted enormous power by the legislature, acted accordingly: “... the bed-ding, pillows, old clothing, and utensils – any-thing that might ‘retain or transmit evacuations of the patient’ – were piled in an open area and burned” (Rosenberg 1962, p. 205). New York City escaped cholera, other states copied the legislation (Rosenberg 1962, p. 211), and the contained “epidemic” of 1866 was the last se-rious cholera threat in the United States. The politics of opposition are worth noting, espe-cially in light of Beck’s demands. The Com-mission was imposed by the state legislature, which was dominated by Republicans; the De-mocrats, Catholics, and immigrants of New York City opposed it as the creation of rural

Seite 60 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 61: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

lawyers that favored the rich at their expense (Rosenberg 1962, p. 208).

The New York Sanitary Commission was composed of experts, but experts who were experts as private individuals rather than indi-viduals who were the creation of a consensus producing career structure in a powerful bu-reaucracy. They were accountable profession-ally but also accountable as public figures for their actions, in the sense that their personal and professional reputations were closely tied to the outcomes of what were very public decisions. And there were associations, such as the Citi-zens’ Council and the New York Academy of Medicine, which were independent watchdogs, with an eye on the practices of other govern-ments and on international expertise. A member of such a board was highly constrained by these bodies – someone who did not wish to jeopard-ize a carefully built-up reputation both as an individual and as an expert would be obliged to resign or to protest bad decisions.

5 Expert Egalitarianism

Beck’s model contrasts with this rather sharply, because in a situation of expert egalitarianism, reputation is unimportant or equalized, as is responsibility for the outcome: rather than be-ing held responsible, a person can behave irre-sponsibly without consequences or act in terms of self-interest without consequences. Indeed, this is a major part of the Hamburg story. The issue of taxation which was entirely a matter of interest politics prevented the reaching of a resolution, exactly as Beck says is a permissi-ble outcome, with the consequence that filtra-tion devices were not built until after the epi-demic had taught the public lesson that they were necessary. To be sure, if Hamburg had been as fortunate as Berlin to have had the right leading figures in its bureaucracy, bureau-cratic power and the consensus it favored would have produced the right decision. But the issue of “governance” is not eliminated by the existence of powerful bureaucracies. Some-one needs to pick the powerful bureaucrats and to judge the bureaucracy. The Hamburg nota-bles and politicians, who were closely related to the medical community, proved incapable of doing so. Thus the combination of interest group democracy and powerful bureaucracy is

more generally prone to the same very particu-lar kind of error, and in this case it proved fatal.

6 Using Expertise Effectively

Germany had the best science at the time of the Hamburg epidemic – Koch had won a Nobel Prize for identifying the cholera bacterium. Yet it had the worst cholera epidemic of Europe, long after other countries had solved their chol-era problem. Is it too much to compare this to the situation in German physics during WWII? There again, Germany had the best scientist, Heisenberg, and the best intellectual resource base. The customary view of this episode is that authoritarianism led to failure. Heisenberg, un-corrected by vigorous debate from his subordi-nates, made a key error and failed to see the solution to the problem of fusion. But in a larger perspective, the problem may be seen to be one of the organization of scientific activity: The bureaucratic structure of the research effort led, as it led in the Hamburg medical community, to a consensus that turned out to be false. And it is difficult to imagine a powerfully bureaucratic mode of the governance of science that would not be systematically prone to this kind of error.

James Bryant Conant, the last High Com-missioner of Germany and the first American Ambassador to West Germany, writing after the Second World War, described the follow-ing model for presenting expert opinions to decision-making bodies. To avoid what he took to be the central problem of scientists promot-ing their own hobby horses, he suggested that even a good idea ought to be able to withstand criticism and proposed that opponents be se-lected to play the role of devil’s advocate. These opponents would argue for alternative proposals so that decision-makers would be given a genuine choice, but also so that the experts would be forced to articulate arguments that would be not merely persuasive to nonex-perts but tested against the criticisms of the expert opponent. This left judging in the hands of nonexperts, but gave experts their due as pleaders of cases. There is a sense in which this model is the one that most closely represents the situation in St. James Parish, and in the body that the parish committee created when it joined Snow with a skeptical clergyman. Snow obviously was arguing not only a minority

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 61

Page 62: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

view but a view opposed by the official bu-reaucracy. Snow nevertheless prevailed, pro-ducing perhaps the single best decision in the whole cholera affair.

The New York model is also revealing: ex-pertise constrained by expert scrutiny, in a situa-tion in which the “outside” experts are genuinely independent, and in which the reputations of the experts exercising authority are, in effect, mar-ketized, so that they would suffer for their obdu-racy, constrains experts very effectively, while at the same time producing decisive results– the New York methods were highly effective and easy to imitate. Whether this is a model that can be used in other political traditions, such as the German, in which “cooperation” is the working norm, is open to question. In each of the cases some other means of protection against the er-ror-prone combination of bureaucratic power and the quasi-scientific “consensus of scientists” existed. And this is something that powerful bureaucracies which create their own climates of opinion effectively preclude.

References

Beck, U., 1992: The Risk Society: Towards a new modernity. London, Newbury Park, Cal.: Sage Pub-lications Beck, U., 1994: The reinvention of politics: To-wards a theory of reflexive modernization. In: Beck, U.; Giddens, A.; Lash, S. (eds.): Reflexive Mod-ernization. Stanford, Cal.: Stanford University Press, pp. 1-55 Beck, U., 1995: Ecological Enlightenment: Essays on the Politics of the Risk Society. M. Ritter (trans.). Atlantic Highlands, N.J.: Humanities Press International, Inc. Beck, U., 1997: Erfindung des Politischen: The Reinvention of Politics: Rethinking Modernity in the Global Social Order. Mark Ritter (trans.). Cam-bridge: Polity Press; Cambridge, Mass.: Blackwell Publishers Brody, H; Vinten-Johansen, P.; Paneth, N.; Rip, M.R., 1999: John Snow revisited: Getting a handle on the Broad Street pump. Pharos 62(1), pp. 2-8 Conant, J., 1951: Science and Common Sense. New Haven, CT: Yale University Press Evans, R.J., 1987: Death in Hamburg: Society and Politics in the Cholera Years 1830-1910. Oxford: Clarendon Press

Rosenberg, Ch.E., 1962: The Cholera Years: The United States in 1832, 1849, and 1866. Chicago: The University of Chicago Press Tocqueville, A. de, [1835]1966: Democracy in America. ed. J. P. Mayer, trans. George Lawrence. Garden City, NY: Doubleday & Company, Inc.

Contact

Stephen Turner Graduate Research Professor of Philosophy Department of Philosophy FAO 226 University of South Florida Tampa, FL 33620, USA Tel.: +1 - 813 - 974- 55 49 Fax: +1 - 813 - 974 - 59 14 E-Mail: [email protected]

«

Seite 62 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 63: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Reflexive Wissenspolitik: Öff-nung und Erweiterung eines neuen Politikfeldes

von Peter Wehling, Universität Augsburg

Reflexive Wissenspolitik umreißt eine Per-spektive der konzeptionellen Erweiterung und sozialen Öffnung des neu entstehen-den Handlungs- und Diskursfeldes „Wis-senspolitik“. Sie ist auf die reflexive Infra-gestellung der etablierten Wissensordnun-gen in modernen Gesellschaften gerichtet und gewinnt entscheidende Impulse aus der zunehmenden Anerkennung und Politi-sierung des Nichtwissens.

Dass die modernen Gesellschaften sich gegen-wärtig in einem Übergang zur so genannten Wissensgesellschaft befinden, gilt im politi-schen Diskurs mittlerweile fast schon als Trivia-lität. Wesentlich interessanter – und zugleich weniger selbstverständlich – ist die Einsicht, dass gerade in den so etikettierten Gesellschaf-ten neue Formen der politischen Gestaltung von und des sozialen Umgangs mit Wissen erforder-lich werden und sich zum Teil bereits herausbil-den. In der sozialwissenschaftlichen Diskussion wird mit Blick hierauf von der Emergenz eines neuartigen Diskurs- und Politikfeldes, der „Wis-senspolitik“, gesprochen (vgl. Stehr 2003a, S. 105 ff. sowie die Beiträge in Stehr 2003b). Die Konturen, Akteure, Ziele, Reichweite und mög-lichen Grenzen einer solchen Politik bleiben bisher allerdings noch recht undeutlich, und zwar besonders dann, wenn man diese nicht mit bereits etablierten Ressortpolitiken wie der For-schungs- und Technologiepolitik identifizieren will.1 Betrachtet man das sich herausbildende Feld genauer, so lassen sich (mindestens) drei unterschiedliche, zum Teil auch kontrastierende Akzentuierungen von Wissenspolitik erkennen: Eine innovationsorientierte Variante von Wis-senspolitik (Rammert 2003) ist auf die Förde-rung eines neuen Typus heterogener, verteilter Wissensproduktion ausgerichtet; eine regulative Wissenspolitik (Stehr 2003a, 2003c) zielt dem-gegenüber auf die „Überwachung“ des in rasan-tem Tempo zunehmenden Wissens, um mögli-che Negativfolgen von vorneherein vermeiden oder zumindest begrenzen zu können; eine re-flexive Wissenspolitik (Wehling 2003a; Bö-schen 2004) schließlich unterwirft die bisher als

selbstverständlich wahrgenommenen Grundla-gen moderner „Wissensordnungen“, etwa die Trennungen zwischen Experten und Laien oder zwischen Fakten und Werten, einer kritischen Infragestellung und Überprüfung.

In meinem Beitrag möchte ich zunächst diese drei Akzentuierungen von Wissenspolitik jeweils kurz skizzieren und die Frage aufgrei-fen, ob und inwieweit sich daraus – trotz aller Unterschiede – ein übergreifendes Politikfeld sowie ein neuartiger, eigenständiger Politikty-pus herauskristallisieren könnten (Kap. 1). Zeigen wird sich dabei, dass vor allem die in den letzten Jahren beobachtbare Anerkennung und Politisierung des Nichtwissens weit rei-chende und überraschende Implikationen für die Wissenspolitik beinhaltet. Diese möchte ich im 2. Kapitel exemplarisch an der seit einigen Jahren geführten Debatte um ein „Recht auf Nichtwissen“ in der humangenetischen Dia-gnostik verdeutlichen. Vor diesem Hintergrund werde ich abschließend einige gesellschafts-theoretische Implikationen und politisch-institutionelle Konsequenzen von Wissenspoli-tik hervorheben (Kap. 3). Diese scheinen mir primär im Aufbrechen der etablierten Wissens-ordnungen der modernen Gesellschaft, ein-schließlich des bisher (fast) ungebremsten „Willens zum Wissen“ (Michel Foucault), zu liegen. Insofern erweist sich eine reflexive Wissenspolitik als entscheidende Perspektive zur sozialen Öffnung und Erweiterung des entstehenden Diskurs- und Handlungsfeldes.

1 Drei Felder von Wissenspolitik – Diffe-renzen und mögliche Gemeinsamkeiten

Wie Innovations- und Technikgeneseforschung in den letzten Jahren überzeugend herausgear-beitet haben, haben ökonomistische, technokra-tische und korporatistische Modelle von Innova-tionsprozessen ihre Plausibilität eingebüßt und sollten daher durch vielschichtigere Konzepte einer reflexiven „Innovation im Netz“ (Rammert 1997) abgelöst werden. Innovationen entstehen demnach in temporären, interaktiven und offe-nen Netzwerken, in die eine Vielzahl von Ak-teuren aus unterschiedlichsten sozialen Berei-chen einbezogen sind und in denen heterogene Wissenformen und „verteilte“ Wissensbestände miteinander verknüpft werden müssen. Vor diesem Hintergrund hat Werner Rammert

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 63

Page 64: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

(2003) die These formuliert, gegenwärtig bilde-ten sich eine neuartige „innovationsorientierte Wissenspolitik“, ein „Regime der heterogen verteilten Wissensproduktion“ sowie eine damit in Wahlverwandtschaft stehende Form der „fragmentalen Differenzierung“ jenseits einer säuberlichen funktionalen Differenzierung in spezialisierte Teilsysteme heraus. Als die ent-scheidenden Paradoxien (und zum Teil auch Grenzen) einer erfolgreichen „Steuerung“ des Wissens erscheinen in diesem Rahmen die Ver-knüpfung der heterogenen Wissensformen so-wie die Nutzung des impliziten Wissens, das zwar zunehmend an Bedeutung gewinne, aber eben nicht restlos explizit gemacht und formali-siert werden könne. Doch während das Regime verteilter Wissensproduktion und der Typus fragmentaler Differenzierung über wesentliche Struktur- und Funktionsprinzipien moderner Gesellschaften (oder zumindest über deren gän-gige soziologische Beschreibung) hinausweisen, bleibt das Ziel der damit verknüpften innovati-onsorientierten Wissenspolitik – wenigstens auf den ersten Blick – sehr nah an den etablierten Erwartungshorizonten der Moderne: Es besteht, so Rammert, darin, „eine adäquate institutionelle Infrastruktur bereitzustellen, die das Wachstum der Wissensproduktion sichert und beschleu-nigt“ (Rammert 2003, S. 483). Man kann ver-muten, dass hiermit nicht die gängige Vorstel-lung einer linearen, eindimensionalen Zunahme des wissenschaftlich-technischen Wissens als Motor und Grundlage von Innovation und Inno-vationsfähigkeit gemeint ist, sondern die wech-selseitige, interaktive Steigerung und Vernet-zung der heterogenen, verteilten Wissensbestän-de und -formen (ebd., S. 493). Gleichwohl stellt sich die Frage, ob eine „Politik des quantitativen Wissenswachstums“ ohne weiteres durch eine „qualitative Politik der Wissensdiversität“ er-gänzt werden kann, wie Rammert (ebd., S. 501 f.) vorschlägt – oder ob nicht zwischen die-sen beiden Zielen innovationsorientierter Wis-senspolitik doch ein gewisses Spannungs- und Konfliktverhältnis besteht. Denn keine andere Wissensform ist in modernen Gesellschaften in auch nur annähernd vergleichbarer Weise auf die quantitative Zunahme des Wissens hin aus-gelegt wie die Wissenschaft. Und falls der „ge-radezu herausragende Stellenwert des wissen-schaftlichen und technischen Wissens in der modernen Gesellschaft“ inzwischen tatsächlich

vor allem darauf beruht, „dass wissenschaftli-ches Wissen, mehr als jede andere Wissensform, permanent zusätzliche (...) Handlungsmöglich-keiten fabriziert und konstituiert“ (Stehr 2003a, S. 36),2 läuft dann eine Wissenspolitik, die auf quantitatives Wachstum und dessen Beschleuni-gung zielt, nicht Gefahr, das wissenschaftliche Wissen gegenüber anderen Formen zu favorisie-ren? Erschwert es nicht gerade die Bedingungen für den angestrebten Erhalt unterschiedlicher Zeithorizonte, für die Diversität der Wissens-formen und die „angemessene Balance“ zwi-schen explizierbarem und implizitem Wissen (Rammert 2003, S. 501), wenn lokales Erfah-rungs- und Kontextwissen oder auch gesell-schaftliches Reflexionswissen durch die Wachs-tumsdynamik der Wissenschaft unter zu starken Zeit- und Anpassungsdruck gesetzt werden?

Jedenfalls nimmt – dies unterstreichen die aktuellen forschungs-, technologie-, umweltpoli-tischen und ethischen Konflikte um Gentechnik, Biomedizin, Nanotechnologie etc. in eindrucks-voller Weise – mit dem schnellen Wachstum des wissenschaftlich-technischen Wissens auch die Wahrnehmung von Risiken und Gefährdungen zu, und zwar nicht mehr nur der Risiken des Wissens, sondern ebenso sehr derjenigen des dabei miterzeugten Nichtwissens (vgl. Krohn 2003; Wehling 2003b, 2004). Politik, Öffent-lichkeit und Individuen müssen sich nicht allein damit auseinandersetzen, was die Wissenschaft weiß (und kann), sondern in steigendem Maße auch damit, was sie dabei nicht weiß und welche möglicherweise fatalen Konsequenzen dies ha-ben könnte. Daher werden im Horizont der von Stehr skizzierten regulativen Wissenspolitik gerade das beschleunigte Wachstum des wissen-schaftlich-technischen Wissens sowie die eben-so rasch zunehmenden, in ihren Auswirkungen kaum überschaubaren Eingriffsmöglichkeiten in die „äußere“ und „innere“ Natur als Triebkraft für die Herausbildung des neuen Handlungsfel-des angesehen: „Die Entwicklung des Politik-feldes Wissenspolitik ist eine wenn auch verzö-gerte Reaktion auf die außerordentliche Ge-schwindigkeit, mit der neue Erkenntnisse und technische Möglichkeiten in modernen Gesell-schaften wachsen.“ (Stehr 2003a, S. 19) Dem-entsprechend sieht Stehr in der „Überwachung“ und „Regulierung“ des Wissens oder gar in der „gesellschaftlichen Kontrolle neuer Erkenntnis-se“ (Stehr 2003c) den Kern der sich allmählich

Seite 64 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 65: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

entwickelnden Wissenspolitik. Denn bei der Bewertung der sozialen Folgen von Wissen-schaft und Technik habe sich eine bemerkens-werte Akzentverschiebung vollzogen: „weg von der Lösung einmal aufgetretener Probleme, die sich aus der Anwendung von Technik und Wis-senschaft ergeben, hin zur möglichen Reduktion oder Prävention nicht gewollter, jedenfalls un-geplanter Folgen“ (Stehr 2003c, S. 118). Die lange Zeit vorherrschende Haltung, die „nach-trägliche Entsorgung der unangenehmen Fol-gen“ sei ausreichend, werde jedenfalls mit wachsender Skepsis betrachtet (ebd.). Doch obwohl Stehr selbst (ebd., S. 126) betont, dass Regulierung „keinesfalls gleichbedeutend mit Verbot, Unterdrückung oder dem Verzicht, An-reize zu schaffen,“ sein müsse, ist bisher noch nicht recht erkennbar, wie, nach welchen Krite-rien und von welchen Akteuren die anvisierte, gleichsam präventive Überwachung des Wis-sens und die Kontrolle seiner Anwendung ins Werk gesetzt werden könnte.

Mit den von Stehr aufgeworfenen Fragen steht ein diskursives Feld in engem Zusam-menhang, auf dem sich seit einigen Jahren ebenfalls die Herausbildung einer in vielerlei Hinsicht neuartigen Wissenspolitik jenseits der etablierten Forschungs- und Technologiepolitik beobachten lässt: die Auseinandersetzungen darüber, wer bei bestimmten Themen legiti-merweise den Status eines „Experten“ in An-spruch nehmen könne und wer demgegenüber als „Laie“ von den entsprechenden Beratungs- und Entscheidungsprozessen ausgeschlossen bleibe. Harry Collins und Robert Evans (2002) sehen in der Bearbeitung und Klärung dieser Fragen sogar das übergreifende Thema einer „dritten Welle“ von science studies, die sie als „studies of expertise and experience“ bezeich-nen.3 Vor allem im Kontext der neueren Ent-wicklungen im Bereich der Biomedizin und Gentechnik ist in den letzten Jahren in der Tat eine reflexive Überprüfung und Erosion tra-dierter Grenzziehungen und Wissenshierar-chien moderner Gesellschaften in Gang ge-kommen. Die Frage, wessen Wissen und Be-wertungsmaßstäbe etwa in den Debatten um die Zulassung der Präimplantationsdiagnostik oder um die Risiken gentechnisch manipulier-ter Nahrungsmittel als relevant anzusehen sind, kann immer weniger im Rückgriff auf die ver-meintlich objektive, wissenschaftlich feststell-

bare Faktizität der Problemlagen und auf die professionelle Zuständigkeit bestimmter Perso-nengruppen (vor)entschieden werden, sondern wird zum Gegenstand kontroverser gesell-schaftlicher Aushandlungsprozesse (Wynne 2002). Gebündelt und zugespitzt werden solche Debatten gegenwärtig in der Frage nach den Möglichkeiten und Grenzen einer „Demokrati-sierung von Expertise“ (Liberatore und Funto-wicz 2003), beispielsweise durch Formen par-tizipatorischer Technikfolgenabschätzung. In eine ähnliche Richtung weist Frank Fischers Versuch, Wissenspolitik als „politics of local knowledge“ zu entfalten, um auf diese Weise zu einer Neubestimmung der Rolle von Bür-gern und Experten in Umweltkonflikten zu kommen (Fischer 2000). In solchen sozialen Prozessen, Diskursen und Auseinandersetzun-gen kristallisiert sich der Typus einer „reflexi-ven Wissenspolitik“ heraus, die – in Ergänzung und Erweiterung der regulativen Perspektive – auf die grundlegende Infragestellung, Öffnung und Transformation tradierter und eingespielter Wissensordnungen zielt (vgl. auch Lau und Böschen 2003). Unter „Wissensordnung“ ver-stehe ich hierbei einen Komplex sozial aner-kannter, diskursiv, institutionell und kulturell stabilisierter Wissenshierarchien und Grenzzie-hungen (zwischen Fakten und Werten, Exper-ten und Laien, „objektivem Wissen“ und „sub-jektivem Meinen“ etc.) sowie je spezifische Praktiken der Erzeugung und der kognitiven oder normativen Bewertung von Wissen.

Entscheidende Impulse für die Herausbil-dung einer reflexiven Wissenspolitik sind von der in den letzten 15 bis 20 Jahren zu beobach-tenden Entdeckung und Anerkennung des Nichtwissens, auch und gerade des wissen-schaftlichen Nichtwissens, ausgegangen (vgl. u. a. Ravetz 1990; Luhmann 1992; Beck 1996). Anerkennung des Nichtwissens beinhaltet nicht allein ein geschärftes Bewusstsein davon, dass die Wissenschaft mit dem wachsenden Wissen zugleich auch immer mehr Nichtwissen über die Voraussetzungen, Implikationen und Folgen dieses Wissens produziert. Hinzu kommt die Einsicht, dass dieses Nichtwissen nicht lediglich in der Form eines bloß temporären „Noch-Nicht-Wissens“, d. h. eines noch nicht gelösten, aber klar umrissenen wissenschaftlichen For-schungsproblems auftritt, sondern ebenso sehr in Gestalt eines grundsätzlichen „Nicht-Wissen-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 65

Page 66: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Könnens“, eines „unerkannten Nichtwissens“ (die Wissenschaft weiß gar nicht, was sie nicht weiß), oder auch eines begründeten „Nicht-Wissen-Wollens“ (vgl. zu diesen Unterschei-dungen ausführlicher Wehling 2004). Die Aner-kennung dieser Pluralität und Heterogenität von Nichtwissensformen und -definitionen mündet fast zwangsläufig in eine „Politisierung des Nichtwissens“ (Stocking und Holstein 1993) ein: Mit welcher Ausprägung des Nichtwissens man es überhaupt zu tun hat und welche Konse-quenzen daraus zu ziehen sind, ist weder objek-tiv vorgegeben noch autoritativ und eindeutig festzulegen. Eröffnet wird damit ein Feld gesell-schaftlicher, (wissens-)politischer Auseinander-setzungen, in denen die bisherige Definitionsho-heit der Wissenschaft über das Nichtwissen, über seine Relevanz und möglichen Konsequen-zen, relativiert und aufgebrochen wird. Parallel dazu differenzieren und vervielfältigen sich die Strategien des Umgangs mit Nichtwissen: Das nahe liegende, als selbstverständlich erscheinen-de Bemühen, Nichtwissen durch Wissen zu ersetzen, erscheint nur noch als eine mögliche Reaktionsform auf die Problematik unter ande-ren – und keineswegs immer als die angemesse-ne und aussichtsreichste. Wenn man beispiels-weise mit Nichtwissen konfrontiert ist, das als unüberwindbar eingeschätzt wird, wäre es kont-raproduktiv, vorrangig auf Wissensgewinn zu setzen. Vielmehr ist es in einer solchen Situation angebracht, sich mit den Möglichkeiten und Grenzen des Entscheidens unter Nichtwissens-bedingungen auseinanderzusetzen (vgl. Wehling 2002 sowie bereits Collingridge 1980). Zudem kann man immer weniger darauf vertrauen, dass die (noch) unbekannten Folgen wissensbasierten Handelns schon „rechtzeitig“ und gleichsam „von selbst“ ans Licht kommen würden, so dass noch korrigierend eingegriffen werden könnte. Statt dessen ist mit einer unter Umständen lange anhaltenden Unerkennbarkeit von Handlungs-konsequenzen zu rechnen, da man gar nicht weiß, wo, wie und wann sie zu beobachten sind.4 Auf diese Weise wirkt die paradox er-scheinende Frage, wie unter Bedingungen des Nichtwissens „bewusst“ gehandelt und „be-gründet“ entschieden werden soll, auf die Wahrnehmung des Wissens zurück und lässt seine Grenzen und Ambivalenzen schärfer her-vortreten: Die Politisierung des Nichtwissens geht in eine Politisierung des Wissens über.

Lassen sich in den teilweise recht unter-schiedlichen Ansatzpunkten und Akzentsetzun-gen einer innovationsorientierten, einer regulati-ven und einer reflexiven Wissenspolitik über-haupt gemeinsame Orientierungen erkennen, die es rechtfertigen würden, von der Emergenz der Wissenspolitik als einem neuen Feld und neuar-tigen Politiktypus zu sprechen? Oder hat man es stattdessen „nur“ mit jeweils bereichsspezifi-schen, sektoralen Wissenspolitiken zu tun, die sich nebeneinander herausbilden? Ungeachtet der heterogenen Ausgangspunkte scheint sich dennoch eine Art übergreifender Impuls abzu-zeichnen, in dem die drei skizzierten Perspekti-ven von Wissenspolitik übereinkommen und sich überschneiden. Dieser Impuls liegt nach meinem Eindruck in dem Beharren auf der ge-sellschaftlichen, demokratischen Gestaltbarkeit und Gestaltung des Umgangs mit Wissen und Nichtwissen, d. h. vor allem mit der Unter-schiedlichkeit von Wissens- und Nichtwissens-formen. So verstanden liegt der „Kern“ von Wissenspolitik in der Öffnung (und Eröffnung) eines Handlungsfeldes, das bislang vor allem durch die Objektivitäts- und Monopolisierungs-ansprüche der Wissenschaft sowie durch szien-tistisch-technokratische Politikmodelle be-herrscht und gleichsam eingefroren war. Dass besonders eine sich als reflexiv verstehende Wissenspolitik tief greifende Infragestellungen der kulturell wie institutionell fest verankerten, wenn nicht sogar als „natürlich“ erscheinenden Selbstverständlichkeiten moderner (Wissens-) Gesellschaften beinhalten kann, möchte ich im Folgenden exemplarisch an der Debatte um ein „Recht auf Nichtwissen“ in der humangeneti-schen Diagnostik verdeutlichen.

2 Das Recht auf Nichtwissen: ein Beispiel reflexiver Wissenspolitik

Die Forderung nach einem formellen oder in-formellen Recht, die eigene genetische Ausstat-tung nicht zu kennen, nicht kennen zu müssen und auch anderen jegliches Wissen darüber untersagen zu dürfen, wird seit Mitte der 1980er Jahre in Reaktion auf die neuartigen Potenziale der Humangenetik erhoben (vgl. Wehling 2003c). Im Mittelpunkt der Aufmerk-samkeit steht dabei die prädiktive Gendiagnos-tik, d. h. die Möglichkeit, mittels individueller DNA-Analysen die Determination oder zumin-

Seite 66 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 67: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

dest Prädisposition zu bestimmten Erkrankun-gen bereits weit vor deren Ausbruch – aber häufig ohne Erfolg versprechende Präventions- oder Therapiemöglichkeiten – festzustellen. Vor diesem Hintergrund soll ein ausdrückli-ches „Recht auf Nichtwissen“ zwei sozialen Risiken entgegenwirken: Erstens sollen „Ge-fährdungen der Personalität durch Einbußen an Selbstbestimmung und Autonomie“ (Damm 1999, S. 435) aufgrund von belastendem Wis-sen über die eigene Zukunft verhindert werden; zweitens soll neuartigen gesellschaftlichen Diskriminierungen (und einer möglichen „Re-Naturalisierung“ sozialer Ungleichheitsstruktu-ren) aufgrund einer „ungünstigen“ genetischen Ausstattung vorgebeugt werden.

Mit Blick auf die Vermeidung so genannter „Personalitätsrisiken“ stehen zwei spezifische Ausprägungen der prädiktiven Gendiagnostik im Vordergrund: zum einen die Frühdiagnose seltener, monogenetisch determinierter und spät manifest werdender Krankheiten (z. B. Chorea Huntington), für die bisher weder Prävention noch Therapie existieren; zum anderen die Fest-stellung genetischer Prädispositionen für multi-faktoriell, also auch durch nicht-genetische Ein-flüsse bedingte Erkrankungen. Hierbei können lediglich statistische (und wissenschaftlich oft stark umstrittene) Aussagen über erhöhte Er-krankungsrisiken getroffen werden. Bezogen auf die einzelne Person bleibt jedoch unklar, ob, wann und in welcher Stärke es tatsächlich zum Ausbruch der Krankheit kommen wird. Das bekannteste Beispiel für eine solche Konstellati-on ist die genetische Disposition für Brustkrebs, die bei etwa fünf Prozent dieser Erkrankungen eine Rolle spielt. Für Frauen, bei denen ererbte Mutationen in den so genannten „Tumor-suppressor-Genen“ BRCA 1 und BRCA 2 fest-gestellt werden, steigt das statistische Risiko, ohne dass bisher Einigkeit darüber bestünde, in welchem Ausmaß (vgl. Lemke 2004, S. 70 ff.). Alle bisher bekannten präventiven Maßnahmen sind zudem sowohl ungewiss hinsichtlich ihrer Erfolgsaussichten als auch selbst risikoreich, wenn nicht – wie die prophylaktische Brustam-putation – sogar extrem belastend. Das prädikti-ve genetische Wissen kann unter solchen Um-ständen kaum auflösbare Ängste erzeugen, den Betroffenen die (vermeintliche) Verpflichtung zu einem letztlich illusionären „Risikomanage-ment“ auferlegen und sie in ausweglose Ent-

scheidungssituationen hineintreiben. Nichtwis-sen kann in dieser Situation gegenüber dem Wissen als die bessere Alternative erscheinen – und dies verleiht der Forderung nach einem zu schützenden Recht, die eigene genetische Kon-stitution nicht zu kennen, ihre Überzeugungs-kraft. Zugleich soll das Recht auf Nichtwissen Personen mit tatsächlich oder vermeintlich un-günstiger genetischer Ausstattung vor Stigmati-sierung und Benachteiligung vor allem auf dem Arbeitsmarkt, im Gesundheits- und Bildungs-system sowie im (privaten) Versicherungswesen bewahren. In der angloamerikanischen Diskus-sion wird in diesem Zusammenhang nicht ohne Grund vor der Herausbildung einer in wichtigen gesellschaftlichen Bereichen diskriminierten „genetic underclass“ gewarnt (Nelkin 1995).5 Politisch und rechtlich konzentriert sich dieser Strang der Debatte gegenwärtig auf die Frage, ob und unter welchen Bedingungen Arbeitgeber oder Versicherungsunternehmen die Durchfüh-rung von Gentests zur Voraussetzung von Ver-tragsabschlüssen machen dürfen.

Bemerkenswert an dieser Diskussion ist nicht allein, dass die Risiken, inhärenten Unsi-cherheiten, ambivalenten Konsequenzen und Machteffekte des wissenschaftlichen Wissens zum Thema gesellschaftlicher Auseinanderset-zungen werden. Neu und ungewöhnlich ist vielmehr vor allem, dass darauf mit der Forde-rung nach Anerkennung eines begründeten „Nicht-Wissen-Wollens“ reagiert wird. Dieses Recht auf Nichtwissen schöpft seine Rechtfer-tigung nicht aus „vormodernen“, religiös moti-vierten Tabus und Erkenntnisverboten, sondern aus eben den Werten und Zielen personaler Autonomie und individueller Freiheit, die auch die Wissensdynamik moderner Gesellschaften legitimieren. Vielleicht zum ersten Mal wird Nichtwissen in modernen Gesellschaften nicht als ein zu überwindender, defizitärer Zustand oder als schlichte Ignoranz abgewertet, sondern ausdrücklich als ein eigenständiges Rechtsgut aufgefasst, wenngleich dessen tatsächliche soziale Durchsetzungsfähigkeit sich vermutlich als sehr begrenzt erweisen wird. „Recht auf Nichtwissen“ heißt dabei selbstverständlich nicht, dass nun umgekehrt das Wissen und Wissen-Wollen per se illegitim seien. Sie wer-den jedoch zunehmend begründungspflichtig; denn, wie die Enquete-Kommission „Recht und Ethik der modernen Medizin“ des Deutschen

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 67

Page 68: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

Bundestags feststellt: „Auch Eingriffe in das Recht auf Nichtwissen bedürfen einer Rechtfer-tigung“ (Enquete-Kommission 2002, S. 132). Zu erwarten sind somit vielschichtige und kon-fliktträchtige Abwägungs- und Aushandlungs-prozesse zwischen den – wenigstens im Prinzip – gleichrangigen Rechtsansprüchen auf Wissen oder Nichtwissen genetischer „Informationen“.

Betrachtet man die Debatte um ein Recht auf Nichtwissen in der Humangenetik als ein – sicherlich exponiertes und (noch) singuläres – Beispiel reflexiver Wissenspolitik, so wird deut-lich, dass eine solche Politik mehr beinhaltet als die Mobilisierung, Steuerung oder Überwa-chung von Wissen. Reflexive Wissenspolitik kann sich vielmehr als eine „Politik des Nicht-wissens“ herausstellen, die die institutionalisier-te Präferenz für Wissen, das auf Dauer gestellte Bemühen, auftretende Probleme vorrangig oder ausschließlich durch mehr Wissen zu bewälti-gen, grundlegend in Frage stellt. Der in moder-nen Gesellschaften wirksame Automatismus, wonach die Steigerung und Nutzung von Wis-sen als per se rational gilt und daher von Be-gründungen entlastet ist, wird aufgebrochen, und die Frage wird zumindest formulierbar, „ob Wissen überhaupt besser ist als Nichtwissen, ob Wissen stets dem Nichtwissen vorzuziehen ist“ (Gamm 2000, S. 204). Vor diesem Hintergrund lässt sich schließlich auch erkennen, dass der seit dem 17. Jahrhundert in modernen Gesell-schaften dominant gewordene „Wille zum Wis-sen“ nicht einfach die Befreiung einer „natürli-chen“ menschlichen Neugier aus traditionalen, religiösen Fesseln darstellt. Vielmehr handelt es sich dabei um ein zwar äußerst erfolgreiches, aber gleichwohl kontingentes und, zumindest in seinen Anfängen bei Francis Bacon, seinerseits religiös begründetes historisches Projekt, das nicht nur auf einer spezifischen Konstruktion der Wissensgegenstände basiert, sondern auch dem erkennenden Subjekt „eine bestimmte Posi-tion, einen bestimmten Blick und eine bestimm-te Funktion“ zuweist (Foucault 2001, S. 15).

3 Gesellschaftstheoretische und politische Implikationen

Worin liegen demnach die gesellschaftliche Brisanz und die gesellschaftstheoretische Rele-vanz der sich herausbildenden Wissenspoli-tik(en)? Rammert sieht sie vor allem in der

Emergenz eines neuen Regimes der verteilten Wissensproduktion sowie eines neuartigen Typs der „fragmentalen“ Differenzierung, die hetero-gene Elemente netzwerkartig und gleichsam „quer“ zu den Linien funktionaler Differenzie-rung und den disziplinären Trennungen des Wissens miteinander verknüpfe (vgl. Rammert 2003, S. 487 f., S. 492). Nach Stehr ist im Auf-kommen von Wissenspolitik ein Indiz dafür zu sehen, dass moderne Gesellschaften offenbar immer weniger bereit sind, „die ‚naturwüchsige’ Weiterentwicklung wissenschaftlicher Erkennt-nisse und technischer Fertigkeiten als Segen zu begreifen, als Entschlüsselung der Rätsel der Natur, als Emanzipation von Lasten und Schmerzen, als Instrument für eine bessere Ge-sellschaft, als Realisierung dessen, was den Menschen von anderen Kreaturen unterscheidet, als Schlüssel zu umfassendem Wohlergehen oder einfach als Befreiung von ‚ewigen’ natürli-chen und gesellschaftlichen Zwängen aller Art“ (Stehr 2003a, S. 11). Die „herkömmliche Vor-stellung, (...) jeder Wissenszuwachs sei Wert-schöpfung, der dem Menschen automatisch Nutzen bringe“, sehe sich daher zunehmend der Kritik ausgesetzt (ebd.).

Hieran anknüpfend lassen sich die am weitesten reichenden theoretischen Implikatio-nen und sozialen Konsequenzen von Wissens-politik in der Veränderung (oder zumindest Infragestellung) der dominanten sozialen Prak-tiken, institutionellen Trennungen und „kultu-rellen Codes“ moderner Gesellschaften vermu-ten (vgl. Reckwitz 2003). Vor allem die Erosi-on vermeintlich unverrückbarer Grenzziehun-gen (zwischen Wissen und Meinen, Experten und Laien etc.) sowie die Anerkennung und Politisierung des Nichtwissens unterlaufen im Sinne einer vielschichtigen „reflexiven Moder-nisierung“ (Beck et al. 2001) die etablierten Wissensordnungen, die sich bislang durch na-turalisierende und objektivistische Selbstbe-schreibungen mehr oder weniger erfolgreich gegen Reflexion und kritische Überprüfung abschotten konnten. Das bedeutet selbstver-ständlich nicht, dass diese Praktiken durch eine reflexive Wissenspolitik bereits faktisch trans-formiert würden oder auch nur ihre Dominanz verlören. Sie werden aber, wie am Beispiel des modernen „Willens zum Wissen“ dargestellt, in ihrer historischen Kontingenz sichtbar, begrün-dungsbedürftig und wenigstens prinzipiell ent-

Seite 68 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 69: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

scheidungsoffen – und damit zum Gegenstand gesellschaftlicher Auseinandersetzungen.

Vor diesem Hintergrund kommt nicht zu-letzt die Konflikthaftigkeit des Feldes der Wis-senspolitik scharf in den Blick. In den (Nicht-) Wissens- und Risikokonflikten beispielsweise um Biomedizin oder grüne Gentechnik kreist ein Großteil der Auseinandersetzungen, noch vor der innovationsorientierten Koordination und Vernetzung der heterogenen, verteilten Wis-sensbestände, grundsätzlicher darum, ob be-stimmte Wissensformen, Problemwahrnehmun-gen und soziale Rationalitäten überhaupt als legitime und relevante „Stimmen“ anerkannt werden. Letztlich steht hierbei die Akzeptanz und Legitimität einer pluralistischen Wissenspo-litik selbst in Frage; denn diese erscheint aus der Perspektive funktional spezialisierter Teilsyste-me oder korporatistischer Politik- und Innovati-onsmodelle schnell als überflüssige, störende Einmischung „von außen“. So gesehen stellt Wissenspolitik bisher eher eine Art von quer liegender und fragiler „Subpolitik“ dar als ein bereits anerkanntes und institutionell gefestigtes Politikmuster. Dass hierbei vielfältige Definiti-ons-, Legitimations- und Entscheidungskonflikte aufbrechen, sollte daher kaum überraschen.

Welche Instrumente und Ressourcen stehen den Akteuren von Wissenspolitik in diesem Rahmen zur Verfügung – und wer sind über-haupt die Akteure von Wissenspolitik? Diese Frage bleibt in der bisherigen Diskussion weit-gehend offen; Einigkeit besteht in den vorlie-genden Konzeptionen jedoch darüber, dass Wis-senspolitik kein zentralisiertes, staatlich organi-siertes Politikfeld ist und sein sollte. Rammert geht zu Recht davon aus, dass Wissenspolitik sich nur aus der zunehmenden Partizipation unterschiedlicher, heterogener Akteure sowie der Bildung interaktiver Politik- und Innovati-onsnetzwerke heraus entwickeln kann. Ent-scheidend wird somit sein, die Zugänge offen zu halten, korporatistische Schließungen und Ver-krustungen immer wieder aufzubrechen und die Restabilisierung tradierter sozialer und kogniti-ver Grenzziehungen zu verhindern. Insofern liegt in einer „qualitativen Politik der Wissens-diversität“ (Rammert) der dynamische (und auch normative) Impuls des neuen Feldes. Eine solche Politik wird allerdings nicht in allen Fäl-len zur Beschleunigung des Wissenswachstums und zur Förderung von Innovationen beitragen.

Unter den Bedingungen von Ungewissheit, Nichtwissen und normativem Dissens kann das begründete und legitime Ergebnis einer pluralen Wissenspolitik auch darin bestehen, das Wachs-tum des Wissens zu regulieren und zu begren-zen. Wissenspolitik in spätmodernen Gesell-schaften heißt somit nicht zuletzt, innovations-orientierte, regulative und reflexive Perspektiven immer wieder neu in produktiven Kontakt und Konflikt zu bringen.

Anmerkungen

1) Vgl. zur Differenz von Wissens- und For-schungspolitik Stehr 2003a, S.13 ff.

2) Es ist demnach vor allem die Neuheit, weniger die „Wahrheit“ und „Objektivität“ des Wissens, die gegenwärtig die gesellschaftliche Dominanz der Wissenschaft begründet (Stehr 2003a, S. 37 f.).

3) Sheila Jasanoff (2003) und Brian Wynne (2003) kritisieren allerdings zu Recht, dass Collins und Evans zwar den Experten-Status über den Rah-men von wissenschaftlicher Qualifikation und professioneller Position hinaus erweitern, Exper-tise dabei aber nach wie vor im Sinne der Verfü-gung über entscheidungsrelevantes (Fakten-) Wissen verstehen. Wie Jasanoff anmerkt, ist die Beteiligung von „Laien“ an Risikodiskursen und technologiepolitischen Entscheidungsprozessen aber vor allem vonnöten, „in order to test and contest the framing of the issues that experts are asked to resolve” (Jasanoff 2003, S. 397 f.).

4) Exemplarisch hierfür ist die massive Schädigung der Ozonschicht durch Fluor-Chlor-Kohlenwas-serstoffe (FCKW). Als diese Substanzen um 1930 industriell hergestellt und genutzt wurden, war niemand „auf die Idee gekommen“, sie könnten irgendwelche Wirkungen in der oberen Erdatmosphäre haben. Erst Mitte der 1970er Jah-re wurde die Wirkungskette theoretisch erschlos-sen und nochmals rund zehn Jahre später auch empirisch bestätigt.

5) Bisher stehen noch relativ hohe Kosten einer raschen Ausbreitung der Gendiagnostik im Weg. Dies wird sich jedoch aller Voraussicht nach än-dern, falls in den nächsten Jahren die so genannte DNA-Chip-Technologie in größerem Maßstab verfügbar sein wird. In einem weitgehend stan-dardisierten Arbeitsablauf könnte dann eine gro-ße Zahl von Genen auf Besonderheiten und „Abweichungen“ überprüft werden. Vermutlich werden dann vor allem die multifaktoriell verur-sachten „Volkskrankheiten“ wie Herz-Kreislauf-Erkrankungen, Krebs, Diabetes oder Demenz-Erkrankungen ins Visier vermutlich auch kom-merziell vertriebener Gentests kommen, ohne

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 69

Page 70: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

dass medizinische Prävention und Therapie da-mit Schritt halten könnten. Die Problematik, auf die das Recht auf Nichtwissen reagiert, würde sich somit noch ausweiten und radikalisieren.

Literatur

Beck, U., 1996: Wissen oder Nicht-Wissen? Zwei Perspektiven „reflexiver Modernisierung”. In: Beck, U.; Giddens, A.; Lash, S.: Reflexive Modernisie-rung. Eine Kontroverse. Frankfurt a. M.: Suhrkamp, S. 289-315 Beck, U.; Bonß, W.; Lau, Chr., 2001: Theorie refle-xiver Modernisierung – Fragestellungen, Hypothe-sen, Forschungsprogramme. In: Beck, U.; Bonß, W. (Hrsg.): Die Modernisierung der Moderne. Frank-furt a. M.: Suhrkamp, S. 11-59. Böschen, S., 2004: Reflexive Wissenspolitik: Zur Formierung und Strukturierung von Gestaltungsöf-fentlichkeiten. In: Bogner, A.; Torgersen H. (Hrsg.): Wozu Experten? Wiesbaden: VS Verlag für Sozial-wissenschaften (im Erscheinen) Collingridge, D., 1980: The Social Control of Tech-nology. New York: St. Martin’s Press Collins, H.; Evans, R., 2002: The Third Wave of Science Studies: Studies of Expertise and Experi-ence. In: Social Studies of Science 32, S. 235-296 Damm, R., 1999: Recht auf Nichtwissen? Patienten-autonomie in der prädiktiven Medizin. In: Universi-tas 54, S. 433-447 Enquete-Kommission „Recht und Ethik der moder-nen Medizin“, 2002: Abschlussbericht. Berlin (BT-Drs. 14/9020) Fischer, F., 2000: Citizens, Experts, and the Envi-ronment. The Politics of Local Knowledge. Dur-ham, N.C.: Duke University Press Foucault, M., 2001: Die Ordnung des Diskurses. Frankfurt a. M.: Fischer Verlag Gamm, G., 2000: Nicht Nichts. Studien zu einer Semantik des Unbestimmten. Frankfurt a. M.: Suhr-kamp Jasanoff, Sh., 2003: Breaking the Waves in Science Studies. In: Social Studies of Science 33, S. 389-400 Krohn, W., 2003: Das Risiko des (Nicht-)Wissens. Zum Funktionswandel der Wissenschaft in der Wissensgesellschaft. In: Böschen, S.; Schulz-Schaeffer, I. (Hrsg.): Wissenschaft in der Wissens-gesellschaft. Wiesbaden: VS Verlag für Sozialwis-senschaften, S. 97-118 Lau, Chr.; Böschen, S., 2003: Wissensgesellschaft und reflexive Modernisierung. In: Böschen, S.; Schulz-Schaeffer, I. (Hrsg.): Wissenschaft in der Wissensgesellschaft. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 220-235

Lemke, Th., 2004: Veranlagung und Verantwortung. Genetische Diagnosen zwischen Selbstbestimmung und Schicksal. Bielefeld: Transcript Liberatore, A.; Funtowicz, S., 2003: ‚Democratis-ing’ expertise, ‚expertising’ democracy: what does this mean, and why bother? In: Science and Public Policy 30, S. 146-150 Luhmann, N., 1992: Ökologie des Nichtwissens. In: Luhmann, N.: Beobachtungen der Moderne. Opla-den: VS Verlag für Sozialwissenschaften, S. 149-220 Nelkin, D., 1995: Die gesellschaftliche Sprengkraft genetischer Information. In: Kevles D.; Hood L. (Hrsg.): Der Supercode. Die genetische Karte des Menschen. Frankfurt a. M., Leipzig: Insel Verlag, S. 195-209 Rammert, W., 1997: Innovation im Netz. Neue Zeiten für technische Innovationen: heterogen verteilt und interaktiv vernetzt. In: Soziale Welt 48, S. 397-416 Rammert, W., 2003: Zwei Paradoxien einer innova-tionsorientierten Wissenspolitik: Die Verknüpfung heterogenen und die Verwertung impliziten Wis-sens. In: Soziale Welt 54, S. 483-508 Ravetz, J., 1990: The Merger of Knowledge with Power. Essays in Critical Science. London, New York: Mansell Publishing Limited Reckwitz, A., 2003: Die Grenzen des Sozialen und die Grenzen der Moderne. In: Mittelweg 36, 12 (4), S. 61-79 Stehr, N., 2003a: Wissenspolitik. Die Überwachung des Wissens. Frankfurt a. M.: Suhrkamp Stehr, N. (ed.), 2003b: The Governance of Knowl-edge. New Brunswick: Transaction Publishers Stehr, N., 2003c: Die gesellschaftliche Kontrolle neuer Erkenntnisse. In: Sociologia Internationalis 41, S. 113-137 Stocking, S.H.; Holstein, L., 1993: Constructing and reconstructing scientific ignorance: Ignorance claims in science and journalism. In: Knowledge: Creation, Diffusion, Utilization 15, S. 186-210 Wehling, P., 2002: Rationalität und Nichtwissen. (Um-)Brüche gesellschaftlicher Rationalisierung. In: Karafyllis, N.; Schmidt, J. (Hrsg.): Zugänge zur Rationalität der Zukunft. Stuttgart, Weimar: Metzler, S. 255-276. Wehling, P., 2003a: Reflexive Wissenspolitik: das Aufbrechen tradierter Wissensordnungen der Mo-derne. Anmerkungen zu Werner Rammerts „Zwei Paradoxien einer innovationsorientierten Wissens-politik”. In: Soziale Welt 54, S. 509-518 Wehling, P., 2003b: Die Schattenseite der Verwis-senschaftlichung. Wissenschaftliches Nichtwissen in der Wissensgesellschaft. In: Böschen, S.; Schulz-Schaeffer, I. (Hrsg.): Wissenschaft in der Wissens-

Seite 70 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 71: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

SCHWERPUNKTTHEMA

gesellschaft. Wiesbaden: VS Verlag für Sozialwis-senschaften, S. 119-142 Wehling, P., 2003c: Das Recht auf Nichtwissen in der Humangenetik – ein „Irrläufer“ in der Wissens-gesellschaft? In: Allmendinger, J. (Hrsg.): Entstaat-lichung und soziale Sicherheit. Verhandlungen des 31. Kongresses der Deutschen Gesellschaft für Soziologie in Leipzig 2002. Opladen: VS Verlag für Sozialwissenschaften (CD-ROM) Wehling, P., 2004: Weshalb weiß die Wissenschaft nicht, was sie nicht weiß? Umrisse einer Soziologie des wissenschaftlichen Nichtwissens. In: Böschen, S.; Wehling, P.: Wissenschaft zwischen Folgenver-antwortung und Nichtwissen. Wiesbaden: VS Ver-lag für Sozialwissenschaften, S. 35-105 Wynne, B., 2002: Risk and Environment as Legiti-matory Discourses of Technology: Reflexivity In-side Out? In: Current Sociology 50, S. 459-477 Wynne, B., 2003: Seasick on the Third Wave? Sub-verting the Hegemony of Propositionalism. In: So-cial Studies of Science 33, S. 401-417

Kontakt

Dr. Peter Wehling Lehrstuhl für Soziologie Sonderforschungsbereich 536 „Reflexive Modernisierung“ Philosophisch-Sozialwissenschaftliche Fakultät Universität Augsburg Universitätsstraße 6, 86159 Augsburg Tel.: +49 (0) 821 / 598 - 40 74 Fax: +49 (0) 821 / 598 - 42 18 E-Mail: [email protected]: http://www.philso.uni-augsburg.de/

« »

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 71

Page 72: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

TA-INSTITUTIONEN UND -PROGRAMME

“Small technology – Big Con-sequences”: Building up the Dutch debate on nanotechno-logy from the bottom

by Rinie van Est and Ira van Keulen, Rathe-nau Institute

The debate on nanotechnology within the Dutch community is of recent time, the last two years seeing it take off slowly but steadily. In this complex arena the Rathe-nau Institute has played a central role, col-lecting data, collating thinking, building up arguments, and organising interactive ac-tivities such as workshops, focus groups, meetings and newsletters. These all led to the first major public meeting on nanotech-nology entitled “Small technology – Big consequences” held on 13 October 2004, and organised in collaboration with the par-liamentary Theme Commission on Technol-ogy Policy. Nanotechnology in the Nether-lands is receiving political attention.

This article reviews various activities of the Rathenau Institute in the field of nanotechnology and highlights their re-sults. It also seeks to give the reader insight into the (inter)national context in which the question of nanotechnology is being de-bated and the factors influencing current views on the subject.

1 1995 to 1998: conception

In 1995, a Dutch technology ‘foresight’ com-mission, the so-called Overleg Commissie Verkenningen, carried out a short study on nanotechnology. This was followed by a com-prehensive foresight study between 1996 and 1998 coordinated by the Netherlands Study Centre for Technology Trends (STT), in which most relevant Dutch and Flemish nanoscien-tists participated (Ten Wolde 1998). This ini-tiative eventually led to the establishment of a Dutch national nanotechnology research con-sortium, named NanoNed (see Box 1).

Box 1: Research consortium NanoNed

The Netherlands hosts three dedicated nanotechnology research centres: the University of Twente (with the Mesa+ research centre in microsystems technology and nanomaterials), Delft University of Technology (with the Dimes research centre on nanoelectronics) and the Uni-versity of Groningen (with BioMaDe focused on bio-nanotechnology). These form the core of NanoNed. However, four other universities, and TNO, the Nether-lands Organization for Applied Scientific Research, are also represented. NanoNed’s director is David Reinhoudt (University of Twente). NanoNed’s first research program was entitled NanoImpuls (2002) budgeted at some 45 million Euros from both public (Ministry of Economic Affairs) and private sources. A second research program is now running, budgeted at 102 million Euros of public money, which, somewhat confusingly, is also called NanoNed. Technology Assessment (TA) is an integral part of both NanoImpuls and NanoNed with up to three percent of the budget invested in TA research, co-ordinated by Arie Rip of the University of Twente.

During its research, the STT asked itself whether discussions on societal aspects should be part of it. STT saw significant opportunities to associate the technology with societal de-mands. It informally consulted the environ-mental organisation Natuur & Milieu (Nature & Environment) on the issue, which expressed the wish to first have a discussion on whether soci-ety actually wanted nanotechnology. The Rathe-nau Institute was asked whether it would be able to organise a debate at the end of the STT pro-ject. For reasons unknown to the authors such a discussion did not materialise during the STT study. It was only six years later that nanotech-nology was put on the Rathenau’s working pro-gram (2003-2004). Just in time (or just too late?), as 2003 saw the topic reach the public agenda. The Canadian ETC Group (Equity Ero-sion, Technology Transformation and Corporate Control Group) can be credited for this.

2 Spring 2003: birth

In April 2003, a Member of the European Par-liament told us that the ETC group and the ‘Greens’, were organising a meeting on nanotechnology, to be held in the European Parliament on June 11. Immediate cause of this seminar was the report The Big Down pub-lished by the ETC group (2003). It described the rise of nanotechnology in terms of govern-ment incentive programs, private R&D, patents and product applications and posed the legiti-

Seite 72 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 73: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

mate question as to what the benefits and risks for society would be of this new technology. It also pointed at the many uncertainties with regard to the health impact of nano-particles. The Big Down contained ‘emerging’ criticism directed at nanotechnology, which reminded a commentator in Nature of the debate on ge-netically modified food:

“Nanotechnology is set to be the next cam-paign focus of environmental groups. Will scientists avoid the mistakes made over ge-netically modified food, and secure trust for their research?” (Brumfield 2003)

The ETC group also drew public attention to a workshop held in December 2001 entitled Con-verging technologies for improving human per-formance, organised by the National Science Foundation and the Department of Commerce in the United States (Roco, Bainbridge 2002). The workshop discussed how the convergence of nanotechnology, biotechnology, ICT and cogni-tive sciences (referred to as NBIC) could im-prove the physical and cognitive capabilities of humans, both individually and collectively.

At that time – Spring 2003 – hardly any public debate on the social significance of nanotechnology had taken place in the Nether-lands. The only people engaged were nanosci-entists, commercial firms, and some social scientists involved in NanoNed. The latter were setting up a national network and creating ties with a growing international network of social researchers engaged in the burgeoning field of nanotechnology.

A quick round of phone calls at the time showed that the health risks of nanoparticles were not on the policy agenda of either the Ministry of Health, Environment or Social Affairs. The Dutch branch of Greenpeace and Environmental Defence Fund (Vereniging Mi-lieudefensie), were not even aware of the term nanotechnology. Media attention to nanotech-nology was also close to zero.

To conclude, at the time the 21st Century Nanotechnology R&D Act was introduced in the United States (June 2003), which demands inter alia research into the social and ethical aspects of nanotechnology, the debate on nanotechnol-ogy in the Netherlands was more or less non-existent. This, combined with the arrival of the debate in Europe, caused the Rathenau Institute

to accelerate its activities on nanotechnology and give the subject a higher priority.

3 Autumn 2003: crawling

In September 2003 we wrote an internal paper covering the fields of application and related social issues involved in nanotechnology and an overview of the public debate and related TA activities in that field in various countries. In Europe, the nanotechnology debate has clearly started in Great-Britain, and was com-ing very slowly to the Netherlands.

On the European level, the European Commission started by setting up the High Level Expert Group (HLEG) Foresighting the New Technology Wave to explore the potentials and risks of converging technologies (NBIC, see above) and its meaning for Europe’s R&D pol-icy. The director of the Rathenau Institute, Jan Staman, was invited to join the expert group, which gave the institute a direct link to the in-ternational community involved in the societal aspects of nanotechnology. [see also the report on the HLEG’s meeting on September 14-15, 2004 in this issue, pp. 118]

On June 11, 2003, the Royal Society and the Royal Academy of Engineering, commis-sioned by the British government, initiated a study on the possible benefits and problems which nanotechnology might introduce. Inspired by that political move, the Dutch Minister of Education requested the Royal Netherlands Academy of Sciences (KNAW) in August 2003 to launch a Working Group on the Conse-quences of Nanotechnology to analyse the status, further developments and social conse-quences of nanotechnology. In contrast to the open and consultative process in Britain, the Dutch KNAW working group was an expert committee, consisting of prominent nanoscien-tists and one social scientist. Based on this working group’s report the Minister would de-cide whether further steps should be taken. In our view the closed expert committee approach did not address the need for involving different social actors in the debate on nanotechnology and start up a dialogue. Clearly there was a task for the Rathenau Institute to fill that gap.

But how to do that was not fully clear at the time. We saw a real need for a Dutch meeting to discuss the health risks of nanoparticles as this topic was receiving ever more international

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 73

Page 74: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

attention, while awareness in the Netherlands was still thin. Accordingly, we decided to organ-ise a workshop on the issue (see 5.1). We also decided to publish the discussion paper. For this, we would make use of current reports, as those of the Economic & Social Research Council (Wood et al. 2003), and Greenpeace UK (Arnall 2003), and international studies that we knew would soon to be published. For example, our German sister organisation TAB – the Office of Technology Assessment at the German Parlia-ment was finishing a broad study on nanotech-nology (Paschen et al. 2003), and kindly al-lowed us to use their results before publication. Finally, a so-called NanoTeam was set up within the Rathenau Institute consisting of specialists from various distinct fields, like biomedical technology, ICT, agro-food, and communica-tion. Its prime task was to produce a common project proposal.

4 Winter 2003/4: a concept agenda

At the end of February 2004, the workshop on Opportunities and Risks of Nanoparticles was held, and the publication and project proposal were both ready. Moreover, the parliamentary Theme Commission on Technology Policy1 had shown interest in organising a public meet-ing on nanotechnology together with the Rathenau Institute.

Publication ‘To value the very small …’

The publication was written with the help of Ineke Malsch (an experienced consultant in the field of nanotechnology), and Arie Rip (coor-dinator of TA activities at NanoNed). It was entitled in Dutch Om het kleine te waarde-ren…(Van Est et al. 2003). The Dutch verb ‘waarderen’ (to value) means on the one hand evaluate, quantify or assess, and on the other appreciate or enjoy. The title refers to the need to simultaneously look both to the societal risks and opportunities of nanotechnology. The pub-lication received attention in various national newspapers (cf. Van Calmthout 2004), which meant that for the first time nanotechnology was introduced to a wider audience.

Om het kleine te waarderen…provided an initial concept agenda for public debate, and, logically, also for the Rathenau project on nanotechnology. Table 1 summarises the main (groups) of societal issues and related dream

and horror scenarios that the study identified. It is striking that nanotechnology touches upon so many familiar social issues, from ICT and pri-vacy, predictive medicine, the ethics of war, and sustainability to social guidance of innova-tion and North-South issues. Relatively new issues related to nanotechnology include hu-man engineering or enhancement, the (im)possibility of self-reproducing nanobots, and the borders between living and non-living material. The most current topic is the health effects of nanoparticles.

Project proposal

The basic idea was to organise a public event, in which politicians would play a central role. Its goal would be to find out whether it would be necessary to organise a large public debate on nanotechnology (like the debate on genetically modified food) in the Netherlands. And if not, what (if any) kind of actions should be taken?

Om het kleine te waarderen... was posi-tioned as a background paper in preparation of such a public meeting, to be organised in Au-tumn of 2004 (see 6). We used Table 1 to struc-ture our project. Consequently, we organised workshops on the health effects of nanoparticles (5.1), nanoelectronics (5.2), and biomedical nanotechnology (5.3). Around military nano-technology no workshop was set up, but the issue was taken up as part of a study on military technology in general. Since agrofood is an important Dutch industrial and R&D sector, but was treated only in a very concise manner in the study, it was decided to also organise a work-shop on nanotechnology in the agrofood sector (5.4). Table 1 shows a great many potential controversial issues that surround nanotechnol-ogy. To get an idea on how people perceive nanotechnology, several focus groups with Mas-ter students were organised (5.5).

The goal of the workshops was to involve nanoscientists, industry, NGOs, social scientists, and policymakers in the social debate on nanotechnology. An electronic newsletter was set up that summarises project activities and publishes the latest news on nanotechnology by other (international) organisations. In this way we tried to engage as many people as possible in the itinerary towards the first Dutch public de-bate on nanotechnology in the Autumn of 2004.

Seite 74 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 75: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

Table 1: Societal issues and dream and horror scenarios for different fields of applications in nanotechnology

Field of application Societal issue Dream scenario Horror scenario Nanomaterials / industrial production

Health- and environmental issues

Sustainability Nanoasbestos

Self-(re)production Universal assembler / per-sonal fabrication

Grey Goo

Nanoelectronics Privacy ‘Smart’ products and envi-ronments

Big Brother

Bio-electronics Engineering of humans World without ‘handicaps’ Discrimination of ‘handi-caps’

Mixture of living and non-living

Coupling to the internet (free from mortal body)

Dehumanisation and alien-ation

Nanotechnology in medical sphere

Predictive medicine Early diagnostics Tailored medicine

Genetic coercion and / or exclusion Split in health care

Military technology Arms race Safe world New weapons and arms race / proliferations (use by terrorists)

Ethics of war Zero-casualty / remote control war

Killer robots / space war

Engineering of humans ‘Invincible warriors’ Cyber soldiers General / innovation Patents Equal distribution of profit

and wealth Monopolisation of knowl-edge and profit

International development Equal distribution of wealth Nanodivide Steering / dialogue Societal steering Technological determinism Economy Growth of economy and

employment Shrinkage of economy and employment

Source: Van Est et al. 2003, p. 54

5 Spring 2004: first steps

In this section we highlight some outcomes of the various preparatory activities.2 In particular, the many and distinct societal uncertainties involved in various fields of application of nanotechnology are illustrated.

5.1 Nanoparticles – many unknowns about health effects

The workshop Opportunities and Risks of Nano-particles was held on February 17, 2004 in The Hague and confronted nanoscientists for the first time in public with the attitudes on this emerging political topic.

During the workshop it was clear there were many uncertainties as to health effects of nano-particles. And there is uncertainty still as to what artificially created nano-particles might do in the body. For example, the mechanism by which aerosols cause damage to the lungs is

still unknown. Precautionary measures have been taken for researchers in laboratories and production employees who work with nano-particles, but it is not yet known whether these are effective. An additional problem is that it is not clear how to measure nano-particles. It is also uncertain whether the standard rule appli-cable in toxicology – that risk is the product of the level of exposure and intrinsic danger – applies to nano-particles. Finally, current clini-cal studies may be not suited to deal with the health effects of nano-particles.

5.2 Nanoelectronics – uncertainty about consumer demands

Surprisingly, privacy was not the main issue at the workshop Nano-electronics and ambient intelligence, held on March 25, 2004 in Eind-hoven. The most important issue put forward here was the uncertainty about consumer de-mands. For decades technology development in

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 75

Page 76: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

the electronics sector has been described by Moore’s law. Accordingly, roadmaps have been designed up to 2015 (and beyond) that almost predetermine technological progress for the coming decade.

In sharp contrast to the predictability of the technology, it is impossible to predict which applications will end up being a commercial success. This means huge investments must go into product development without the certainty that it will produce results. Innovation is thus economically vulnerable. Moreover, society and government are confronted with an endless stream of unforeseen and potential culturally ‘radical’ innovations, like the mobile phone.

5.3 Health care – unclear relation be-tween (early) diagnosis and disease

Early diagnostics and tailored medicines are the two dream scenarios mentioned in Table 1. The first scenario got most of the attention in the workshop on Biomedical nanotechnology, which was organised in Utrecht on July 7, 2004. Combined with early detection of disease risks based on genetic profiling (DNA diagnostics), molecular imaging (nanodiagnostics) seems to offer the possibility to detect diseases earlier and more effectively than hitherto and fight them with fewer side effects.

During the workshop several social risks were identified. Early diagnostics may lead to both a far-reaching medicalisation of normal life, as well as unnecessary medical interven-tions. Defects are constantly occurring in the body which the body itself repairs. In the back-ground to this problem is the fact that there is no unequivocal relationship between a defect occurring and the occurrence of a disease. The earlier the diagnosis, the less clear the relation-ship. A related issue is reliability. Who would be liable if a false prediction were to be made? Liability issues could lead to only a limited number of tests being offered. Strict admission procedures apply to (the use of) new medicines and new treatment methods. Applicable proto-cols generally focus on clinical practice: the treatment of the actual disease. It is still un-known how the clinical trials should be han-dled with regard to early diagnostics.

5.4 Agro-food sector – uncertainty about social acceptance

Among the participants of the workshop Nanotechnology in the agrofood sector held on April 8, 2004 in Wageningen, there was huge uncertainty about the social acceptance of food in which nanotechnology has been applied. This could be met with the same rejection as genetically modified food because nanotech-nology also involves ‘artificial’ intervention in ‘natural’ food cycles. Furthermore, it is unclear what the possible health risks of nanoparticles in food are. They are often produced differently to particles occurring in nature, which could mean they are less degradable. It was also said that several realistic risks lurk behind the so-called Green Goo scenario, which is the fear that the use of self-reproducing nanoparticles in nature may lead to an artificial micro-organism that could alter the environment into a green, uniform mass.

5.5 Public perceptions – positive expecta-tions and worries about regulation

There is much speculation as to how lay people see nanotechnology, but not much is known. To allow a more informed discussion, three focus groups were organised with Master stu-dents. In the study The double message of nanotechnology: research into rising public perceptions, Hanssen & Van Est (2004) com-pare the results of the Dutch focus groups with focus groups organised in the United Kingdom and Denmark, and public surveys held in the United States and Europe. The following two main features emerged:

- Limited familiarity, positive expectations Quantitative research shows that the general public in Europe and the United States has limited familiarity only with nanotechnol-ogy. A British and American survey showed that 29 and 32 percent of people questioned, respectively, knew what nanotechnology was. The public is mainly positive towards nanotechnology: 68 percent of the British expect nanotechnology to improve the qual-ity of life and 40 percent of Americans see more advantages than disadvantages. These findings are confirmed by the results from

Seite 76 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 77: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

the focus groups in Denmark, the Nether-lands and the United Kingdom. Participants see possibilities to fight diseases, and for a better environment. They hope that nanotechnology will be applied to these ends. Not many people are waiting for im-proved or cheaper consumer goods.

- Uncomfortable with regulation Next to positive expectations, people also have worries. In particular, the focus group discussions showed that people are not com-fortable with the regulations on and control of nanotechnology. The industry’s growing influence on how technological develop-ments are controlled play a role in this. People also worry about the risk of nanopar-ticles ending up in the body or environment, a new arms race and the loss of privacy through new electronic methods of detec-tion. Finally, many people fear that the benefits of nanotechnology will only benefit the West and will ignore the Third World.

Recommendations of the KNAW Working group

At the time the public meeting on nanotechnol-ogy was held, various committees that had been set up over the previous year to study the societal risks and opportunities of nanotech-nology had finished their job. In the UK the Royal Society and the Royal Academy of En-gineering (2004) presented their advice to the government in July 2004. The report expects that the concerns in the short to medium term will focus on two basic questions: (1) who controls and (2) who benefits from uses of nanotechnologies? Therefore, it is recom-mended that

“…a constructive and proactive debate about the future of nanotechnologies should be undertaken now – at a stage that it can inform key decisions about their develop-ments and before deeply entrenched or po-larised positions appear.”

In August, the Royal Netherlands Academy of Sciences' working group Consequences of Nanotechnology (KNAW 2004) came up with similar types of recommendations (see Box 2).

Box 2: Recommendations of KNAW Working Group

• The government should develop new regulations within the existing legal frameworks for introduction of new nanoparticles in society.

• More research should be done on the toxicological qualities of nanoparticles and their kinetics in organ-isms and environment.

• A moratorium on nanoscience and technology is very undesirable based on the principle of proportionality.

• The Ministries of Education, Culture & Science and Economic Affairs should encourage the general pub-lic to be informed on nanoscience and nanotechnol-ogy. It is crucial that the general public is actively in-volved in the discussion on the future of scientific re-search and its applications.

• The government should start a structured open discus-sion on risks and benefits of nanoscience and technol-ogy based on the lessons learned on the introduction of genetically modified food.

6 -ll technology – Big conse-

quences’

polit

nt an early reflection of the rising public debate.

Autumn 2004: Public meeting in Parliament ‘Sma

The first public meeting on nanotechnology in the Netherlands was held on Wednesday after-noon October 13, 2004 in the Dutch parliament building in The Hague under the title Small technology – Big consequences. The goal of the meeting was to inform politicians and other social actors about developments in the field of nanotechnology, and discuss related relevant

ical and societal questions. One of the objectives of the Parliamentary

Theme Commission on Technology Policy which was involved in organizing the meeting was to experiment with new types of methods. Instead of opting for the classical hearing, it was chosen to organise four interactive debates be-tween stakeholders from different societal do-mains, like social scientists, nanoscientists, businesspeople, societal organisations, govern-ment, politics, and the public. These different groups of stakeholders got a distinct place within the debating arena (see Photo). In this way the public meeting was thought to prese

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 77

Page 78: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

Some 120 participants debated the following four themes:

• Nanoscience or nanofiction? (Debate about the relevance of nanoscience, and about which expectations are and are not realistic)

• Nanotechnology, motor of the Dutch knowledge economy? (Debate about the relevance of nanotechnology for the Dutch economy, and how innovation can or should be fostered)

• Nanotechnology in the same track as bio-technology? (Debate about what societal is-sues are related to nanotechnology, and whether the debate on nanotechnology will become polarised)

• What to do next?

Big expectations, uncertain future

The public meeting showed that nanotechnol-ogy is expected to face a big, but uncertain future, since it is – at the moment – not clear in which directions it will develop. The extensive and far-reaching promises of nanotechnology make it hard to get a comprehensive and con-crete picture of it, and develop a well-grounded opinion on it. But at the same time, develop-ments in this field are felt to be going very fast. To seize the opportunities and problems of social acceptance, as in the case of GM food, it is important to involve citizens and NGOs al-ready now in the debate. It is the role of the government to facilitate an open debate be-tween politics, citizens, firms, science and so-cietal organisations. Such a debate should not only focus on risk issues, but should pay atten-tion to ethical dilemmas and beliefs too.

No sense of urgency, lack of involvement

Few people were in favour of organising an extensive public debate, like the Dutch debate on GM food “Eten en Genen”, which was held in 2001. There exists too little awareness on nanotechnology among citizens to justify that, moreover the issue at the moment lacks a sense of urgency. In particular, this was proven by the absence of many NGOs at the public meet-ing, although a lot of effort was put in before-hand to get them there. In particular politicians regretted that only the 'in-crowd' was present at the meeting, and expressed the need for more involvement of societal organisations, since it would offer politicians a good view of the pros and cons of nanotechnology.

7 Concluding remarks

“The starting point is to acknowledge that we don’t know what the risks of nanotechnology are, and we don’t know what the benefits are, and we won’t for some time.” (Roger Kasperson; quoted in Weiss 2004)

This article described how over the last year the public debate on nanotechnology in the Netherlands has been built up from the bottom. The first activities made clear that nanotech-nology is still at an early stage of development, but loaded with expectations and shrouded in uncertainty. This conclusion came out of the public meeting, and was illustrated by the pre-paratory activities (see 5):

• many unknowns about health effects of nanoparticles;

• uncertainties about consumer demands and societal effects in the field of nanoelectron-ics;

• uncertainty about social acceptance of food products made by nanotechnology;

• unclear relationship between early diagnosis and disease.

Risk communication expert Kasperson (see quote above) argues for the acknowledgement of these many unknowns and uncertainties about the risks and benefits of nanotechnology and take them as a starting point for further debate and measures. Policymakers, however, have a doubtful track record of acknowledging societal risks related to technology in advance.

Seite 78 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 79: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

In cases like asbestos, nuclear power and GM foods, outside public pressure was needed to get such issues on the political agenda. This is fatal to public trust, since the actors involved are perceived to have failed to act in the public interest, by only looking at the benefits and not at the risks.

The challenge for the future, therefore, is to prevent the same mistakes, and address the benefits, risks and uncertainties involved in due time. One of the ways the Rathenau Institute will take up that challenge is to select five con-crete applications that will likely come on the market within the coming ten years, and start a stakeholder dialogue on the societal issues at stake, and what appropriate measures should be taken. In this way the discussion on nanotech-nology may become more concrete, which may increase the involvement of NGOs and citizens in this debate. This in its turn may help politi-cians obtain a clear picture of the pros and cons of nanotechnology.

Notes

1) Besides Permanent and Temporary Commis-sions, the Dutch Lower House currently has two so-called Theme Commissions: one on the Age-ing Society, the other on Technology Policy. These Theme Commissions seek to take a more reflexive, long-term, and pro-active stance to-wards a certain topic or theme.

2) This paragraph is based on an internal paper written by Frank Biesboer, which summarises the main results of the preparatory workshops.

References

Arnall, A.H., 2003: Future technologies, today’s choices. Nanotechnology, artificial intelligence and robotics; a technical, political and institutional map of emerging technologies. London: Greenpeace Environmental Trust Brumfield, G., 2003: A little knowledge… Nature, Vol. 424 (17 July), pp. 246-248 ETC Group, 2003: The Big Down: Atomtech – Technologies converging at the nano-scale. Winni-peg, Canada: ETC Group Hanssen, L.; van Est, R., 2004: De dubbele bood-schap van nanotechnologie. Een onderzoek naar opkomende publiekspercepties. Den Haag: Rathenau Institute KNAW Werkgroep gevolgen nanotechnologie, 2004: Hoe groot kan klein zijn? Enkele kanttekeningen bij

onderzoek op nanometerschaal en mogelijke gevol-gen van nanotechnologie. Amsterdam: Koninklijke Nederlandse Akademie van Wetenschappen Paschen, H. et al., 2003: TA-Projekt Nanotechno-logie: Endbericht. Berlin: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). Arbeitsbericht Nr. 92 – Berichterstatter-Exemplar Roco, M.C.; Sims Bainbridge, W. (eds.), 2002: Converging technologies for improving human performance. Arlington, Virginia: National Science Foundation / Department of Commerce Royal Society & Royal Academy of Engineering, 2004: Nanoscience and nanotechnologies: opportu-nities and uncertainties. RS Policy document 19/04 (July 2004) Ten Wolde, A. (ed.), 1998: Nanotechnology. To-wards a molecular construction kit. Den Haag: STT Netherlands Study Centre for Technology Trends Van Calmthout, M., 2004: Nanoscience. Het piepkleine risico. De Volkskrant 1-5-2004 Van Est, R.; Malsch, I.; Rip, A., 2004: Om het kleine te waarderen… Een schets van nanotechnologie: publiek debat, toepassingsgebieden en maatschappe-lijke aandachtspunten. Den Haag: Rathenau Institute, Werkdocument 93 Weiss, R., 2004: Nanotech poses big unknown to science; as world shrinks concerns multiply. In: Washington Post, February 1, 2004 Wood, S.; Jones, R.; Geldart, A., 2003: The social and economic challenges of nanotechnology. Lon-don: Economic & Social Research Council

Contacts

Dr. Ir. Rinie van Est Drs. Ira van Keulen Rathenau Institute P.O. Box 85525, 2508 CE The Hague, The Netherlands Tel.: +31 (0) 70 / 342 1542 Fax.: +31 (0) 70 / 363 34 88 E-Mail: [email protected]

[email protected]: http://ww.rathenau.nl

«

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 79

Page 80: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

Bundesweiter Diskurs: Momentaufnahme Nachhaltig-keit und Gesellschaft

Diskursbericht von Christiane Averbeck und Kira Crome, Rat für Nachhaltige Ent-wicklung, sowie Arved Lüth und Alexander Nick, IFOK

„Deutschland fehlt ein Zukunfts-TÜV“, er-klärte Volker Hauff, der Vorsitzende des von Bundeskanzler Schröder einberufenen Nachhaltigkeitsrates auf der Abschlussver-anstaltung zum Diskurs „Nachhaltigkeit und Gesellschaft“ am 23. Juni 2004 in der Ka-tholischen Akademie in Berlin. Mit 200 Ver-tretern aus Wirtschaft, Politik und Zivilge-sellschaft diskutierten Mitglieder des Rates für Nachhaltige Entwicklung die Ergebnisse des bundesweiten Diskurses, der von Ja-nuar bis Juni diesen Jahres die Veranke-rung von Nachhaltigkeit in der Gesellschaft im Detail untersuchte. Der abschließende Bericht „Momentaufnahme – Nachhaltigkeit und Gesellschaft“ zeichnet ein detailliertes und differenziertes Bild nachhaltiger Ent-wicklung in Deutschland.

1 Ziele und Vorgehen des Diskurses

Die Bundesregierung berichtet zur Fortschrei-bung ihrer Nachhaltigkeitsstrategie, Unterneh-men schreiben Nachhaltigkeitsberichte – wie aber lässt sich eine Gesellschaftsbilanz zur Nachhaltigkeit erstellen? Der Rat für Nachhal-tige Entwicklung der Bundesregierung hat das Institut für Organisationskommunikation (IFOK) beauftragt, einen solchen Bericht anzu-fertigen. Dieser Bilanzbericht ist neuartig, weil es bislang keine etablierten Berichtswege in der Gesellschaft gibt. Um dennoch eine Aussage zum Verankerungsgrad nachhaltiger Entwick-lung in Deutschland treffen zu können, wurde die Struktur eines moderierten Diskursprozes-ses als Verfahren gewählt. Ziel war es, ein neues Format für Diskussion und Berichterstat-tung zu finden, das Erfahrungen, Erfolge und Misserfolge, Erwartungen und Stimmungen aus unterschiedlichen gesellschaftlichen Grup-pen, von Akteuren aus Wirtschaft und Verbän-den, Initiativen und Wissenschaft erfasst. Ziel und Ergebnis sind mit dem Bild einer „Mo-

mentaufnahme“ am besten beschrieben (IFOK, RNE 2004).

Folgende Fragen standen im Mittelpunkt des Diskurses:

• Inwieweit ist Nachhaltigkeit heute Kompass für gesellschaftliche Aktivitäten und wovon hängt die Fähigkeit der gesellschaftlichen Akteure ab, sich nachhaltig zu verhalten?

• Wo unterstützt, wo behindert politisches Handeln die Aktivitäten der gesellschaftli-chen Akteure und wo hat die Gesellschaft Lösungsansätze, die denen der Politik über-legen sind?

Ingesamt 1.100 Menschen wurden in einer ersten Umfrage angesprochen: Meinungsführer aus Wirtschaft, Gesellschaft, Kultur und Me-dien, Nachhaltigkeitsexperten, junge Menschen („Generation N“) und so genannte Pioniere, die durch ihr persönliches Engagement die Ent-wicklung in Umweltschutz und Nachhaltigkeit in der Vergangenheit maßgeblich geprägt ha-ben. Ihre Beiträge und Kommentare haben Eingang in den Abschlussbericht gefunden.

200 Vertreter wurden zum Diskurs gela-den, der in drei verschiedenen Foren durchge-führt wurde. Im Forum Leadership kamen Füh-rungspersönlichkeiten zu Wort, die im Span-nungsfeld von Globalisierung, wirtschaftlichen und sozialen Rahmenbedingungen ein Bild von den Möglichkeiten zur Umsetzung von Nach-haltigkeit zeichneten. Im Forum Experten dis-kutierten diejenigen miteinander, die sich be-ruflich oder ehrenamtlich mit dem Thema Nachhaltigkeit beschäftigen und die die Nach-haltigkeitskompetenz in der Gesellschaft reprä-sentieren. Im Forum Generation N schließlich ging es um spezifische Sichtweisen der jungen Generation auf die Themen Nachhaltigkeit und Generationengerechtigkeit.

2 Wo steht der Nachhaltigkeitsdiskurs in Deutschland?

Die Bilanz fällt ernüchternd aus: Nachhaltig-keit ist in Deutschland nicht verankert. Den-noch gibt es Anlass zu Zuversicht und Opti-mismus: Nachhaltigkeit lebt in einer Nische. Ihre Akteure bilden eine produktive, kreative Gemeinschaft, die sich – wie es in keinem an-deren Politikfeld der Fall ist – an Langfristig-keit und Globalität gesellschaftlicher Entwick-

Seite 80 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 81: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

lung orientiert. Das Denken in diesen Dimensi-onen zeichnet die Nachhaltigkeitsszene aus und verleiht ihr ein bisher verkanntes Potenzial zur Modernisierung, Transformierung und Refor-mierung von Gesellschaft und Wirtschaft. Wirtschaftliche, soziale, ökonomische, aber vor allem integrierte Innovationen als Bausteine für Zukunftsgestaltung sind von hier zu erwarten.

Die Nachhaltigkeitsszene fußt auf Selbst-organisation und gehorcht den Spielregeln zivil-gesellschaftlicher Akteure. Es zeigte sich, dass die Nachhaltigkeitsstrategie der Bundesregie-rung verhältnismäßig wenig Resonanz bei den Akteuren findet. Insgesamt schätzt die Nachhal-tigkeitsszene sowohl die Arbeit der Regierung als auch ihre eigene sehr kritisch ein – kritischer als dies durch Außenbewertung geschehen ist (beispielsweise in einer aktuellen Studie des World Economic Forum, gemäß der Deutsch-land in punkto Nachhaltigkeit führend ist).

3 Themen und Handlungsfelder

Nachhaltigkeit ist in Deutschland nicht veran-kert, aber es wird ihr ein enormes Potenzial bescheinigt. Der Diskurs beleuchtet Missstän-de, die es zu überwinden gilt, sowie Suchräume und Handlungsfelder, um dieses Potenzial bes-ser nutzen zu können. Die wichtigsten Aussa-gen bzw. Ergebnisse der Diskussionen in den drei Foren sowie der Umfrage sind im Folgen-den dargestellt. Die Bewertung der Ergebnisse aus der Sicht des Nachhaltigkeitsrates schließt sich daran an.

Nachhaltigkeit als gesellschaftlicher Such-, Lern- und Gestaltungsprozess – wohin?

Wie Nachhaltige Entwicklung funktioniert, nämlich als gesellschaftlicher Such-, Lern- und Gestaltungsprozess, ist klarer als die Beantwor-tung der Frage, welche Richtung einer Entwick-lung als nachhaltig gilt. Die Schwierigkeiten der „Nachhaltigkeitsstrategie der Gesellschaft“ sind, hierbei Richtung und Orientierung zu finden und sich darauf zu fokussieren. Das Motto „Lasst 1000 Blumen blühen“ diente hier mehrfach als Selbstbezeichnung – das Gegenteil wäre ein staatliches Apollo-Projekt der Nachhaltigkeit.

Gemeinsame Vision zur Gestaltung der Zu-kunft nicht erkennbar

Das „big picture“ der Nachhaltigkeit ist nicht erkennbar. Es fehlt an Visionen, wie eine Welt aussieht, die nachhaltiger ist als unsere beste-hende. Es ist nicht klar, wie eine Wirtschaft oder Arbeitswelt aussehen soll, die nachhalti-ger produziert. Es ist fraglich, wie eine kinder-lose Gesellschaft sich nachhaltig entwickeln will. Es ist ungewiss, ob wir in Zukunft Wachs-tum oder Schrumpfung managen werden.

Zur Beantwortung der Frage „Was ist nachhal-tig...?“

Die Diskussion hat gezeigt, dass Orientierung und immer wieder Orientierung gefragt ist. Zu kurz gesprungen schienen viele der Versuche in der Vergangenheit, nachhaltige Lebensstile zu definieren. Zu kurz gesprungen sind auch „We-niger ist mehr“-Lifestyle-Parolen zu einer Zeit, in der „Mehr für weniger!“ die erfolgreichste Parole ist. Es schimmert durch, dass es wenig Sinn hat, im halböffentlichen Privatleben Sym-bolpolitik zu betreiben und an einer anderen Stelle dafür umso weniger nachhaltig zu sein. Kurz: Niemand ist nur nachhaltig, niemand ist aber auch nur nicht-nachhaltig. Die Frage nach dem „Was“, der inhaltlichen Bestimmung der Nachhaltigkeit, bleibt. Zur Orientierung darüber wurden zwei Strategien als aussichtsreich be-wertet: Die Identifizierung von eindeutig nicht-nachhaltigen Produkten, Verhaltensweisen, Poli-tiken und Dienstleistungen (im Sinne eines Schwarzbuchs der Nachhaltigkeit) und die Übersetzung von Fach- in Alltagswissen. Gro-ßes Potenzial wurde in der Ausgestaltung von Anreizen für nachhaltiges Verhalten gesehen – auch hier geht der Adressatenkreis über die Poli-tik hinaus bzw. kann die Politik in vielen Fällen gar nicht alleine tätig werden.

Neuer Politikstil der Nachhaltigkeit entsteht

Die Beteiligungskultur und die Offenheit des Konzeptes Nachhaltigkeit hat ein neues, erwei-tertes Politikverständnis geprägt. Politik wird danach nicht mehr nur als eine Sache von Be-rufspolitikern verstanden, sondern bezieht ei-nen erweiterten Kreis von Interessierten und Akteuren mit ein. Nachhaltigkeit muss jenseits

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 81

Page 82: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

der mandatierten Politik organisiert werden; sie ist nicht allein staatliche Aufgabe. Ihre eigent-liche Kraft entwickelt sich dort, wo Politik, Zivilgesellschaft und Wirtschaft in einem neu-en Sinne für die Zukunftsentwicklung zusam-menwirken. Durch diesen neuen Politikstil der Nachhaltigkeit wird die gesellschaftliche Prob-lemlösungskompetenz beträchtlich erhöht.

Neue Debatte über Verantwortung und Legiti-mität

Die Bemühungen um eine nachhaltige Ent-wicklung setzen eine neue Verteilungs- und Legitimitätsdebatte auf die gesellschaftliche Agenda – es geht um die Verteilung von und die Teilhabe an Verantwortung für die Zukunft. Neue Grenzen der Verantwortung werden aus-gehandelt. Das betrifft die Aufgabenteilung zwischen Unternehmen, Politik, Verwaltung und Zivilgesellschaft. Damit stellen sich auch neue Fragen der Legitimität und Effizienz von Verfahren und einzelner Akteure.

Fehlende sektorale Mobilität in Deutschland

In der Diskussion wurde auch die mangelhafte Durchlässigkeit der gesellschaftlichen Sektoren kritisiert. Es fehlt an Initiativen, die sektorale Grenzgänger dem jahrzehntelangen Marsch durch die Institutionen vorzieht. Nachhaltigkeit funktioniert nur mehrsektoral und braucht Köp-fe, die die Spielregeln bzw. Rahmenbedingun-gen verschiedener Sektoren kennen.

Neue Führungsqualitäten in Politik, Wirtschaft und Gesellschaft gefragt

Weitsichtige Führungsqualitäten fehlen nicht nur in vielen Unternehmen, sie fehlen auch in der Zivilgesellschaft. Im Diskurs wurde wie-derholt darauf hingewiesen, dass es immer wieder Entscheidungssituationen gibt, in denen die Spielregeln so weiterentwickelt werden müssten, dass Organisationen und Personen nachhaltig handeln könnten, ohne kurzfristig einen zu starken Nachteil davonzutragen. In vielen Fällen fehlten zusätzlich der Anschluss an die internationalen Diskussionen oder inter-nationale Netzwerke – selbst unter Führungs-kräften sei hier ein Defizit erkennbar.

Bewusstseinswandel aussichtslos?

Ein Bewusstseinswandel in Richtung Nachhal-tigkeit wurde als zentrales Handlungsfeld iden-tifiziert – aber es ist in vielen Fällen weder klar, wie die Richtung konkret aussehen könn-te, noch, wie der Bewusstseinswandel vollzo-gen werden soll. Dass er möglich sei, wurde sogar als sehr unwahrscheinlich eingeschätzt. Die Diskussionen führten häufig zu einem Ruf nach Wertewandel bzw. einer „ehrlichen De-batte“, die die entscheidenden Akteure (Me-dienwirtschaft, Bildungseinrichtungen, Marke-ting, Wissenschaft) zusammenführt und Werte-fragen offen, aber ergebnisorientiert diskutiert.

Junge Generation wird zu wenig beteiligt

Die junge Generation möchte stärker in die Dialoge zur Nachhaltigkeits-Strategie einbezo-gen werden. Hierfür fehlen Foren und Beteili-gungsmodelle; es wurden Scheinbeteiligungen in gängigen Konsultationsverfahren der Bun-desregierung und der EU-Kommission beklagt.

4 Bewertung der Ergebnisse durch den Nachhaltigkeitsrat

Die Momentaufnahme stimme optimistisch, das stellt der Rat für Nachhaltige Entwicklung in seinen Schlussfolgerungen zu den Ergebnissen der Momentaufnahme ’Nachhaltigkeit im Vi-sier’ fest (RNE 2004). Dies jedoch nicht, weil die Zukunftsfähigkeit schon auf einem guten Weg sei, sondern weil sich kreative und initia-tivreiche Menschen beteiligt haben. Im Diskurs seien viele interessante und neue Anregungen für eine Nachhaltigkeitspolitik entwickelt wor-den – Anregungen, die Bausteine für eine Zu-kunfts-Zuversicht seien.

Der Diskurs habe gezeigt, wie wichtig es sei, solchen Diskussionen Raum zu geben. Und so empfiehlt der Rat der Bundesregierung auch in Zukunft, in ihrer Berichterstattung zur Nach-haltigkeit eine gesellschaftliche Bilanz zur Nachhaltigkeit vorzusehen. Eine notwendige Auseinandersetzung mit den Widersprüchen und Zielkonflikten im Konzept der Nachhaltig-keit generiere Neues, das zu einer Weiterent-wicklung führen würde.

Erleichterungen und Ermutigungen für den Alltag der Initiativen und das Verwirklichen

Seite 82 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 83: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

neuer Ideen seien notwendig, um das Konzept der Nachhaltigkeit zu stärken und voranzubrin-gen. Eine Kultur der Anerkennung stärke bür-gerschaftliches Engagement, ein Engagement, das eine wichtige Voraussetzung für die Weiter-entwicklung einer Gesellschaft darstelle.

Eine große Bedeutung misst der Rat der Bildungspolitik bei. Sowohl Schulbildung, be-rufliche Bildung als auch die informelle Bil-dung, Medien, das Fernsehen, Stiftungsprojekte und Museen seien gefragt, durch ihre Bildungs-konzepte das Thema Nachhaltigkeit weiterzu-entwickeln und den Menschen zu vermitteln. In diesem Zusammenhang erhofft sich der Rat einen signifikanten deutschen Beitrag zu der von 2005 bis 2014 andauernden UN-Dekade „Bil-dung für nachhaltige Entwicklung“.

Nach Ansicht des Rates ist Deutschland noch nicht auf einem guten Weg in Richtung einer nachhaltigen Entwicklung und dies, ob-wohl eine Renaissance der Werteorientierung der Momentaufnahme zu entnehmen sei und obwohl es ein hohes Maß an Unzufriedenheit mit der Werteorientierung des gesellschaftli-chen Lebens gebe. Künftig sollte deutlicher werden, dass mit dem Thema Nachhaltigkeit kulturelle und gesellschaftliche Werte verbun-den sind, die zu einem Motor für zukünftige Entwicklungen werden können.

Die Momentaufnahme zeige, so der Rat, dass viele Menschen die Idee der Nachhaltigkeit aufgreifen und sie mit kreativen und engagierten Initiativen in Bewegung halten – sowohl in der Wirtschaft, als auch in vielen Teilen der Zivilge-sellschaft. Bei der Gestaltung einer umwelt- und sozialgerechteren Zukunft spielen diese Aktivi-täten eine viel wichtigere Rolle als in der Politik oft wahrgenommen werde. Dennoch befinde sich die Nachhaltigkeitsdebatte in einem läh-menden Spagat zwischen der Unzufriedenheit mit dem Bestehendem und der Befürchtung von Zukünftigem. Die Erkenntnis der Nicht-Nach-haltigkeit werde begleitet von einer Angst, un-missverständlich aufzuzeigen, was sich Gegen-wartspolitik noch leisten könne und was nicht. Sie stehe den gesellschaftlichen Triebkräften entgegen, die Generationengerechtigkeit im Blick haben und sich für eine innovative Zu-kunftsgestaltung einsetzen. Diese Kräfte und Impulse seien eine Kreativitätsreserve unserer Gesellschaft für Nachhaltigkeit. Ihr Potenzial dürfe nicht gering geschätzt werden und als

verträumter Umweltdiskurs oder als Zukunfts-moralismus abgetan werden.

Die Nachhaltigkeitsdebatte um Ziele und Handlungsansätze offenbart nach Ansicht des Rates an vielen Stellen große Orientierungsdefi-zite. Viele gute Schritte in die richtige Richtung würden durch Widersprüche, Gegenkräfte und Gleichzeitigkeiten konterkariert. Als Beispiel wird die Wirtschaft genannt: Einige führende Unternehmen integrieren Nachhaltigkeit in ihre Unternehmenspolitik. Mit Initiativen zur Nach-haltigkeitsberichterstattung und zur integrierten Produktentwicklung werden sie zum Vorreiter und zu einem treibenden Faktor in der Gesell-schaftsbilanz zur Nachhaltigkeit. Gleichzeitig aber werde Nachhaltigkeit in der Breite der Wirtschaft als „Modethema“, gut für bessere Zeiten, verstanden und kaum aktiv aufgefasst. Viele Unternehmensaktivitäten verleihen ein-fach den bestehenden Umweltmaßnahmen ein neues Etikett und seien nicht in der strategischen Unternehmensplanung verankert.

Vielfach wurde in den Diskussionen be-mängelt, dass der Begriff Nachhaltigkeit in-haltsleer zur Worthülse verkomme. Der Rat sieht das jedoch nicht nur negativ, vielmehr könne der häufige Gebrauch des Wortes, auch wenn er unsachgemäß erscheine, zu einem Anknüpfungspunkt für die politische Diskussi-on werden, um die es eigentlich gehe. Dem Befund der begrifflichen Unklarheit stehe die zur Hoffnung Anlass gebende Beobachtung entgegen, dass die Diskussionen um Nachhal-tigkeit ein Reservoir an Lösungsideen öffnen könnten. Wie wenige andere Debatten fordere die Nachhaltigkeitsdiskussion eine Kompetenz, die weit über die fachliche Qualifikation für eine Sachfrage hinausgehe. Jeder Nachhaltig-keitsexperte sei immer auch in seinen privaten Rollen als Bürger, Nachbar, Arbeitnehmer u. a. gefragt. Nachhaltigkeit sei daher per se dialo-gisch und eröffne viele Wege für eine partizi-pative Zukunftsgestaltung. Parallel dazu grün-den sich branchenübergreifende Initiativen, in denen Unternehmen über die eigene Marktver-antwortung hinaus neue Allianzen mit gesell-schaftlichen Akteuren organisieren. Diese wi-dersprüchlichen Trends wiesen auf ein Orien-tierungsdefizit, dass zugleich eine reichhaltige Gestaltungsreserve für Nachhaltigkeit biete.

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 83

Page 84: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-INSTITUTIONEN UND -PROGRAMME

5 Nachhaltigkeit als Suchraum

Wie die politische Diskussion in Zukunft aus-sehen wird, ist heute noch nicht abzusehen. Nach Ansicht des Nachhaltigkeitsrates habe sich aber gezeigt, dass der öffentliche Diskurs um Nachhaltigkeit jenseits der Debatte um Begrifflichkeiten als ein Such- und Lernpro-zess geführt werden müsse, in dem Problemer-kenntnis, Ziele und Handlungsansätze disku-tiert werden. Weil die Suche viele mögliche Wege biete, erscheint ein solches Nachhaltig-keitsverständnis als schwierige Herausforde-rung. Es eröffne aber zugleich eine Chance für einen neuen Zugang zum „Management der öffentlichen Dinge“: Im Sinne eines Such-raums verstandene Nachhaltigkeitspolitik will nicht klassische Verfahren ersetzen, sondern ergänzen und für alle Nachhaltigkeitsinteres-sierten und Akteure öffnen. Nicht weniger Po-litik sei nötig, sondern mehr: mehr Politik von Nichtpolitikern, mehr Zugang und Teilhabe von Akteuren, Partizipation und Transparenz.

Der Diskurs soll weitergehen – das Format des Diskurses sollte weiterentwickelt werden. Das war der Wunsch der Teilnehmer des Dis-kurses, dem sich der Nachhaltigkeitsrat an-schließt. Es gibt keinen anderen Raum, in dem Zukunftsfragen so umfassend und fruchtbar diskutiert werden können wie im Rahmen des gesellschaftlichen Diskurses zur nachhaltigen Entwicklung. Wichtig für eine Fortsetzung erscheint nach Ansicht des Rates vor allem eine thematische Fokussierung – und die Über-brückung der Kluft zwischen gesellschaftli-chem Diskurs und Nachhaltigkeitsstrategie der Bundesregierung.

Literatur IFOK, RNE, 2004: Momentaufnahme Nachhaltig-keit und Gesellschaft. Berlin, Bericht hrsg. vom Rat für Nachhaltige Entwicklung, texte Nr.8, Juni 2004. Rat für Nachhaltige Entwicklung, 2004: Nachhaltig-keit im Visier. Gesellschaft fordert Politik – Unsere Schlussfolgerungen. Berlin, Bericht hrsg. vom Rat für Nachhaltige Entwicklung, texte Nr.9, Juni 2004.

Kontakt

Dr. Christiane Averbeck / Kira Crome Rat für Nachhaltige Entwicklung (RNE) Reichpietschufer 50, 10785 Berlin Tel.: +49 (0) 30 / 25 49 - 17 80 Fax: +49 (0) 30 / 25 49 - 17 85 Internet: http://www.nachhaltigkeitsrat.de

Arved Lüth / Alexander Nick Institut für Organisationskommunikation (IFOK) Berliner Ring 89, 64625 Bensheim Tel.: +49 (0)62 51 / 84 16 - 23 Fax: +49 (0) 62 51 / 8416 - 16 Internet: http://www.ifok.de

« »

Seite 84 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 85: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-KONZEPTE UND -METHODEN

TA-KONZEPTE UND -METHODEN

BioMedical Technology As-sessment: modulare Folgener-fassung und perspektivensen-sitive Bewertung biomedizini-scher Innovationen

von Regine Kollek, Forschungsschwer-punkt Biotechnik, Gesellschaft und Umwelt, Universität Hamburg (BIOGUM)

Die Technikbewertung in der Medizin kon-zentriert sich zumeist auf die unmittelbaren gesundheitlichen Konsequenzen des medi-zinischen Technikeinsatzes für die Patien-ten. Viele moderne (bio-)medizinische Ver-fahren und Techniken betreffen jedoch in ihrer Reichweite nicht nur einzelne Individu-en oder Gruppen, sondern Gesundheitssys-tem und Gesellschaft als Ganzes. Das Health Technology Assessment (HTA) versucht, den sich dadurch stellenden Herausforde-rungen für eine umfassende und systemati-sche Bewertung gerecht zu werden. Dieser Anspruch wirft jedoch methodische und konzeptionelle Fragen auf, die bislang noch nicht befriedigend gelöst sind. Das vorge-schlagene Bewertungskonzept eines BioMe-dical Technology Assessment (BMTA) eröff-net die Möglichkeit, die Beschränkung und die Probleme derzeitiger HTA-Konzepte zu überwinden. Es erlaubt, sowohl „harte“ me-dizinische wie „weiche“ soziale Konsequen-zen einer biomedizinischen Technologie zu erfassen und sie in ein einheitliches Bewer-tungsschema zu integrieren, das der Vieldi-mensionalität technikinduzierter Effekte und der Multiperspektivität der Bewertungen Rechnung trägt.

1 Hintergrund

Weltweit zu beobachtende Knappheitsphäno-mene im Bereich der Gesundheitsversorgung haben das Interesse an der Bewertung medizi-nischer Techniken in den letzten Jahren deut-lich erhöht. Die Technikbewertung soll zum einen dazu beitragen, Entscheidungen über den Einsatz von Techniken im Bereich der Medizin

rationaler zu machen. Zum anderen soll sie zu selektionswirksamen Ergebnissen führen – und zwar nicht nur im Bereich der Medizin, son-dern auch im Hinblick auf gesellschaftliche Prioritätensetzungen bei der Förderung wissen-schaftlicher und medizinischer Entwicklungen und ihrer Regulierung.

Die Technikbewertung in der Medizin hat eine gewisse Tradition. Zunächst ging es dabei um die Ermittlung und Bewertung direkter Wirkungen und Nebenwirkungen neuer Medi-zintechniken und Produkte, zu denen nicht nur Apparate und Instrumente im konventionellen Sinne, sondern auch Diagnostika und vor allem Medikamente gehören. Goldstandard der Eva-luation unmittelbarer Interventionsfolgen sind kontrollierte klinische Studien. Die während der letzten Jahre erstarkte Evidence Based Me-dicine (EBM) leistet dabei durch systematische Reviews oder Meta-Analsysen des zu einer Technik verfügbaren Datenmaterials formale Selektionshilfe. Die EBM ist in ihrem Prob-lemhorizont allerdings eingeschränkt:

• Zum einen reflektiert sie nur das Leistungs-vermögen einer Technik unter optimalen Studienbedingungen (efficacy), sagt aber nur wenig über deren Leistungsfähigkeit un-ter Praxisbedingungen (effectiveness) aus.

• Zum anderen blendet sie eine Vielzahl von Fragen aus, die zwar mit dem Einsatz medi-zinischer Technik aufgeworfen, aber im Rahmen naturwissenschaftlich orientierter Studiendesigns nicht erfasst werden.

Von daher wird schon seit langem gefordert, das Aufgabenspektrum der Technikfolgenab-schätzung und -bewertung in der Medizin nicht nur auf die klinischen oder bestenfalls noch ökonomischen Aspekte zu beschränken, son-dern auf gesellschaftlich vermittelte Aspekte wie psychische, soziale, kulturelle, rechtliche und ethische Implikationen auszudehnen.

2 Probleme des umfassenden Anspruchs von HTA

Das Ergebnis dieser Diskussionen war die Entwicklung eines Rahmenkonzeptes für ein Health Technology Assessment (HTA), das sich als „umfassende und systematische Bewertung der direkten und indirekten Folgen der Anwen-dung neuer oder bereits auf dem Markt befind-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 85

Page 86: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-KONZEPTE UND -METHODEN

licher Technologien hinsichtlich ihrer physika-lischen, biologischen, medizinischen und öko-nomischen, aber auch ihrer psychologischen und sozialen, gesellschaftlichen und ökologi-schen, juristischen und ethischen Wirkungen im Rahmen einer strukturierten Analyse“ ver-steht (Sachverständigenrat 1998, S. 95).

Das HTA hat also gegenüber der EBM ei-nen erheblich erweiterten Anspruch. Dieser ist gut zu begründen. Viele medizinische, vor allem aber moderne biomedizinische und gene-tische Verfahren verfügen nicht nur über eine hohe Eingriffstiefe, sondern auch ihre Wirkun-gen sind von großer Reichweite. Sie betreffen nicht nur das Individuum, sondern auch das Gesundheitswesen und die Gesellschaft als Ganzes – möglicherweise für eine lange Zeit. Beispiele für solche Technologien sind die Organtransplantation mit dem ihr zugrunde gelegten Hirntodkonzept, die modernen Gen- und Fortpflanzungstechnologien und die da-durch aufgeworfenen Fragen nach Menschen-bild und Menschenwürde, aber auch Medika-mente, die das Verhalten modulieren und/oder eine Anpassung an Normvorstellungen von Leistung und Verhalten zum Ziel haben.

Diese Erweiterung der Perspektive über die unmittelbaren Wirkungen einer Medizin-technologie hinaus erzeugt jedoch verschiedene Probleme1:

• Zum einen wird die Technikfolgenabschät-zung durch die Einbeziehung psychischer und sozialer Aspekte mit einer Vielzahl von relativ „weichen“ Ergebnisdimensionen (outcomes) konfrontiert, die nur schwer zu erforschen und nicht oder nur schwer zu quantifizieren sind.

• Zweitens basiert das HTA und seine Ver-fahren auf Prämissen, Zielsetzungen und Selektivitäten, die normative Voraussetzun-gen und Implikationen haben. Dadurch wird die Trennung von empirischen und norma-tiven Aspekten im HTA-Prozess teilweise problematisch.

• Drittens bleibt offen, in welcher Weise die Ergebnisse der Analyse verschiedener Berei-che und Folgendimensionen konzeptionell miteinander verknüpft und in ein einheitli-ches Bewertungsschema integriert werden können. Dieses Problem stellt sich in der Technikfolgenabschätzung der modernen Biotechnologie in der Medizin verschärft, da

hier die Bewertungsdimensionen, in denen so genannte „weiche“ Fakten evaluiert werden, von besonderer Bedeutung sind.

Um diesen Problemen Rechnung zu tragen, bedarf es integrierter Bewertungskonzepte, die nicht nur in der Lage sind, qualitative Ergeb-nisse systematisch darzustellen, sondern die auch den Wertbezug empirischer Befunde re-flektieren und der Vielfalt und Relativität von Perspektiven, Orientierungsmustern und Be-wertungsmaßstäben gerecht werden.

3 Integrierte Bewertungskonzepte: Multi-dimensional und perspektivensensitiv

3.1 BioMedical Technology Assessment

Das von uns entwickelte Konzept des BioMedi-cal-Technology Assessment (BMTA)2 versucht, die Zielvorgabe der Multidimensionalität und -perspektivität technikinduzierter Folgen ernst zu nehmen. Entscheidend ist deshalb zunächst, dass alle relevanten Bewertungsdimensionen berücksichtigt und gegebenenfalls auch in ih-ren widersprüchlichen Ergebnissen dokumen-tiert werden. Dies erfordert, dass die Erkennt-nisse über unterschiedliche Dimensionen des Nutzens biomedizinischer Innovation, über ihre Risiken, über die unterschiedlichen Arten und Verteilungsformen der Kosten sowie über die Einbettungsverhältnisse der untersuchten tech-nischen Artefakte in medizinische und nicht-medizinische Anschlusshandlungen bzw. Sys-temkontexte in einer systematisierenden Sy-nopse dargestellt werden. Darüber hinaus müs-sen die nur schwer formalisierbaren „weichen“ Wirkungen konsequenter in die Bewertung einbezogen und auch in ihrer Perspektivenab-hängigkeit und Widersprüchlichkeit wahrge-nommen werden. Das Konzept zielt daher vor allem darauf ab, die Perspektive offen zu legen, aus der heraus die Kriterien der Bewertung bestimmt, die jeweils berücksichtigten Fakto-ren ausgewählt und die methodischen Wei-chenstellungen und Entscheidungen getroffen werden. Eine Voraussetzung dafür ist aller-dings, dass die Wirkungsdimensionen, die aus der Perspektive unterschiedlicher Akteure von unterschiedlicher Relevanz sind, möglichst vielschichtig und differentiell erfasst werden.

Seite 86 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 87: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-KONZEPTE UND -METHODEN

3.2 Multifaktorenkonzept: Modulare Er-fassung und summarische Bewertung

Ein geeigneter Weg, die Vielzahl und Vielfalt der Bewertungsdimensionen und Einzelfakto-ren angemessen zu berücksichtigen, scheint uns eher in einer summarischen Darstellung der Ergebnisse zu liegen, als in der Anwendung formaler Kalküle. Letztere sind zwar in der Lage, zumindest rechnerisch eindeutige Ergeb-nisse zu liefern. Allerdings werden sie gerade deshalb der Komplexität des Gegenstandes häufig nicht gerecht, da alles, was nicht in das Raster passt und sich der kriteriengeleiteten Quantifizierbarkeit entzieht, nicht wahrge-nommen oder marginalisiert wird.

Dabei droht natürlich die Gefahr, dass ein solches Konzept aus den Fugen gerät. Dies ist einer der Gründe, warum wir eine modulare Strategie vorschlagen (Feuerstein und Kollek 2002). Die Spezifizierung der Module richtet sich dabei nach den durch die Anwendung der Technik erwartbaren Settings und Implikatio-nen. Im Blick auf genetische Tests und Screen-ings, die unter den neuen biomedizinischen Techniken eine zentrale Rolle einnehmen, erscheinen beispielsweise folgende Module sinnvoll:

Modul 1: Test- und Beratungssetting Modul 2: Medizinische Implikationen Modul 3: Psychische und soziale Implikationen Modul 4: Ökonomische Implikationen Modul 5: Fernwirkungen und Rückkopplungs-

effekte

Der Vorteil einer solchen Modularisierung ist, dass die Evaluation und Bewertung der Module zunächst separat erfolgen kann. Ändert sich im Zuge der Weiterentwicklung etwas an den technischen Eigenschaften des jeweiligen Arte-fakts, oder an den Rahmenbedingungen seiner Anwendung, ist es nicht notwendig, den gan-zen Evaluierungsprozess zu wiederholen. Vielmehr kann er auf die Re-Evaluierung der-jenigen Module beschränkt werden, in denen entscheidende Veränderungen stattgefunden haben. Insofern ist ein solches modulares Kon-zept in der Lage, flexibel auf eine dynamische Technikentwicklung zu reagieren, ohne dass dies in jedem Einzelfall eine vollständige Neu-Evaluierung erfordern würde.

Um die Befunde, die in den jeweiligen Modulen erhoben werden, sinnvoll in ein Be-wertungskonzept zu integrieren, bedarf es einer kriteriengeleiteten und vor allem transparenten Gewichtung der Module. Wie diese im Einzel-fall aussehen soll, wäre vorzugsweise zu Be-ginn des Evaluationsprozesses und ggf. unter Beteilung relevanter Akteure festzulegen. Die Ergebnisse der diversen Modulbewertungen würden dann auf Basis dieser Gewichtung zu einer Gesamtbewertung des untersuchten Ver-fahrens oder Produktes verdichtet.

Das modulare Vorgehen hat den weiteren Vorteil, dass damit nicht nur die separate Evalu-ierung und Bewertung bestimmter Teilsegmente einer wissenschaftlich-technischen Entwicklung ermöglicht wird, sondern dass auch Leistungs- und Nebenwirkungsprofile unterschiedlicher Verfahren miteinander verglichen werden kön-nen. Darüber hinaus ermöglicht es weiterhin die separate Evaluierung alternativer Entwicklungen und Entwicklungspfade und ihre nachträgliche Integration in das Gesamtkonzept.

3.3 Perspektivensensitivität des Bewer-tungskonzeptes

Dies ist vor allem dann sinnvoll, wenn es sich dabei um relativ neue Technologien handelt, deren Implementation gerade begonnen hat und deren Folgenspektrum noch nicht festgelegt ist. Diese Situation ist charakteristisch für viele der neuen biomedizinischen Technologien, wie beispielsweise prädiktive Gentests oder geneti-sche Screenings. Letztere lassen für die per-spektivenabhängige Konstruktion des Nutzens einen allein schon deswegen breiten Raum, weil zahlreiche Kosten-Nutzen-Faktoren unzu-reichend erforscht sind und eine oft sehr wider-sprüchliche Erkenntnislage über Eigenschaften, Effekte und Nebeneffekte der Technik besteht (Feuerstein und Kollek 2002, S. 40 f.).

Die Interessen, die verschiedene Akteurs-gruppen an der Verbreitung genetischer Tests oder Screenings haben, können ganz unter-schiedlich sein. Beispielsweise realisiert sich der ökonomische Nutzen eines Gentests für Test- und Gerätehersteller oder medizinische Spezial-labors bereits mit seiner Verbreitung, und zwar unabhängig von seinem konkreten medizini-schen Nutzen. Für die Patienten sind demgegen-über ökonomische Aspekte so lange irrelevant,

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 87

Page 88: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TA-KONZEPTE UND -METHODEN

wie sie sich nicht an der Kostenerstattung betei-ligen müssen. Wichtig sind für sie allerdings die indirekten, psychosozialen Kosten eines geneti-schen Screenings, die sie selber zu tragen haben. Aus der Perspektive der Gesundheitspolitik und der Krankenversicherungsträger stehen wiede-rum die direkten Kosten- und Folgekosten, teils aber auch die kostenrelevanten Risiken und der einsparungsrelevante Nutzen solcher Screenings im Mittelpunkt des Interesses. Unsere kürzlich publizierte Studie zur Pharmakogenetik zeigt, wie unterschiedlich diese Perspektiven sind, und welchen Einfluss sie auf den Implementations- und Diffusionsprozess einer Medizintechnologie haben können (Kollek et al. 2004, S. 89 ff.).

Offensichtlich lässt sich aus der Vielzahl von unterschiedlichen und widersprüchlichen Perspektiven keine ideelle Metaperspektive konstruieren, die sämtliche Aspekte des Ge-genstandes und seiner Implikationen in sich vereint. Vor diesem Hintergrund erscheint es uns notwenig, dass ein Bewertungskonzept explizit die Möglichkeit bietet, sich auf die Perspektive einer definierten Akteursgruppe (z. B. Patienten, Leistungsanbieter) oder eines relevanten Subsystems (wie z. B. Krankenkas-sen, Gesundheitssystem) zu beziehen und aus dieser Perspektive heraus begründete Selekti-onsentscheidungen hinsichtlich der zu berück-sichtigenden Faktoren und der anzuwendenden Kriterien vorzunehmen.

Das bedeutet nicht, dass damit die bisher innerhalb der Technikbewertung in der Medi-zin entwickelten bzw. verwendeten Konzepte und Methoden obsolet werden. Die EBM wird auch innerhalb der von uns vorgeschlagenen Weiterentwicklung des HTA-Konzeptes für die Evaluierung und Bewertung moderner Bio-technologien in der Medizin ihren Stellenwert behalten. Sie ist unverzichtbar, wenn es darum geht, die wissenschaftlich-technischen und klinischen Charakteristika biomedizinischer Techniken zu evaluieren. Bei allen Grenzen, die solche Verfahren haben, ist ein Rückgriff auf ihre Ergebnisse nicht nur wegen des Auf-wandes einer eigenständigen Evaluation kaum zu umgehen, sondern auch wegen des Mangels an Alternativen. Dennoch muss der Vieldimen-sionalität der Effekte moderner biomedizini-scher Technologien durch Weiterentwicklung existierender Evaluations- und Bewertungs-konzepte Rechnung getragen werden.

Anmerkungen

1) Kollek und Feuerstein 1998; Heitmann 1998; Feuerstein, Kollek und Uhlemann 2000; Droste, Gerhardus und Kollek 2003.

2) Kollek und Feuerstein 1998, Feuerstein, Kollek und Uhlemann 2000, S.237ff.

Literatur

Droste, S.; Gerhardus, A.; Kollek, R., 2003: Metho-den zur Erfassung ethischer Aspekte und gesell-schaftlicher Wertvorstellungen in Kurz-HTA-Be-richten – eine internationale Bestandsaufnahme. Köln: Health Technology Assessment. Schriftenrei-he des DIMDI Kollek, R.; Feuerstein, G., 1998: BioMedical Tech-nology Assessment (BMTA). Hamburg: Forschungs-schwerpunkt Biotechnik, Gesellschaft und Umwelt Kollek, R.; Feuerstein, G., Schmedders, M.; van Aken, J., 2004: Pharmakogenetik: Implikationen für Patienten und Gesundheitswesen. Anspruch und Wirklichkeit der ‚individualisierten Medizin’. Baden-Baden: Nomos Heitman, E., 1998: Ethical Issues in Technology Assessment. Conceptual Categories and Procedural Considerations. International Journal of Technology Assessment in Health Care 14 (3), S. 544-566 Feuerstein, G.; Kollek, R., 2002: Ethik von Screening Rationalitäten. Teil II. Konzeptionelle Probleme und mögliche Ansatzpunkte einer transparenten Bewer-tung genetischer Screenings – am Beispiel prädiktiv probabilistischer BRCA-Tests. BMBF-Projekt 01KU9907/7, Endbericht, Hamburg: Forschungs-schwerpunkt Biotechnik, Gesellschaft und Umwelt Feuerstein, G.; Kollek, R.; Uhlemann, T., 2000: Gentechnik und Krankenversicherung. Neue Leis-tungsangebote im Gesundheitssystem. Baden-Baden: Nomos Sachverständigenrat für die Konzertierte Aktion im Gesundheitswesen, 1998: Sondergutachten 1997. Gesundheitswesen in Deutschland, Band II. Baden-Baden: Nomos

Kontakt

Prof. Dr. Regine Kollek FSP BIOGUM, FG Medizin/Neurowissenschaften Universität Hamburg Falkenried 94, 20251 Hamburg E-Mail: [email protected]

« »

Seite 88 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 89: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE

ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE

Biologisch-dialogisch: Risiko-kommunikation zu Grüner Gen-technik

von Markus Hertlein, Eva Klotmann, Chris-toph Rohloff, IFOK GmbH – Institut für Or-ganisationskommunikation

Im Projekt „Dialogmanagement Biologische Sicherheitsforschung“ erarbeitete das Insti-tut für Organisationskommunikation (IFOK) für das BMBF mit Standortdialogen und Fo-kusgruppen Empfehlungen zur Risikokom-munikation. Zusätzlich erstellte IFOK eine Studie über kommunikatives Risikomana-gement. Im Ergebnis zeigte sich, dass das Potenzial professioneller Risikokommunika-tion zu Biologischer Sicherheitsforschung, aber auch zu anderen potenziellen Risiko-technologien noch nicht voll ausgeschöpft ist. In den Empfehlungen werden Maßnah-men zur verbesserten Risikokommunikation vorgeschlagen, die unterschiedliche Risiko-dimensionen in einen integrierten Risikoma-nagementansatz mit einbeziehen.

Die kommerziellen Anwendungen aus biotech-nologischen Verfahren bleiben in der Öffent-lichkeit weiterhin umstritten. Besonders im Bereich der Grünen Gentechnik sind die Fron-ten zwischen Befürwortern und Gegnern seit Jahren verhärtet. Positiven Effekten, zum Bei-spiel Schädlingsbekämpfung mit weniger Pes-tiziden oder verbesserte Ernährungssicherheit durch qualitativ hochwertigere Erträge, stehen mögliche, noch unbekannte Auswirkungen auf das ökologische Gleichgewicht oder mögliche Beeinträchtigungen der Gesundheit von Mensch und Tier gegenüber. Die Food and Agricultural Organisation argumentiert, dass sich mit gen-technisch verändertem Reis Hunger und Vita-minmangel in Entwicklungsländern besser bekämpfen ließen (FAO 2004). Kritiker argu-mentieren, dass die Industrien der OECD-Welt lediglich neue Absatzmärkte suchten und ver-schärfte ökonomische Abhängigkeiten provo-

zierten. Schließlich manifestiert sich der Kon-flikt auch in den nationalen und internationalen Wettläufen um Arbeitsplatzsicherung und Wettbewerbsförderung, die mit den Prinzipien des Vorsorgeprinzips, der Koexistenz und der Wahlfreiheit konkurrieren.

Vor diesem Hintergrund begleitet das Bundesministerium für Bildung und Forschung (BMBF) schon seit 1987 die Entwicklung der Grünen Gentechnik in Deutschland mit Maß-nahmen zur Biologischen Sicherheitsfor-schung. Hier sollen vor allem die biologischen und ökologischen Folgen der Freisetzung gen-technisch veränderter Pflanzen (GVP) wissen-schaftlich untersucht und entsprechende Vor-schläge u. a. auch zum Monitoring und Risi-komanagement von GVPs erarbeitet werden.

Doch auch die Biologische Sicherheitsfor-schung birgt gesellschaftliches Konfliktpotenzi-al. Die Freisetzung von GVPs in Feldversuchen führt immer wieder zu Protestaktionen und auch Feldzerstörungen. Kritiker der Biologischen Sicherheitsforschung führen zwei Argumente ins Feld. Zum einen sei Sicherheitsforschung nichts anderes als „Akzeptanzforschung“, die den allgemeinen Einsatz von GVPs vorbereiten soll. Zum anderen weisen sie auf ein Paradox hin, das der Biologischen Sicherheitsforschung innewohnt: Sie provoziert für ihre Forschungs-ziele genau jene ungewollten Auskreuzungsrisi-ken, die sie beherrschen will. In geschlossenen Experimenten ist dies das herkömmliche Ver-fahren zur Risikoerforschung und -bewertung. In offenen Naturräumen hingegen lässt sich die unkontrollierte Auskreuzung mit möglicherwei-se irreversiblen Folgen nicht mehr ausschließen (vgl. hierzu allgemein Bechmann, Stehr 2000).

1 Das Projekt Dialogmanagement Biologi-sche Sicherheitsforschung

Dem BMBF-Förderschwerpunkt „Sicherheits-forschung und Monitoring“ lag die Idee zugrun-de, einen naturwissenschaftlichen Forschungs-verbund, in dem Projekte der Biologischen Si-cherheitsforschung gefördert werden, mit einer Reihe begleitender Projekte zu verknüpfen. Vor dem Hintergrund der gesellschaftlichen Rele-vanz Biologischer Sicherheitsforschung sollten neben den naturwissenschaftlichen Förderpro-grammen von Beginn an auch Maßnahmen zum Dialogmanagement Biologischer Sicherheitsfor-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 89

Page 90: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE

schung erprobt werden. Die Aufgabe dieser begleitenden Projekte bestand unter anderem darin, die vom BMBF geförderte Forschung in der Öffentlichkeit bekannter und deren Ergeb-nisse einer breiten Öffentlichkeit zugänglich zu machen. IFOK, das Institut für Organisations-kommunikation, erforschte hierzu in Kooperati-on mit dem Institut für Wissenschafts- und Technikforschung an der Universität Bielefeld über einen Zeitraum von drei Jahren (April 2001 – Juni 2004) dialogische Maßnahmen zur kom-munikativen sowie zur verfahrensrechtlichen Begleitung Biologischer Sicherheitsforschung (IFOK 2004).

Die für das Projekt geplanten Standortdia-loge zwischen Sicherheitsforschern und Bür-gern sollten dabei über einen bloßen Informati-onsaustausch hinausgehen. Moderierte Ge-sprächsrunden sollten es ermöglichen, Vorur-teile abzubauen, Missverständnisse aus dem Weg zu räumen und auf beiden Seiten neue Bewertungsmöglichkeiten der jeweiligen Wahrnehmung der Faktenlage zu ermöglichen.

Im Projektverlauf zeigte sich jedoch, dass die Sicherheitsforscher und Standortbetreiber das bekannt werden ihrer Forschungsstandorte und damit möglicherweise einhergehende Feldzerstörungen befürchteten. Kritische An-rainer und Gentechnikgegner kritisierten man-gelnde Ergebnisoffenheit des Dialogprojekts. Zudem war das Konzept „Biologische Sicher-heitsforschung“ vielen Bürgern nicht geläufig und die Unterscheidung zwischen forschungs-getriebener und kommerzieller Aussaat blieb aus der Risikowahrnehmung der Anrainer he-raus nicht ausreichend nachvollziehbar.

In einer daraufhin veränderten Projektan-ordnung wurde nun eine durch das Zufallsprin-zip zusammengestellte Fokusgruppe mit Si-cherheitsforschern zusammengeführt, die ge-meinsam Empfehlungen zur Kommunikation der Biologischen Sicherheitsforschung erarbei-ten sollten. Der Schwerpunkt der Gespräche verlagerte sich dabei schnell von speziellen Fragen zur Biologischen Sicherheitsforschung auf grundsätzlichere Fragen Grüner Gentech-nik. Sind gentechnisch veränderte Lebensmittel noch natürlich? Wo ist der Punkt erreicht, an dem eine Rückkehr zu konventionellem Anbau und gentechnikfreien Produkten nicht mehr möglich ist? Welche Kontrollmöglichkeiten habe ich als Verbraucher?

Es zeigte sich in der Fokusgruppe deut-lich, dass die Teilnehmer in einer moderierten Diskussion durchaus differenziert, sachlich und auch gemeinwohlorientiert mit den Sicherheits-forschern argumentieren konnten und wollten. Der aus den Naturwissenschaften oft zu hören-de Vorwurf, dass Laien Expertenwissen nicht verstünden, konnte somit nicht bestätigt wer-den. Unsere Beobachtungen zeigten vielmehr, dass beide Seiten Schwierigkeiten hatten, die Kommunikationsebene und Rationalität der jeweils anderen Seite überhaupt anzuerkennen. Kommunikationsschwierigkeiten waren somit auf die ungenaue Adressierung der jeweiligen Risikodimensionen (Sach- und Wissensebene versus ethische und normative Dimension) zurückzuführen und weniger auf mangelndes Sachwissen oder Urteilsvermögen.

2 Lessons learned? Handlungsempfehlun-gen für Behörden und Unternehmen

In der Auswertung des Projekts und im theoreti-schen Studienteil interessierte uns daher vor allem, wie unterschiedliche Risikodimensionen kommunikativ besser adressiert werden können. Das mögliche aneinander vorbeireden von Si-cherheitsforschern und Bürgern weist zumindest auf den Verbesserungsbedarf von Risikokom-munikation hin (Hampel, Renn 2001).

Theoretisch lassen sich drei derartige Risi-kodimensionen unterscheiden: Wissenskonflik-te, Unsicherheitskonflikte und Wertekonflikte. Bei den Wissenskonflikten geht es um die Inter-pretation komplexer sachlicher Zusammenhän-ge: Kann eine gentechnisch veränderte Pflanze mit Wildpflanzen auskreuzen? Was passiert, wenn es zu Hybriden kommt? Bei Unsicher-heitskonflikten hingegen geht es um Unsicher-heit als Folge von „Nichtwissen“: Wie hoch ist die Wahrscheinlichkeit, dass sich besonders angepasste genetisch veränderte Wildpflanzen evolutiv einen Vorteil verschaffen und sich un-gebremst fortpflanzen? Konflikte, bei denen es um die unterschiedliche moralische oder weltan-schauliche Bewertung solcher Fragen geht, sind Wertekonflikte: Wiegen die Risikopotenziale irreversibler Auskreuzungen die positive Wir-kung auf die Ernährung in der Dritten Welt auf?

Kommunikatives Risikomanagement mit dieser Zielgenauigkeit und mit antizipierendem Anspruch steckt jedoch noch in den Kinder-

Seite 90 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 91: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE

schuhen. Ohne professionelle Dialoggestaltung besteht bei der Einführung neuer Technologien immer wieder aufs Neue die Gefahr, dass ge-sellschaftliche Konfliktpotenziale eskalieren und sich die ökonomische und ökologische Chancenauswertung verzögert und verteuert (Carius, Renn 2003). Basierend auf den Beo-bachtungen im Projekt „Dialogmanagement Biologische Sicherheitsforschung“ und dem theoretischen Studienteil wurde als Empfeh-lung folgende Leitthese für eine „risikointeg-rierte Innovationsstrategie“ formuliert:

Risikotechnologien, wie die zahlreichen biotechnologi-schen Anwendungen, aber auch zunehmend die Nano-technologie und konvergente Technologien, erfordern eine professionelle dialogische Begleitung mit gezielten Kommunikationsmaßnahmen (vgl. Meili 2003). Minimal-ziel jeder Risikokommunikation sollte dabei die Anbah-nung der Fähigkeit zur Risikoakzeptanz sein. Verantwor-tungsvolle Risikokommunikation bedeutet also, Akzep-tanzfähigkeit zu ermöglichen, nicht jedoch die Akzeptanz selbst herbeizuführen, die der jeweiligen individuellen Entscheidung vorbehalten bleiben sollte.

Folgende Maßnahmen können dieses Ziel unterstützen:

- Forschungsförderung neuer Technologien sollte aktiv gesellschaftspolitisch eingebet-tet werden,

- relevante Diskursebenen und Konfliktdi-mensionen sollten identifiziert und jeweils gezielt mit kommunikativen Maßnahmen adressiert werden,

- Technologiezyklen sollten für eine erfolg-reiche Risikokommunikation vom BMBF, aber auch von Unternehmen antizipierend und strategisch genutzt werden.

Voraussetzung für die Einbettung von For-schungsförderung in einen gesellschaftspoliti-schen Kontext ist, dass politische Akteure ent-scheidungsvorbereitende Partizipation als de-mokratische Grundregel aufwerten. Zwar las-sen sich die meisten Konfliktfälle durch die verfassten Regeln der repräsentativen Demo-kratie kanalisieren. Wenn Regulierer ihre Ka-nalisierungsfunktion jedoch nicht mehr adres-saten-, phasen- und konfliktgerecht wahrneh-men, entwickeln sich möglicherweise diskursi-ve Schieflagen und schwer auflösbare gesell-schaftliche Blockaden.

Um dies zu vermeiden, sollten regulative Entscheidungen bei Risikotechnologien ver-mehrt durch umfassende und mehrschichtige Partizipations- und Mediationsprozesse vorbe-reitet werden. Allerdings dürfen Dialogmaß-nahmen nicht Harmonie und Konsens um jeden Preis bedeuten und bestehende Meinungsunter-schiede zerreden oder weichspülen. Kommuni-kation ist nicht per se gut, sondern sollte – sofern echte Handlungsfreiräume bestehen – auch über den Dissens zu einem begründeten und nachvollziehbaren Sachstand führen. Al-leine mit der Anerkennung der Wertewelt des jeweils anderen durch die streitenden Parteien ist schon viel gewonnen.

Nur geeignete kommunikative Prozesse und Methoden können zu einem zeitnahen gesellschaftlichen Konsens über das jeweils akzeptable Verhältnis von Chancennutzung und Risikoakzeptanz Grüner Gentechnik und anderer Risikotechnologien führen. Grundvor-aussetzung für eine derartige konstruktive Kon-fliktbearbeitung ist die Aufdeckung zugrunde liegender Strukturen und Dynamiken, die kom-plex und wertebehaftet sind. Eine deutliche Schwerpunktverlagerung vom Management technischer Risikoabschätzungen hin zu den kommunikativen Aspekten bei der Regulierung und Implementierung von Risikomanagement-prozessen ist in diesem Sinne überfällig.

Auf der Sachebene sollten zunächst mit Joint Fact Finding-Prozessen Themen identifi-ziert werden, in denen gesellschaftlicher Kon-sens oder Dissens besteht oder in Zukunft zu erwarten ist. Auf der Nutzenebene geht es dann vor allem um die Untersuchung der unter-schiedlichen Interessenlagen. Damit diese Aushandlungsprozesse nicht in ein Nullsum-menspiel münden, in dem der Gewinn des ei-nen den Verlust des anderen bedeutet, sollte eine Lösung gefunden werden, die allen Betei-ligten einen Nutzen beschert (win-win Konstel-lation). Auf der Ebene der Werte und Normen ist es wichtig, dass Wertekonflikte sich nicht mit Sachwissen auflösen lassen. Hier konkur-rieren unterschiedliche Weltbilder und Normen miteinander, die es zu akzeptieren gilt und deren prinzipielle Gleichrangigkeit in einer offenen und pluralistischen Gesellschaft Vor-aussetzung für das respektvolle und friedliche Miteinander sind (vgl. Abb. 1 nächste Seite).

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 91

Page 92: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE

Abb. 1: Matrix risikointegrierter Innovationsstrategien

Matrix risikointegrierter Innovationsstrategien

Dimension 3:Werte

Dimension 2:Nutzen HANDLUNGSFELDER

Dimension 1:Wissen

Phase 4:Exit

Phase 3:Markteintritt/Marktdurch-

dringung

Phase 2:Innovation

Phase 1:Zukunfts-szenarien

Technologie-Zyklus

Konflikt-Dimensionen

In öffentlichen Diskursen ziehen sich Wissen-schaftler jedoch nicht selten auf die ihnen ver-traute Sachebene zurück, während Verbrau-cherschützer und Interessenverbände auf der Nutzenebene argumentieren. Für die Öffent-lichkeit liegt der Schwerpunkt der Diskussion oft auf der normativ-ethischen Ebene. Um die-se Ebenen dialogisch aufeinander zu beziehen, bedarf es auch struktureller und vor allem ver-fahrensrechtlicher Veränderungen im wechsel-seitigen Umgang von Behörden, Unternehmen und Öffentlichkeit (Münte, Bora 2004).

Für behördliche Entscheider und Regulie-rer sollte eine angemessene Risikokonflikt-Analyse für das jeweilige Konfliktfeld zumin-dest die drei Konfliktdimensionen „Komplexi-tät“, „Unsicherheit“ und „Ambiguität“ sowie die drei entsprechenden Diskursebenen Sach-, Nutzen- und Werteebene identifizieren. Zudem sollte bestimmt werden, in welcher Phase sich der Konflikt befindet, wie er sich vermutlich weiter entwickeln wird und welches die jewei-ligen Konflikttreiber sind, bevor über weitere Kommunikations- und Dialogmaßnahmen ent-schieden wird.

Für die Industrie und die anwendungsbe-zogene Forschung gilt, die Risikodimensionen in die jeweiligen Technologiezyklen zu integ-rieren und sie strategisch zu nutzen. So können auf jeder Diskursebene und in der jeweils ge-eigneten Phase ausgewählte Instrumente für klar definierte Akteure und Zielgruppen entwi-ckelt und eingesetzt werden (vgl. Abb. 1).

Literatur

Bechmann, G.; Stehr, N., 2000: Risikokommunika-tion und die Risiken der Kommunikation wissen-schaftlichen Wissens. Zum gesellschaftlichen Um-gang mit Nichtwissen. In: GAIA, Bd. 9, Nr. 2, S. 113-121 Carius, R., Renn, O., 2003: Partizipative Risiko-kommunikation. Wege zu einer risikomündigen Gesellschaft. In: Bundesgesundheitsblatt Gesund-heitsforschung Gesundheitsschutz. Bd. 46, Nr. 7, S. 578-585 FAO, 2004: The State of Food and Agriculture 2003-2004. Agricultural Biotechnology: Meeting the needs of the poor? FAO Report, Rom Hampel, J.; Renn, O. (Hrsg.), 2001: Gentechnik in der Öffentlichkeit. Wahrnehmung und Bewertung einer umstrittenen Technologie. Frankfurt am Main: Campus IFOK – Institut für Organisationskommunikation, 2004: Projektbericht „Dialogmanagement Biologi-sche Sicherheitsforschung“ der IFOK GmbH – Institut für Organisationskommunikation im Auf-trag des BMBF. Bensheim Meili, Chr., 2003: Parallelen zwischen der Gentech-nik- und der Nanotechnologie-Debatte. Eskalation früh verhindern. In: riskBrief. Notizen aus dem Risiko-Dialog, Nr. 4, Dezember 2003, S. 1-2 (hrsg. Stiftung Risiko-Dialog, St. Gallen) Münte, P.; Bora, A., 2004: Strukturprobleme der Kommunikation zwischen Genehmigungsbehörde und Bürgern im Verwaltungsverfahren. Rechtspoliti-sche Empfehlungen für das BMBF auf der Grundlage einer Untersuchung der Kommunikationsstrukturen im gentechnikrechtlichen Anhörungsverfahren.

Seite 92 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 93: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE

Abschlußbericht im Rahmen des Projektteils „Dia-log“ des Projektverbundes „Kommunikationsmana-gement in der Biologischen Sicherheitsforschung“ im BMBF-Förderschwerpunkt „Sicherheitsforschung und Monitoring“. Universität Bielefeld: Institut für Wissenschafts- und Technikforschung (IWT)

Kontakt

Dr. Christoph Rohloff IFOK GmbH – Institut für Organisationskommuni-kation Berliner Ring 89, 64625 Bensheim Tel.: +49 (0) 62 51 / 84 16 - 958 Fax: +49 (0) 62 51 / 84 16 - 16 E-Mail: [email protected]: http://www.ifok.de

« »

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 93

Page 94: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

REZENSIONEN

Theorien der Technikentwick-lung – vom Kopf auf die Füße gestellt Aber auf welche Füße? Und auf wie viele?

U. Dolata: Unternehmen Technik. Akteure, Interaktionsmuster und strukturelle Kon-texte der Technikentwicklung. Berlin: edition sigma, 2003, ISBN 3-89404-500-0, Euro 24,90

Rezension von Fritz Gloede, ITAS

1 Fortschritt durch Technik-Theorie?

Fast 10 Jahre sind vergangen, seit Ulrich Dola-ta seine „Politische Ökonomie der Gentechnik“ vorgelegt hat (Dolata 1996). Deren „Entschleu-nigung durch demokratische Behutsamkeit“, wie sie dem Autor damals angeraten schien (vgl. Gloede 1996), ist offenbar nicht eingetre-ten. Retardierende Momente ihrer Karriere hat die Gentechnik allenfalls selbst erzeugt – nicht zuletzt durch ungehaltene (und wohl auch un-haltbare) Versprechungen.

Dolata hat die Zeit jedoch genutzt, um sei-ne damals oft nur angedeuteten Überlegungen und Thesen über das „Politikfeld Biotechnolo-gie“ hinaus zu generalisieren und zu vertiefen. Nicht weniger beansprucht er mit dem 2003 erschienenen Werk „Unternehmen Technik“, als eine grundsätzliche Auseinandersetzung mit gängigen Gegenwartstheorien der Technikent-wicklung, auch wenn die Gentechnik bei ihm weiterhin als wichtigste empirische Referenz und exemplarischer Anwendungsfall fungiert.

Dieser Sachverhalt schlägt sich überdeut-lich und – wie ich finde – auch etwas unglück-lich nieder, indem das Werk wie einstmals Deutschland zweigeteilt daherkommt1. Wäh-rend der erste Hauptteil einen „Theorierahmen für die Technikanalyse (S.21-142)“ zu entwi-ckeln sucht, widmet sich der zweite Hauptteil vollständig dem (vom Autor sicherlich am intensivsten bearbeiteten) Feld der Gentechnik-entwicklung (S. 143-303), dies jedoch in der programmatischen Absicht, die über jenem

lastende „Dizzy Atmosphere“ ein wenig luzider zu machen, wenn nicht gar zu vertreiben. Ob-wohl Dolata hier konsequent auf die im ersten Teil erarbeiteten Erkenntnisse zurückgreift, muss der dort entfaltete Generalisierungsan-spruch darunter leiden, dass das Werk insge-samt nicht mit einer – sozusagen empirisch gesättigten – Bilanzierung des gewählten Theo-rierahmens, seiner Stärken und ggf. verblei-benden Schwächen schließt.

Lobend sei demgegenüber hervorgehoben, dass der Autor seinem Buch „eine kleine Skiz-ze zur Einführung“ vorangestellt hat, die dem Leser/der Leserin nicht nur die Orientierung im sperrigen und oft „unfassbar unübersichtli-chen“ (S. 239) Gegenstandsbereich erleichtert, sondern zugleich den Stellenwert der nachfol-genden Argumentationsschritte verdeutlicht.

Diesem Beispiel folgend, möchte ich mich bei meinem Kommentar auf zwei Aspekte be-schränken, die beide bereits eine Rolle in mei-ner Rezension seiner Arbeit von 1996 gespielt haben, nämlich

- auf die Frage nach dem Verhältnis von handlungs- und strukturtheoretischen Kon-zepten bei einer Theoretisierung der Tech-nikentwicklung (Abschnitt 2), und

- auf die Frage nach den „Totems und Tabus“ bei der konflikthaften Entfaltung der (natio-nalen wie internationalen) Gentechniknut-zung (Gloede 1996, S. 96).

Ein kleines Schlusswort soll meine Bemerkun-gen dann abschließen.

2 Akteure und Strukturen der Technik-entwicklung – oder: Die Quadratur des Kreises?

Ich hatte damals konstatiert, dass sich in Dola-tas Gentechnik-Monografie eine systematisch entwickelte Antwort auf „grundlegende Fragen nach dem Verhältnis von strukturellen Zwän-gen, Handlungsstrategien organisierter Akteure und sekundären Rationalisierungen sowohl vermeintlicher Zwänge als auch maßgeblicher Handlungsmotive“ (Dolata 1996, S. 97) nicht finden ließe. Soweit sich bereits Widersprüche zwischen einer strukturtheoretischen und einer handlungstheoretischen Rekonstruktion der Gentechnikentwicklung andeuteten, machten diese sich vor allem geltend im Hinblick auf Dolatas normatives Plädoyer für jene bereits

Seite 94 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 95: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

zitierte „Entschleunigung durch demokratische Behutsamkeit“.

Das nunmehr vorgelegte Werk geht die damals nur gestreiften Fragen in der Tat frontal an. Allerdings antwortet Dolata darauf – man möge mir die überspitzende Vereinfachung verzeihen – mit einem entschiedenen „Sowohl als Auch“.

Er versucht sowohl – und mit guten Grün-den – die dominante handlungstheoretische Ori-entierung auf „strategiefähige“ bzw. „organisier-te“ Akteure der Technikentwicklung zu relative-ren, als auch die – nur vermeintlich paradoxe – Kritik an den (ebenfalls handlungstheoretisch konzeptualisierten) Thesen massiver unterneh-merischer Einflussnahme und mangelnden poli-tischen/staatlichen Gestaltungswillens zurück-zuweisen. Letztgenannte Kritik beruft sich an dieser Stelle gern auf ein „System“ administrati-ver Interessenvermittlung, demgegenüber das intentionale Handeln einzelner (wenn auch kor-porativer) Akteure nahezu aussichtslos werde (vgl. Dolata 2003, S. 298). Freilich führt Dolata hier selbst eher systemische Referenzen ins Feld, die nicht so sehr auf die Interessendurch-setzung einzelner Akteure als vielmehr auf die „strukturelle Ökonomisierung“ politischer Ent-scheidungsfindung abstellen. Bei der systemati-schen Betrachtung von „Akteursfigurationen“, die interagierend für die Technikentwicklung maßgeblich werden (S. 77 ff.), beharrt der Autor jedoch darauf, dass klassische handlungstheore-tische Kategorien wie Macht, Konkurrenz und Entscheidung ihre instruktive Bedeutung für die Analyse behalten. Und bereits in der Einführung findet sich sein Credo, ein adäquater theoreti-scher Rahmen der Technikanalyse solle „mit einem breiten Akteursbegriff arbeiten, der die zentrale Bedeutung korporativer Akteure betont, ohne darüber die eigenständige Rolle von Schlüsselpersonen und nichtorganisierten Kol-lektiven (...) zu vernachlässigen.“(S. 16 f.).

In der zusammenfassenden Schlussbetrach-tung des theoretischen Hauptteils wird noch deutlicher, wie Dolata die Koexistenz der unter-schiedlichen Theorieprogramme verstanden wissen möchte – als ein, wie ich es interpretiere – Plädoyer für einen (auch multidisziplinären) Mehrebenen-Ansatz, der sich sowohl auf die Interaktionszusammenhänge von Akteuren als auch auf die diese Zusammenhänge rahmenden strukturellen und systemischen Randbedingun-

gen (Innovations- und Politiksysteme, ökonomi-sche Strukturen, Techniktypen etc.) richtet.

So weit es ihm also darum geht, ein mög-lichst weites und heuristisch nützliches Netz zur Beobachtung und Analyse von Technikentwick-lungen aufzuspannen, lässt sich aus meiner Per-spektive dagegen wenig einwenden. Für eine solche Deutung spricht sicher nicht zuletzt auch Dolatas Eigenanspruch, sein theoretischer Rah-men solle „nicht mit dem Anspruch einer allge-meinen und hermetisch geschlossenen Technik-theorie daherkommen, sondern praxisrelevant sein.“(S. 17) (obwohl sich das letztgenannte Wort für einen auf Konkretisierung bedachten Analytiker eigentlich verbieten sollte).

Gleichwohl möchte ich daran erinnern, dass die unterschiedlichen Implikationen jener Theorieprogramme, die Dolata mit seiner „in-tegrativen Perspektive“ unter einem Dach ver-einen möchte (S. 83 ff.), von Fall zu Fall in Widerspruch zueinander geraten können (vgl. Gloede 1996). Nicht richtig erscheint es mir jedenfalls, strukturtheoretische Konzepte in einem Atemzug mit „deterministischen Vor-stellungen“ zu nennen (S. 84). Ebenso kann – etwa mit Referenz auf den Begriff der Kontin-genz – auch das Gegenteil zutreffen. So weit ich es sehen kann, lädt sich Dolata letztlich (und eher verdeckt) doch den Anspruch einer „geschlossenen“ Theorie der Technik auf, in der alle nur denkbaren Vermittlungen realisiert sind – ohne sich an dieser Stelle seiner Argu-mentation durch eine ‚konstruktivistische’ Selbstreflexion zu entlasten. Statt also die durchaus unterschiedlichen Erkenntnisinteres-sen und Leistungsansprüche der zusammenge-führten Theorieprogramme zu berücksichtigen, rezipiert er sie eher ontologisch – als konkur-rierende bzw. komplementäre Beschreibungen der einen, der „wirklichen“ Welt.

Trotz – oder gerade wegen – der hier nach wie vor geäußerten Bedenken möchte ich es abschließend nicht versäumen, meinem Ver-gnügen an seiner Auseinandersetzung mit der ubiquitären „Netzwerk“-Metapher (S. 35 ff.) Ausdruck zu verleihen. Die Netzwerk-Kategorie scheint ja wie eine rosa getönte Bril-le zu wirken – wer sie trägt, sieht die Welt durchweg rosa eingefärbt. Wohin das Auge auch blickt, entdeckt es nun Netzwerke – in der Politik, im Innovationssystem, in der Wirt-schaft, in nachbarschaftlichen Kommunikati-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 95

Page 96: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

onsbeziehungen und so weiter und so fort. Do-lata macht gegen diesen soziologischen Hype drei Einwände geltend (S. 43 f.), die er im Wei-teren dann noch ausbaut und präzisiert:

- Netzwerkartige Kommunikations- und Ko-operationsbeziehungen stellen nur eine Teilmenge der tatsächlich anzutreffenden Kooperationsformen dar. Zudem bedürfte auch der gemeinte Typ einer weitergehen-den Differenzierung.

- Netzwerkartige Kooperationsbeziehungen unterliegen selbst einer – nicht zuletzt durch Interessendifferenzen und Machtasymmet-rien bedingten – Dynamik und müssen daher grundsätzlich als temporär und labil gelten.

- Überhaupt sind solche speziellen Koopera-tionsbeziehungen in der Regel in einen grö-ßeren Rahmen weiterhin wirksamer kompe-tetiver Interaktionsmuster und Handlungs-imperative eingebettet – eine Erkenntnis, die nicht nur die bereits angesprochene Dy-namik berührt, sondern auch vorschnell ge-neralisierenden Idyllisierungen der Verhält-nisse vorbeugt2.

Diese und weitere erfrischende Auseinander-setzungen mit gängigen techniksoziologischen Konzepten allein machen Dolatas Buch trotz einiger Bedenken im Grundsätzlichen m. E. ausgesprochen lesenswert.

3 „Dizzy Atmosphere“ oder: Neues zur Gentechnik?

Dolata selbst eröffnet dem Leser des 2. Haupt-teils zwei Möglichkeiten der Lektüre (S. 153 f.). Er könne

- zum einen als Fallstudie zur sozioökonomi-schen Formierung der Neuen Biotechnolo-gie gelesen werden, welche an seine „Politi-sche Ökonomie der Gentechnik“ von 1996 anknüpft, allerdings mit einem weniger de-skriptiven als vielmehr theoriegeleiteten Anspruch;

- zum andern aber auch als Weiterführung des theoretischen Hauptteils, dessen The-men am konkreten Fall „weitergespon-nen“(?) und vertieft würden.

Jedenfalls ist die Darstellung durch drei Kapitel strukturiert, deren erstes sich der „Topographie eines paradigmatisch neuen Technikfelds“ widmet und dementsprechend eher strukturthe-

oretische Beobachtungen anstellt, während sich das zweite Kapitel unter dem Titel „Fluide Figurationen“ den Akteuren und Interaktions-mustern im Feld zuwendet. Das dritte Kapitel schließlich analysiert die Neue Biotechnologie explizit als Politikfeld unter dem viel sagenden Heading „Korporatismus plus“.

Ohne an dieser Stelle auf die vielfältigen, sowohl theoretisch als auch empirisch reichhal-tigen Ausführungen des 2. Teils näher einge-hen zu können, möchte ich mich um des histo-rischen Bogens willen wiederum auf die Fra-gen beziehen, die sich mir bei der Lektüre von Dolatas Buch von 1996 gestellt hatten. Entwi-ckelt sich die Gentechnik tatsächlich zu der von ihren Befürwortern gern beschworenen „Schlüsseltechnologie des 21. Jahrhunderts“? Wie steht es mit den Potenzialen einer an „Be-darfsorientierung, Risikominimierung, Optio-nenvermehrung, Demokratisierung“ orientier-ten staatlichen Technologiepolitik oder jenen auf „Entschleunigung“ und „Behutsamkeit“ gerichteten sozialen Gegenbewegungen? (vgl. Gloede 1996, S. 95 f.). Neue Antworten auf alte Fragen verspricht am ehesten das dem Politikfeld gewidmete 3. Kapitel.

Die den beiden ersten Entwicklungsphasen der Biotechnologie seit Mitte der 90er Jahre (also nach Abschluss von Dolatas „Politischer Ökonomie“) folgende dritte Phase wird nun gekennzeichnet als „standortorientierte Förde-rung und Korporatismus plus“ (S. 274 f.), die im Wesentlichen auf die staatlich gestützte Ent-wicklung international bedeutsamer Forschung und international konkurrenzfähiger Industrie gerichtet ist. Eine breite öffentliche Auseinan-dersetzung über die dabei leitenden Ziele staatli-cher Biotechnologiepolitik findet (abgesehen von einzelnen Problemfeldern) kaum noch statt. Vielmehr werden die staatlicherseits zu ergrei-fenden Maßnahmen in korporativ besetzten Gremien und Kommissionen maßgeblich vorbe-raten und vorverhandelt – „gentechnikkritische Persönlichkeiten oder Organisationen (...) spie-len hier keinerlei Rolle.“ (S. 277). So weit im Westen nichts Neues, könnte man sagen, ob-wohl sicher nicht davon gesprochen werden kann, dass die mittlerweile in Subdiskurse aus-differenzierten Kontroversen um spezifische Gentechniknutzungen bereits beendet wären. Für den Bereich der „grünen“ Gentechnik haben sie vielmehr für hinreichend Irritation gesorgt,

Seite 96 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 97: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

um zu politischen wie industriellen Kurskorrek-turen Anlass zu geben (S. 282).

Von einer „Entschleunigung“ der Ent-wicklung kann vor diesem Hintergrund gleich-wohl nicht die Rede sein. Auch die Rolle des Staates in diesem Politikfeld sieht Dolata mei-nem Eindruck nach inzwischen erheblich skep-tischer. Wiewohl „aktiv mitgestaltende In-stanz“, sei er doch eng gezogenen „strukturel-len Grenzen der Handlungs- und Gestaltungs-spielräume“ unterworfen, wobei die Spezifika der Gentechnik als Querschnittstechnologie eine maßgebliche Rolle spielten (S. 301).

Auch wenn Dolata selbst noch für die weitgehend subsidiäre Rolle staatlicher Bio-technologiepolitik deren Legitimationsbedarf fortbestehen sieht und ihr kein Entkommen aus den gesellschaftlichen Debatten attestieren kann (S. 303), bleiben nach dem langen Durch-gang durch die Materie aus meiner Sicht zwei Fragen offen:

- Inwieweit ist die behauptete Begrenzung staatlicher Interventions- und Gestaltungs-möglichkeiten durch die Akzeptanz und Übernahme ökonomischer (oft neoliberaler) Prämissen geprägt? Über weite Strecken scheint sich Dolata trotz seines kritischen Impetus solche Prämissen selbst zu eigen zu machen. Der Bereich staatlicher Förderung von so genannten Umwelttechnologien zeigt demgegenüber womöglich, dass es nach wie vor Alternativen nationaler Technikpoliti-ken im Horizont unterschiedlicher Speziali-sierungsmuster geben könnte, die sich so-wohl politisch gut legitimieren lassen als auch ökonomisch und wissenschaftlich-technisch „anschlussfähig“ (d. h. kompati-bel mit den herrschenden ökonomischen Strukturen) bleiben. Mutatis mutandis gilt dies umgekehrt für den in Deutschland vor-läufig vollzogenen Ausstieg aus der Atom-energienutzung, die ihren Befürwortern und Betreibern über lange Jahre – gerade auch im Licht der internationalen Situation – als völlig unvorstellbar erschien. Schließlich indizieren die ehemals heftigen und sich neuerdings offenbar wiederbelebenden Kontroversen um eine (nationale bzw. euro-päische) Gentechnik-Regulierung mit Blick auf den „Standortwettbewerb“ ein nach wie vor virulentes Interventionspotenzial.

- Die erste Frage verweist zugleich auf eine weitere. Wenn es richtig ist, dass die Neue Biotechnologie nach wie vor keine „reife Technik“ ist, sondern eine Querschnittstech-nologie, die sich durch „enorme Entwick-lungsdynamiken, große Unsicherheiten und oft noch kaum antizipierbare Nutzungsmög-lichkeiten“ auszeichnet, wie Dolata schreibt (S. 301; vgl. auch die von ihm präsentierten Umsatz- und Unternehmensstatistiken, S. 175 ff.), warum macht sich die staatliche Technikpolitik deren (nicht unbedingt nur monetär) massive Förderung dann zu einem ihrer vornehmsten Anliegen? Eine Antwort auf diese Frage habe ich bei der Lektüre sei-nes neuen Buchs noch weniger gefunden als bei seiner „Politischen Ökonomie“.

Es scheint mir daher an der Zeit, dass eine sys-tematische – und im Hinblick auf konkurrie-rende Problemlösungen vergleichende – Evalua-tion bisheriger praktischer Erfolge und Misser-folge der Gentechniknutzung in ihren verschie-denen Anwendungsfeldern durchgeführt wird, die zugleich eine etwas genauere Einschätzung ihrer weiteren Potenziale erlauben würde. (Man erinnere sich z. B. daran, wie still es um die vor wenigen Jahren noch hochgepriesene Entwick-lung der Gentherapie geworden ist). Denn selbst die verbreitete Diagnose einer „unreifen“ Technik enthält ja bereits die implizite Gewiss-heit auf deren künftige Durchbrüche. Demge-genüber hat die Gegen-Diagnose eines „wish-ful thinking“ einstweilen mindestens genauso viel Charme, denke ich.

4 Abruptes Ende – oder: weiterer For-schungsbedarf?

Dolatas neues Werk hat zweifellos mehr Licht in die nahezu ‚unfassbare Unübersichtlichkeit’ der Technikanalysen gebracht, auch wenn dabei zwangsläufig nicht nur dunkle Winkel verblei-ben, sondern der spezielle Suchkegel seines Theorierahmens eigene Schatten wirft. Interes-sant wären sicherlich weitere Fallstudien zu anderen Technologiefeldern, die sich der hier entwickelten Analytik und Heuristik bedienen. Dolata muss es hier mit einigen knappen Andeu-tungen (S. 95 ff.) sein Bewenden haben lassen.

Interessant wäre es m. E. aber auch, die grundlegenden Triebkräfte und Rahmenbedin-gungen für unterschiedliche Technikentwick-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 97

Page 98: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

lungen komplementär unter stärker ökonomi-schem Aspekt zu rekonstruieren, um der – ei-nem alteuropäischen Postulat folgend – ver-mutlichen Doppelnatur von Innovationen als Schaffung neuer Gebrauchswerte wie neuer Verwertungsmöglichkeiten vor dem Hinter-grund der sichtbar werdenden Probleme einer globalisierten kapitalistischen Ökonomie Rech-nung zu tragen.

Anmerkungen

1) Inwieweit die Zweiteilung des Buchs auch ur-sächlich auf die unterschiedlichen geografischen Orte seiner Entstehung (S. 18) zurückgeht, muss als Frage offen bleiben.

2) Meines Wissens haben ähnliche Einsichten bereits vor vielen Jahren auch die damals in der Betriebswirtschaftslehre gängige Hypertrophie-rung „strategischer Allianzen“ zwischen Unter-nehmen in die Ernüchterung geleitet.

Literatur

Dolata, U., 1996: Politische Ökonomie der Gen-technik. Konzernstrategien, Forschungsprogramme, Technologiewettläufe. Berlin: edition sigma Gloede, F., 1996: Entschleunigung durch „demo-kratische Behutsamkeit“? Zur Kritik der „Politi-schen Ökonomie der Gentechnik“ von Dolata. In: TA-Datenbank-Nachrichten, Nr. 2, 5. Jg., Juli 1996, S. 95-99; http://www.itas.fzk.de/deu/TADN/ TADN0796/diskus.htm

»

U. Albertshauser, N. Malanowski: „Inno-vations- und Technikanalyse im Mana-gement – Perspektiven für die strategi-sche Unternehmensführung“. Frankfurt a. M., New York: Campus Verlag, 2004, 164 S., ISBN-3-593-37477-3, Euro 26,90

Rezension von Otto F. Bode, Bundesminis-terium für Bildung und Forschung, Berlin

Shareholder und Stakeholder fordern von den Unternehmen zunehmend mehr Verantwortlich-keit, Partizipation und Nachhaltigkeit. Dies ver-langt einen Wandel im Managementverständnis und den Einsatz neuer, innovativer Instrumenta-rien. Die Innovations- und Technikanalyse

(ITA), wie sie das Bundesministerium für Bil-dung und Forschung (BMBF) versteht, kann hier als ein Instrument gesehen werden, das sich an den Schnittstellen zwischen Wissenschaft, Wirtschaft und Politik bewährt. Als Instrument strategischer Unternehmensführung ermöglicht sie den Unternehmen

• effektiver und systematischer als bisher die Chancen sich abzeichnender Technologien zu erkennen und in marktfähige Produkte umzusetzen

• frühzeitig potenzielle Risiken zu antizipie-ren und durch geeignete Gegenmaßnahmen möglichst zu vermeiden

• den Bedürfnissen ihrer unterschiedlichsten Anspruchsgruppen durch eine systematische Kommunikation und Partizipation gerecht zu werden.

Der vorliegende Band stellt sich die Aufgabe, im Rahmen von Fallbeispielen aus der Schweiz, den Niederlanden und Dänemark die Rolle und den Nutzen der Innovations- und Technikanaly-se nachzuzeichnen. Ulrich Albertshauser und Norbert Malanowski, beide tätig in der Zukünf-tige Technologien Consulting der VDI TZ GmbH, Düsseldorf, geht es vor allem darum, innovative Trends der Nutzung von ITA in der Wirtschaft zu beleuchten und „die Erfahrungen europäischer Nachbarländer für Deutschland nutzbar zu machen“ (S. 15).

In Teil A der Studie werden vor allem die Position von ITA in dem „Dreieck“ von Wirt-schaft, Wissenschaft und Politik und die damit verbundenen dreifachen Systembezüge ausführ-lich dargestellt1 Dies ist für den weiteren Ver-lauf der Argumentation wichtig, weil diese Sichtweise in der gesamten Studie konsequent „durchgehalten“ wird. Gleichwohl wird das ITA-Konzept des BMBF2 nicht kopiert, sondern für den Unternehmenssektor nutzbar gemacht, indem es die systemtheoretische Grundposition, zwischen den Systemen zu agieren, beibehält, diese aber auf die Unternehmen wendet, wäh-rend sich das BMBF-Konzept auf Politik be-zieht. Mit anderen Worten: Wo das BMBF-Konzept nach den Erkenntnissen und deren Auswirkungen für das Politiksystem und die „politischen Intermediäre“ (konkret das Ministe-rium) fragt, wendet die Studie dieselbe System-konstellation (das Dreieck zwischen Wirtschaft, Wissenschaft und Politik) im Innovationspro-

Seite 98 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 99: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

zess auf das Wirtschaftssystem und prüft die Konsequenzen für die Unternehmen. Am Ende steht ein eigenständiges Beobachtungskonzept, das sowohl die Tradition der Forschung des Düsseldorfer VDI Technologiezentrums (Tech-nikfolgenabschätzung, Technologiefrüherken-nung, Foresight, ITA) als auch das BMBF-Konzept zur ITA aufzunehmen versteht.

Seiner Bewährungsprobe stellt sich der Band, wenn er die entwickelte theoretische Sichtweise auf die Aspekte Nachhaltigkeit und Stakeholder-Dialoge im Rahmen von ITA (S. 33 ff.) anwendet. Die Forderung nach intragenera-tiver Gerechtigkeit im Rahmen der Nachhaltig-keit verlangt die aktive Auseinandersetzung mit den Ansprüchen der unterschiedlichsten gesell-schaftlichen Anspruchsgruppen eines Unter-nehmens durch direkten Dialog. Gerade die partizipative ITA beschäftigt sich mit diesem Anliegen und versucht, durch Beteiligung von Bürgern und Interessengruppen Kompromisse oder Konsens bei Konflikten zwischen Unter-nehmensinteressen und Stakeholder-Ansprüchen zu finden. Dabei sollen zumindest die Wissens- und Wertebasis abgestimmt und die Legitimati-on von Entscheidungen erhöht werden.

Im Teil B des Buches finden sich die Fall-studien zu Beispielen aus der Schweiz, den Nie-derlanden und Dänemark. In Bezug auf die Schweiz ist besonders bemerkenswert, dass ITA dort erst 1991 und damit später als beispielswei-se in Deutschland eingeführt worden ist, aber von der Schweiz heute wichtige Impulse für die Weiterentwicklung und Verankerung von ITA in der strategischen Unternehmensführung aus-gehen. Ferner wird verdeutlicht, dass ein unter-nehmerisches Engagement in den untersuchten Teilbereichen von ITA-Netzwerken im Bereich der Nachhaltigkeit und das „PubliForum“ als Sonderform der Stakeholder-Dialoge zu einer ganzen Reihe von Vorteilen für ein Unterneh-men führt, die für die Weiterentwicklung von ITA in Deutschland als wichtige Anreize ge-nutzt werden können (S. 59).

In den Niederlanden besteht demgegen-über eine lange Tradition der Nutzung von Instrumenten aus dem Bereich der Innovations- und Technikanalyse, die mit der Fokussierung partizipativer Elemente und dem Aufkommen des Konzepts der Nachhaltigkeit neue Impulse erhalten hat. Entsprechend vielschichtig und tief greifend ist die Verankerung von ITA in

den Unternehmen. So werden gerade die Mög-lichkeiten von Netzwerken und Stakeholder-Dialogen von den Unternehmen intensiv ge-nutzt (S. 87).

In Dänemark ist die Entwicklung von ITA geprägt von einer Polarisierung der Entwick-lung öffentlicher ITA einerseits und unterneh-mensbezogener ITA andererseits. In dieser Hinsicht besteht eine bemerkenswerte Überein-stimmung der dänischen und deutschen Ent-wicklung. Die Auseinandersetzung mit ITA findet in Dänemark auf einer außergewöhnlich breiten Basis statt. Neben verschiedensten Mi-nisterien wie beispielsweise dem Forschungs-ministerium, dem Umwelt- und auch dem Bil-dungsministerium, zahlreichen Universitäten und Forschungseinrichtungen engagieren sich nicht nur Verbände und andere Interessenver-tretungen der privaten Wirtschaft, sondern auch Verbraucherverbände, Umweltverbände und Gewerkschaften. Diese flächendeckende Betei-ligung spiegelt nicht zuletzt die historische Bedeutung politischer Partizipation in der däni-schen Gesellschaft wider (S. 105).

In Teil C der Studie werden schließlich – neben einer vergleichenden Analyse – zahlrei-che praxisnahe Handlungsoptionen (S. 119 ff.) zur erfolgreichen Umsetzung der Innovations- und Technikanalyse innerhalb eines Netzwerks aus Unternehmen, Politik und Wissenschaft jeweils für die einzelnen Akteure abgeleitet. Abgerundet wird der Band durch kommentie-rende Beiträge von Karlheinz Haag (Deutsche Lufthansa AG), Astrid Zwick (Allianz Zentrum für Technik) und Utz Schäffer (European Busi-ness School) in Teil D, die einerseits den Pra-xisbezug der ermittelten Ergebnisse reflektieren und anderseits zukünftige Fragen an Forschung und Praxis skizzieren. Es wäre sehr wünschens-wert, wenn die Erfahrungen des Auslandes und die daraus entwickelten Handlungsoptionen für Deutschland in gemeinsamen Anstrengungen von Politik, Wirtschaft und Wissenschaft eine hinreichende Nutzung fänden – im rauen Klima des internationalen Wettbewerbs eine große Chance zur Stärkung des Standortes.

Insgesamt bietet die Studie den an TA und ITA interessierten Leserinnen und Lesern eine lohnenswerte Lektüre, die durchaus zu kontro-versen Diskussionen Anlass geben kann:

• Wirtschaftspraktiker dürften über den Aus-gangspunkt eines dreifachen Systembezugs

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 99

Page 100: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

„stolpern“, zumindest, wenn sie der neo-klassischen Ökonomie anhängen.

• Die „traditionelle“ TA kann die starke Ori-entierung an den Unternehmensinteressen und die Abkehr von der reinen politischen Beratungsfunktion beklagen, die in der Stu-die im Mittelpunkt stehen.

• Vertreter der „reinen“ (soziologischen) Sys-temtheorie werden den Versuch der An-wendung auf einer Akteursebene (und damit die Verzerrung der soziologischen System-theorie) kritisieren können.

Ihnen allen bietet der Band aber Anschlussfä-higkeit und eine Vielzahl von Denkanstößen, die mit praktischen Fällen verknüpft sind.

Anmerkungen

1) Eine kontroverse und anregende Diskussion zu dieser Thematik findet sich zum einen nach ei-nem „Seed-Artikel“ von Malanowski et al. in der vorliegenden Zeitschrift (Heft 2/2003) im Heft 3-4/2003. Zum anderen wurde eine Diskus-sion zu Aspekten der partizipativen ITA mit dem Sonderheft 1 der Zeitschrift Development & Perspectives im Winter 2003 gestartet.

2) Otto F. Bode: Die ITA der Gesellschaft – Pra-xisbeobachtungen zur Innovations- und Tech-nikanalyse auf der Grundlage der Theorie sozia-ler Systeme. In: Development & Perspectives, No. 2, 2002, S. 36-68.

»

Wissenschaftsbewertung als integraler Bestandteil wissen-schaftlicher Arbeit

W. Bender, J.C. Schmidt (Hrsg.): Zu-kunftsorientierte Wissenschaft. Prospek-tive Wissenschafts- und Technikbewer-tung. Münster: agenda Verlag, 2003 (Darmstädter interdisziplinäre Beiträge), 230 S., ISBN 3-8968-8199-X, 25,00 Euro

Rezension von Frank Vogelsang, Ev. Akademie im Rheinland

Seit einigen Jahren ist es zumindest in der Wis-senschaftstheorie kaum noch bestritten, dass sich Wissenschaft als Prozess der Erkenntniser-

weiterung nicht hermetisch den Wertorientie-rungen verschließen kann. Bei den Vertretern der Einzelwissenschaften und im öffentlichen Diskurs dominiert aber nach wie vor eher ein Wissenschaftsbild, das trotz aller Diskussionen an dem alten überkommenen Modell von Wis-senschaft festhält. Diesem hartnäckig sich hal-tenden Verständnis von Wissenschaft wollen sich die Autoren des neu erschienenen Sammel-bandes „Zukunftsorientierte Wissenschaft“ ent-gegenstellen. Der vorliegende Sammelband bleibt dabei nicht allein auf der Ebene einer metawissenschaftlichen Diskussion, sondern versucht, das Konzept eines erweiterten Wissen-schaftsbildes mit konkreten einzelwissenschaft-lichen Fragestellungen in Beziehung zu setzen.

Die Herausgeber stellen zu Beginn eine doppelte normative Wende in den Wissenschaf-ten fest: Da ist erstens die innerwissenschaftli-che Infragestellung eines Wissenschaftsver-ständnisses, das sich allein auf objektive Sach-aussagen gründen will: wissenschaftliche Aus-sagen sind bei näherem Hinsehen immer wert-durchdrungen. Der gesellschaftliche Horizont ist der Schlüssel, um die zweite normative Wende zu verstehen. Wissenschaft kann auch nicht mehr sinnvoll von der Technik als einer alle gesellschaftlichen Bereiche durchdringenden Größe getrennt werden, Wissenschaft und Technik sind zwei Seiten einer Sache. Dieser Erkenntnis folgend unterscheiden viele Beiträge des Sammelbandes auch nicht mehr strikt zwi-schen Wissenschaft und Technik. Die Beiträge des Bandes lassen sich entsprechend dem Kon-zept in zwei Gruppen aufteilen, in eine solche, die eher metawissenschaftliche Beträge umfasst, und in eine solche, die aus fachwissenschaftli-chen Perspektiven das Thema aufbereitet.

Auf einige Beiträge möchte ich kurz einge-hen. Der konzeptionelle Vorschlag von Gerhard Gamm besteht darin, Technik nicht als Artefakt oder Instrument oder als eine spezifische Hand-lungsform zu deuten, sondern viel umfassender als Medium zu beschreiben. Ein Medium ist zum einen ubiquitär, es lässt sich nicht einem bestimmten, begrenzten Raum zuordnen, zum anderen ist es aber auch zugleich einem gestal-tenden Zugriff entzogen. Der so entstehende Zusammenhang von Wissen und Nichtwissen schlägt sich in der Bedeutung des Risikobegriffs nieder: Die Grenze des Nichtwissens wird im Zuge der Ausweitung des Wissens als Risiko

Seite 100 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 101: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

bewusst. Die Tendenz, die Gamm für die mo-derne Gesellschaft diagnostiziert, ist die, dass alle historischen Transzendenzerfahrungen, also alle gesellschaftsexternen Einflüsse, nun gesell-schaftsintern als Risiko reformuliert werden. Mit seinem Beitrag weist Gamm also auch auf die Grenzen einer prospektiven Wissenschaftsbe-wertung: Es könne nicht darum gehen, alle Risi-ken einem vollständigen Kalkül unterwerfen zu wollen. Allerdings ist die Risikoanalyse in ei-nem bescheideneren Rahmen doch zu aufklä-renden Hilfestellungen in der Lage, was in die-sem Text ein wenig unterbetont bleibt. Beden-kenswert ist die Diagnose von Gamm, dass es in unserer Gesellschaft einen Zug zur Aufrechnung aller Transzendenzerfahrungen in immanente Risikokalküle gibt.

Wolfgang Liebert knüpft in seinem Beitrag an die Diskussion um die Wertfreiheit oder Wertbindung von Wissenschaft an. In 10 Thesen zeichnet Liebert die Diskussion in den wichtig-sten Stationen seit dem Werturteilstreit um Max Weber nach und plädiert für ein umfassenderes Wissenschaftsverständnis, das nicht einer objek-tivistischen Selbstinterpretation aufsitzen darf. Dabei unterscheidet Liebert zwischen einer schwachen und einer starken Form der Wert-freiheitsthese. Die schwache Form fordert ein vorurteilsfreies wissenschaftliches Vorgehen, also auch die Hinterfragung aller vorgegebenen Werte, die starke Form will alle wertenden Ur-teile aus der Wissenschaft heraushalten. Der ersten These kann schwerlich widersprochen werden, wenn denn Wissenschaft ein offenes Ringen um die bessere Erkenntnis sein soll. Wenn sich die Wissenschaft der Wertproblema-tik offensiv und selbstkritisch stellen soll, dann muss andererseits die starke Form der Wertfrei-heitsthese verworfen werden. Deshalb ist die Vorstellung, Wissenschaft erziele mit ihren Bemühungen „objektive“ Ergebnisse, unhaltbar und kann, so der Verdacht von Liebert, eigent-lich nur dazu benutzt werden, die Wissenschaft gegenüber unliebsamen ethischen oder gesell-schaftlichen Ansprüchen zu immunisieren.

Paul Gottlob Layer weist in seinem Beitrag auf untergründige Entwicklungen in den herr-schenden Erkenntnisparadigmen der Wissen-schaften hin, die für das Selbstverständnis der Wissenschaft erhebliche Bedeutung haben kön-nen. Dies führt er am Beispiel der Molekularbio-logie vor, deren Paradigma der bausteinähnli-

chen Grundstruktur der lebendigen Natur die Biologie in ihrem Selbstverständnis massiv ver-ändert hat. Moderne Biowissenschaftler werden so zu Biomedizinern, da die Interessen in der Humanmedizin um ein Vielfaches größer als in anderen Biologiebereichen sind. Mit den Inte-ressen wachsen aber auch – so die Gefahr, die Layer diagnostiziert – die Verflechtungen mit den anderen gesellschaftlichen Systemen.

Jan C. Schmidt gibt in seinem Beitrag ei-nen Überblick über die verschiedenen Konzep-tionen des Technikbegriffs und diskutiert sie unter der Leitfrage der Gestaltbarkeit von Tech-nik. Hier unterscheidet er sich in der Akzentuie-rung seines Interesses deutlich von dem Beitrag von Gerhard Gamm. Das gesuchte Konzept von Technik muss einerseits gestaltungsoffen sein, darf andererseits aber auch nicht der Suggestion Raum geben, alles Technische sei auf einfache Weise beherrschbar. Die Technik muss sich in dem gesuchten Konzept als zugleich gestaltbar und widerständig gegenüber Gestaltungsoptio-nen darstellen lassen. Es ist deutlich, dass sich hier sehr fundamentale Beschreibungen (anthro-pologische Notwendigkeit, Medium) nicht für die Frage nach Gestaltbarkeit eignen, aber auch zu einfache Beschreibungen (Instrument) sind wenig tauglich. Am ehesten sieht der Autor das Anforderungskriterium bei dem Entwurf von Günther Ropohl (Technik als soziotechnisches System) gegeben.

Setzt man mit diesem analytischen Ergeb-nis die Gestaltbarkeit von Technik (und damit wohl auch von Wissenschaft) voraus, so fragt es sich, welche Methode zur Anwendung kommen soll, um die Gestaltung in die Tat umzusetzen. Hier nun bietet Wolfgang Bender einen Über-blick über einige Wege ethischer Urteilsbildung und ihre Umsetzung in praktische Felder. Ethi-sche Urteilsbildungen müssen in einem Verfah-ren konkretisiert werden. Bender erläutert dann die Verfahren, die in der praktischen Arbeit von IANUS, der Interdisziplinären Arbeitsgruppe Naturwissenschaft, Technik und Sicherheit an der Technischen Hochschule Darmstadt, zur Anwendung kommen und führt dies für zwei Technikfelder, die Atomtechnik und die Bio-technologien, genauer aus.

Weitere Beiträge des Bandes widmen sich eingehender den Problemen der einzelnen For-schungsfelder. Eine Vermutung wird durch die Lektüre der unterschiedlichen Forschungs-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 101

Page 102: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

schwerpunkte gestärkt, nämlich die, dass die metawissenschaftliche Erkenntnis der Wichtig-keit der Implementierung wertorientierter Re-flexion in dem wissenschaftlichen Betrieb nicht einfach schematisch in den einzelnen Berei-chen umgesetzt werden kann. Die Forschungs-felder unterscheiden sich in erheblichem Maße bezüglich ihrer politisch-ökonomischen Einbet-tung und der dort vorherrschenden Zwänge, aber auch der wissenschaftsimmanenten Ar-gumentationsformen.

Der Text von Nicole Christine Karafyllis behandelt das Thema der nachwachsenden Rohstoffe. Sie bezieht sich zur Analyse insbe-sondere auf die von Meinolf Dierkes ausgear-beitete Leitbildtheorie. Das „Nachwachsen“ ist ein Bild, das an andere gesellschaftliche Bilder wie „Wachstum“ anknüpfen kann. Das kann zu Problemen führen, etwa wenn sich in den Stu-dien zu nachwachsenden Rohstoffen zwei kon-flikthaltige Bilder vermengen: Nachhaltigkeit und Wachstum.

Christoph Pistner und Alexander Glaser be-richten von Bemühungen der Technikfolgenab-schätzung bei neueren Nukleartechnologien, die von IANUS im Rahmen eines TA-Programms im Auftrag des Schweizerischen Wissenschafts-rates vorgenommen worden sind. Es geht da-rum, das Potenzial zukünftiger Nukleartechno-logien abschätzen zu lernen. Dazu wird von den Autoren ein 7teiliges Bewertungsraster aufge-stellt, zu dem Kriterien wie Sicherheit, Prolifera-tionsfähigkeit, Nachsorge, aber auch Ökonomie, Einsatzfähigkeit und andere gehören.

Kathryn Nixdorf und Wolfgang Bender un-tersuchen in einem Beitrag die Dual-Use-Problematik der biotechnologischen For-schung, also die Frage, inwieweit Forschungs-ergebnisse militärische Relevanz haben kön-nen. Die Autoren zeigen, dass ein erhebliches Missbrauchspotenzial in der biotechnologi-schen Forschung vorhanden ist.

Christine Hauskeller untersucht die ethi-schen Implikationen und gesellschaftlichen Kontexte des Forschungsfeldes humane Stamm-zellen. In ihrem kurzen Überblick über die wich-tigsten Faktoren zeigt sie, wie weit reichend die Verbindungen eines scheinbar sehr begrenzten Forschungsfeldes in die Gesellschaft sind, denn um das Projekt der Stammzellforschung ange-messen verstehen zu können, sind fundamentale Faktoren des gesellschaftlich verankerten Men-

schenbildes zu berücksichtigen, wie etwa das Bild von Gesundheit und Krankheit.

Zum Abschluss des Bandes behandelt Jan C. Schmidt die Nanotechnologien. Hier liegt nun ein Forschungsbereich vor, bei dem zu-mindest nicht behauptet werden kann, dass die ethische Urteilsbildung zu spät komme, denn dieser Bereich ist erst dabei, sich zu formieren und eigene Standards auszuarbeiten. Die Situa-tion ist eigentümlich: Noch zeichnen sich keine gemeinsamen Forschungsstandards ab, aber die Verkünder der neuen Technologie sehen in ihr die künftige Basistechnologie aller anderen Technologien. Damit ist der Weg zu einem technokratischen Selbstverständnis gebahnt.

Angesichts des nach wie vor dominanten Selbstverständnisses in unserer Gesellschaft und insbesondere im Wissenschaftsbetrieb, dem gemäß es eine tiefe Kluft zwischen der sachorientierten Wissenschaft und ihrer Bewer-tung gibt, kann man den aufklärerischen An-spruch, der die Autorinnen und Autoren der Texte des Sammelbandes eint – Wertorientie-rungen offen zu legen und ihren Diskurs einzu-klagen –, nur begrüßen. Bei der Lektüre des Buches wird deutlich, dass die größte Hürde nicht so sehr in der allgemeinen Feststellung der Notwendigkeit ethischer Orientierung der Wissenschaft liegt, sondern in der jeweils kon-kreten Umsetzung in den Einzeldisziplinen.

«

N.C. Karafyllis, T. Haar (Hrsg.): Tech-nikphilosophie im Aufbruch. Festschrift für Günter Ropohl. Berlin: edition sig-ma, 2004, 278 S., ISBN 3-89404-516-7, Euro 17,90

Rezension von Armin Grunwald, ITAS

Auf der jüngsten deutschsprachigen Konferenz über Technikphilosophie (Cottbus im Juli 2002, vgl. die Dokumentation in Kornwachs 2004) hielt Günter Ropohl einen Abendvortrag mit dem Titel zur „unauffälligen Abwicklung der Technikphilosophie“ (abgedruckt in Ropohl 2004). Dort malte er in düsteren Farben die Gegenwart und, mehr noch, die Zukunft der Technikphilosophie an deutschen Universitäten aus. Dass die Festschrift zu Ropohls 65. Ge-

Seite 102 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 103: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

burtstag unter dem Titel „Technikphilosophie im Aufbruch“ als absolutes Kontrastprogramm zu diesem Vortrag wirkt, ist möglicherweise ein Zufall – vielleicht ist der Titel aber doch motiviert durch den energischen Protest vor allem der jüngeren Garde der Technikphiloso-phen nach dem pessimistischen Vortrag auf jener Konferenz. Der Wunsch, mit dem Buch dem Jubilar eine Technikphilosophie im Auf-bruch zu zeigen, findet sich jedenfalls im Vor-wort der Herausgeber explizit wieder.

Ganz in der Tradition der akademischen Festschriften haben Nicole Karafyllis und Til-mann Haar als Schüler Günter Ropohls Beiträ-ge von Weggefährten und Kollegen Ropohls versammelt und unter das begriffliche Dach der Technikphilosophie gestellt. Die Beiträge sind geprägt durch persönliche oder thematische Beziehungen zu Günter Ropohl, zu seinem wissenschaftlichen Werk bzw. zu seinen über die Wissenschaften hinaus reichenden gesell-schaftlichen Wirkungen. Die wissenschaftliche Laufbahn Ropohls begann als Ingenieur in der Fertigungstechnik und führte über die Habilita-tion (Systemtheorie der Technik) bei Hans Lenk in Karlsruhe zur Professur für Allgemei-ne Technologie im Fachbereich Arbeitslehre an der Universität Frankfurt. In der TA ist Ropohl vor allem in zweierlei Hinsicht bekannt: zum einen als scharfer Kritiker der vermeintlich viel zu sehr folgenorientierten und auf Politikbera-tung fokussierten statt gestaltungsorientierten frühen TA-Ansätze, zum anderen durch sein Engagement im Arbeitskreis Mensch und Technik des VDI und insbesondere seine prä-gende Mitarbeit an der VDI-Richtlinie 3780 zur Technikbewertung.

Das Buch „Technikphilosophie im Auf-bruch“ bietet eine anregende Mischung aus teils bekannten Thesen und neueren Arbeiten aus den verschiedenen Themenfeldern, mit denen Günter Ropohl sich wissenschaftlich auseinandergesetzt hat: von Technikwissen-schaften über Technikphilosophie, Systemtheo-rie, Arbeitswissenschaften und Technikbewer-tung (ein Verzeichnis der wissenschaftlichen Schriften von Günter Ropohl ist dem Band beigefügt). Damit ermöglicht die Festschrift auch einen Einblick in aktuelle Felder und Kontroversen der Technikphilosophie.

Ziel des Buches ist es, Antworten auf die Frage „Was kann und was soll Technik heute

sein und leisten?“ (Umschlagrückseite). Dabei werden sehr weite Begriffe von Technik und Technikphilosophie unterstellt: das Spektrum der behandelten Schlüsselworte reicht von der deutschen Restaurantkultur bis zur Energiepoli-tik, von der Naturvergessenheit der Technik zu technischen Utopien in der DDR, von der Zu-kunft der Arbeit bis zur Globalisierungskritik, von Innovationstheorie zur Technikethik und zum Ort der Technik in der ökonomischen Wertschöpfung. Diese anregende Vielfalt ist inhaltlich in fünf Teile untergliedert:

(1) Technik und Kultur: Galt Technik lange Zeit, besonders im deutschen Bildungsbürger-tum, als „das Andere“ der Kultur, so ist in den letzten Jahren ein wachsendes Interesse an den vielfältigen Verbindungen zwischen Technik und Kultur zu beobachten. Wolfgang König (Zum Italiener gehen! Forschungsüberlegungen zur Ethnisierung und Differenzierung der Re-staurantlandschaft) setzt mitten im lebensweltli-chen Verständnis von Kultur an und thematisiert die historischen Veränderungen der Restaurant-landschaft vor dem Hintergrund allgemeiner gesellschaftlicher Entwicklungen. Dieses Thema im Kontext der Technikphilosophie zu betrach-ten, dürfte eine sehr schöne Innovation sein und nur den verwundern, der nicht die kulinarischen Neigungen von Ropohl kennt. Gerhard Banse (Zwischen Zukunftsprojektion und Pragmatik. Technische Utopien in der DDR) widmet sich ebenfalls einem in der Technikphilosophie eher randständigen Thema. Wenn auch die Technik-geneseforschung auf die Rolle von „Leitbildern“ in der Technik hingewiesen hat, und technische Visionen und ihre Ambivalenzen gegenwärtig wieder ein aktuelles Thema sind, vor allem in der Nanotechnologie und ihrer gesellschaftli-chen Rezeption (Coenen 2004), so klafft doch im Verständnis der Rolle von technischen Uto-pien zu verschiedenen Zeiten und in verschiede-nen Gesellschaften eine deutliche Lücke. Das Unternehmen, die Rolle technischer Utopien und die Debatten um sie herum in der DDR zu beleuchten und nach verschiedenen Zeitstadien zu unterteilen, führt zu einer Reihe von erstaun-lichen Einsichten in ein in vielen Facetten doch weithin unbekanntes System, das der Reflexion der Technik deutlich früher Aufmerksamkeit gewidmet hat als die westliche Welt (allerdings auf durch die Marxsche Gesellschaftstheorie vorgegebene Weise). Zu diesen Einsichten ge-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 103

Page 104: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

hört die Beobachtung, dass es durchaus wesent-liche parallele zeit- und geistesgeschichtliche Entwicklungen in beiden Systemen gegeben hat, was die Einschätzung der Rolle, der Machbar-keit und Grenzen technischer Utopien betrifft (übrigens ein Ergebnis, das gut zur vergleichen-den Analyse von Planungsverständnissen passt?; vgl. hierzu Grunwald 2000).

(2) Technik und Natur: Das Verhältnis zwischen Technik und Natur stellt ein Dauerthema der Technikphilosophie dar. Peter Wehling (Die „natürliche Symbolgewalt technischer Neuerun-gen“. Zur Aktualität von Walter Benjamins Technikphilosophie und -soziologie) erschließt wenig bekannte technikphilosophische Aussa-gen von Walter Benjamin für die gegenwärtige Diskussion. Er kommt zu dem Ergebnis, dass Benjamins Sicht auf Technik nicht nur frühzei-tige Folgenanalysen, ethische Beurteilung und demokratische Willensbildung einfordert, son-dern auch zur Einbettung der technischen Per-spektiven in die gesellschaftlichen Handlungs-spielräume und ihre Verknüpfung mit den Ak-teuren verpflichtet. Friedrich Rapp (Die techno-logische Entfremdung von der Natur) variiert die kulturskeptische These, dass der technische Fortschritt zu einer immer weiter fortschreiten-den Entfremdung des Menschen von der Natur führe, und stellt dieser Entwicklung die Unab-dingbarkeit der Natur (auch der Natur des Men-schen) als Bezugsgröße entgegen. Nicole Kara-fyllis (Natur als Gegentechnik. Zur Notwendig-keit einer Technikphilosophie der Biofakte) wendet geschickt und provokativ die Ropohl-sche These von der Technik als Gegennatur in ihr vermeintliches Gegenteil. Damit macht sie auf den zirkulären Charakter der Gegenüberstel-lung von Natur und Technik aufmerksam: wird Technik in der aristotelischen Tradition als das Nicht-Naturhafte bestimmt, funktioniert dies nur, wenn beantwortet wird, was denn Natur sei – mit der Gefahr, Natur als das Nicht-Techni-sche zu begreifen. Damit macht Karafyllis auf den reflexiven Charakter der Unterscheidung von Natur und Technik aufmerksam als einer Unterscheidung an den Gegenständen, nicht als einer Unterscheidung der Gegenstände. Die Wortschöpfung „Biofakte“ in Entgegensetzung zu den traditionellen „Artefakten“ bringt dies auf den Begriff.

(3) Technik und Dialektik: Christoph Hubig (Technik als Mittel und Medium) führt in aktu-elle, der Hegelschen Tradition folgende Dis-kussionen in der Technikphilosophie ein, nach denen Technik – sicher fern ab von Ropohl-schen Gedanken – nicht nur im Sinne der klas-sischen Handlungstheorie als Mittel, sondern darüber hinaus auch als Medium (z. B. der Welterschließung) konzeptualisiert wird. Hans Heinz Holz (Systemtheorie und Dialektik) führt auf anregende Weise eine langjährige Diskus-sion mit Günter Ropohl weiter, indem er – nicht ohne weiteres erwartbare – Bezugspunkte zwischen der systemtheoretischen und der dia-lektischen Annäherung an die Konstitution von wissenschaftlichen Gegenständen betrachtet. Michael Weingarten (Produktivkräfte, Produk-tionsinstrumente und schöpferische Entwick-lung. Überlegungen im Anschluss an Schumpe-ter) setzt einer seiner Meinung nach wieder modisch werdenden Marx-Rezeption (der An-schluss an Marx als Technikphilosophen findet sich in der Festschrift mehrfach wieder) die Theorie der „schöpferischen Zerstörung“ von Schumpeter entgegen und kommt auf dieser Basis zu dem Schluss, dass eine dynamische, entwicklungsfähige Wirtschaft mehr nicht-planbare Innovationen und damit auch mehr Risikobereitschaft benötigt.

(4) Technikethik und Technikbewertung: Ethik und Technikbewertung (so auch der Titel eines Standardwerkes von Ropohl) gehören zu den großen Themen von Günter Ropohl. Tilmann Haar (Sachzwang. Technik zwischen natürli-chen und institutionellen Tatsachen) geht in seinem – auf seine Dissertation bei Ropohl zu-rückgehenden – Beitrag auf Sachzwänge in der Gestaltung und Anwendung von Technik ein und formuliert im Anschluss an Gehlen die For-derung nach einer „Sachzwangkritik“, um mög-liche ideologische Verwendungen von Sach-zwangargumenten zu verhindern. Hans Lenk und Matthias Maring (Technikethik – pragma-tisch und synthetisch) bekräftigen ihre These, dass ethische Aspekte der Technik sich nicht auf individualistische Aspekte beschränken, sondern die soziale Verortung und die systemische Ver-netzung moralischer Probleme berücksichtigen müssen. Individualistische und korporatistische Ansätze der Ethik müssen sich danach ergänzen. Konrad Ott (Klimapfade. Energiepolitik in Zei-ten steigender Temperaturen) wendet Ropohls

Seite 104 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 105: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

ethische Prinzipien auf die Zukunft der deut-schen Stromerzeugung an. Ausgehend von Ro-pohls Satz „Übel muss man auf jeden Fall ver-hindern, Güter dagegen braucht man nicht un-bedingt zu vermehren“ gelangt Ott bis zu Emp-fehlungen die Ausgestaltung der zukünftigen Strompolitik und des Zertifikatehandels ange-sichts einer „Weggabelung“ zwischen zwei möglichen Zukunftspfaden in der Stromversor-gung betreffend. Ethik-Skeptiker mögen sich bestärkt fühlen, wenn sie bei Ott im Postscrip-tum nachlesen, dass der gemäß der gewählten ethischen Perspektive „rationale“ Weg aufgrund der Interventionen der Kohle- und Energielobby gerade nicht beschritten werden wird.

(5) Technik und Innovation: Technik wirkt nicht von sich aus gesellschaftsverändernd, sondern erst als konkrete Innovation. Dieser Teil der Festschrift enthält Arbeiten, die die gesell-schafts- und zukunftsprägenden Folgen von Technik und Technisierung thematisieren. Hans Poser (Innovation: The Tension between Persis-tence and Dynamics) stellt fest, dass die An-schlussfähigkeit von radikalen Innovationen und damit ihr Erfolg eine gewisse gesellschaftliche Kontinuität und Beständigkeit voraussetzen. Klaus Kornwachs (Technik wissen. Prälimina-rien zu einer Theorie technischen Wissens) ver-tritt die These, dass technisches Wissen in vielen Fällen nicht das Resultat eines Erkenntnispro-zesses, sondern das Ergebnis einer verstandenen Mitteilung ist, der man vertraut, und leitet hie-raus die weiterführende Frage nach den Bedin-gungen ab, unter denen diese „Mitteilungen“ verstanden werden können. Alfons Schmid und Silvia Krömmelbein (Informationstechnischer Wandel und Zukunft der Arbeit) untersuchen die Auswirkungen des technischen Fortschritts auf die Arbeitswelt und damit die Verbindung zwei-er Hauptthemen von Günter Ropohl. Sie lehnen technikdeterminstische Vorstellungen ab und heben stattdessen die Bedeutung wirtschaftsor-ganisatorischer Einflüsse auf die Arbeitswelt hervor. Richard Huisinga (Spezifische Wissens-basen und Exemplarik. Relevanz und Reichwei-te für die Berufsbildung im Bereich der Hoch-technologie) befasst sich bildungstheoretisch mit der gesellschaftlichen Konstitution und Verar-beitung dessen, was unter „Hochtechnologie“ verstanden wird, und kommt zu dem Schluss, dass auf der Ebene der Berufsbildung bislang keine zufrieden stellende Konkretion erreicht

sei. Manfred Mai (Moderne und antimoderne Strömungen in der Gesellschaft. Von der „kon-servativen Revolution“ zur Globalisierungskri-tik) schlägt den Bogen zu zeitdiagnostischen Reflexionen der Befindlichkeit der gegenwärti-gen Gesellschaft.

Diese kurze Inhaltsbeschreibung macht deutlich, dass die große thematische Bandbreite sich nur schwer den gewählten Überschriften der einzel-nen Teile, aber auch nur teilweise dem begriffli-chen Dach der Technikphilosophie unterordnet. In diesem Zusammenhang ist es bedauerlich, dass der einführende Beitrag der Herausgeber zwar den viel versprechenden Titel „Technik-philosophie – Stand einer Disziplin“ trägt, den damit erhobenen Anspruch aber leider in keiner Weise einlöst (was sicher auch auf zwei Seiten unmöglich wäre). Ein einführender Beitrag hätte in diesem Fall die Aufgabe, in der thematischen Heterogenität der verschiedenen Beiträge eine oder mehrere durchgängige Fragestellungen zu formulieren oder, da es um Technikphilosophie geht, den zugrunde liegenden Begriff der Tech-nik oder die aktuelle Situation der Technikphilo-sophie darzulegen. Dass dies nicht erfolgte, stellt eine verpasste Chance dar – ist allerdings, das ist den Herausgebern zugute zu halten, in der Technikphilosophie nicht so selten, was mit der Unabgeschlossenheit dieses nie so recht etablierten Teilgebietes der Philosophie zusam-menhängen mag.

Ob sich die Technikphilosophie wirklich im Aufbruch statt in der Abwicklung (s. o.) befindet, wird die weitere Entwicklung zeigen. Die Festschrift selbst vermittelt, entgegen ihrer Programmatik, einen eher ambivalenten Ein-druck. Damit man von einem Aufbruch reden kann, sollten neue Themen und Fragestellun-gen, neue Relevanzen und Nachfragen oder neue Akteure in der Technikphilosophie sicht-bar werden. Dies ist jedoch in dem Buch wenig zu erkennen. Einigen neuen Themen – wie etwa die Rolle technischer Utopien, der Biofakte oder die technikphilosophische Entdeckung Schum-peters – stehen eine ganze Reihe vertrauter Fra-gestellungen und auch zumindest teilweise vertrauter Antworten gegenüber.

Nun weisen akademische Festschriften vom Grundgedanken her selten programma-tisch in die Zukunft. Im Mittelpunkt stehen – dem festlichen Anlass gemäß – eher eine Be-standsaufnahme des Gegenwärtigen und ein

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 105

Page 106: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

würdigender, vielleicht mehr oder weniger kritischer Blick auf das Erreichte. Von daher wäre ein Urteil zu streng, das sich ausschließ-lich am programmatischen Titel „Technikphi-losophie im Aufbruch“ und dessen nur teilwei-ser Einlösung orientieren würde. Stattdessen erstreckt sich die positive Würdigung des Bu-ches durch den Rezensenten auf die themati-sche Vielfalt, die neue Perspektiven erlaubt, und die kritische Reflexion des aktuellen Dis-kussionsstandes im Umkreis der Ropohlschen Themen, weniger auf die nur teilweise zum Ausdruck kommende Aufbruchstimmung.

Zu guter Letzt seien – verbunden mit der herzlichen Gratulation zum 65. Geburtstag – zwei Hoffnungen geäußert: dass Ropohls Di-agnose der Abwicklung der Technikphiloso-phie sich als unzutreffend erweisen und dass die Festschrift zu seinem Geburtstag eine gute Verbreitung erfahren möge.

Literatur Coenen, C., 2004: Nanofuturismus: Anmerkungen zu seiner Relevanz, Analyse und Bewertung. Tech-nikfolgenabschätzung – Theorie und Praxis 13. Jahrgang, Nr. 2 (Juni), S. 67-76 Grunwald, A., 2000: Handeln und Planen. Mün-chen: Fink Kornwachs, K. (Hrsg.), 2004: Technik – System – Verantwortung. Münster: LIT Verlag Ropohl, G., 2004: Gelegenheiten zur unauffälligen Abwicklung der Technikphilosophie. In: Korn-wachs, K. (Hrsg.): Technik – System – Verantwor-tung. Münster: LIT Verlag, S. 115-128

»

St. Bannas: Faire Marktwirtschaft. Ein Modell zu ‚No Logo’. München: Ökom Verlag, 2003, 89 S., ISBN 3-936581-17-7, Euro 16,80

Rezension von Jürgen Kopfmüller, ITAS

Die Frage, wie die Grundprinzipien und Rah-menbedingungen des Wirtschaftens auf lokaler, nationaler oder globaler Ebene beschaffen sein sollten, damit die Wirtschaft den Menschen und ihren Bedürfnissen etwa nach Existenzsi-cherung und Lebensqualität – also ihrer ur-

sprünglich als „dienend“ charakterisierten Funktion – gerecht wird, beschäftigt die Ge-sellschaften und auch die Wissenschaft seit langer Zeit. Mit dem, was heute als „soziale Marktwirtschaft“ bezeichnet wird, wurde, be-ginnend vor rund fünfzig Jahren, in Deutsch-land und auch in anderen Industriestaaten ein vielschichtiges System unterschiedlichster In-stitutionen und Regeln geschaffen, das vor allem auf einen Ausgleich zwischen den grund-legenden Handlungsprinzipien Effizienz und Gerechtigkeit zielt. Zwar hat dieses System wohl seine relative Überlegenheit gegenüber den wesentlichen Alternativen – insbesondere der Planwirtschaft und dem kurzzeitigen Expe-riment der sozialistischen Marktwirtschaft – aus vielfältigen Gründen nachgewiesen. Den-noch sind die heutigen Gesellschaften mit zahl-reichen Phänomenen konfrontiert, die auch im Sinne der Verletzung der beiden Prinzipien oder ihrer nicht gelingenden Verschmelzung ein Problem darstellen und in vielen Fällen noch an Schärfe zunehmen: Arbeitslosigkeit und Armut sind ebenso Indizien für zumindest partielle Schwächen der existierenden System-praxis wie die Zerstörung der natürlichen Le-bensgrundlagen, die Bildungsmisere oder auch eine wachsende Zahl von Menschen, deren Krankheitssymptome den im Räderwerk aus täglichen Leistungszwängen oder Verteilungs- und Machtkämpfen entstehenden Stressfakto-ren zugeschrieben werden.

Mit dem vorliegenden Buch stellt Stephan Bannas auf rund 80 Seiten seine Überlegungen zur Gestaltung einer „fairen Marktwirtschaft“ vor. Bei seinem Ansatz – er verwendet dafür den Begriff „Modell“ – geht er von der Grund-these aus, dass die heutigen Probleme eher durch der Marktwirtschaft wesensfremde Fak-toren verursacht werden und weniger durch Systemversagen des marktwirtschaftlichen Prinzips selbst (S. 1). Dem will er sein Modell als „umfassendes Gesellschafts- und Wirt-schaftskonzept“ entgegensetzen. Es soll we-sentlich gekennzeichnet sein durch eine wieder stärkere Orientierung an ursprünglichen Grund-ideen der Marktwirtschaft, an den Menschen sowie an den Prinzipien einer flexiblen und freiheitlichen Wirtschaftsordnung (S. 5). Er leistet damit einen auf einer prinzipiellen Ebe-ne angesiedelten Beitrag zu einer ordnungs-ökonomischen bzw. ordnungspolitischen De-

Seite 106 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 107: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

batte, die in den letzten Jahren eher auf Detail-fragen ökonomischer Steuerung gerichtet war. Dieser Schritt ist a priori sehr begrüßenswert, weil angesichts der zu lösenden Probleme und ihrer Dimension eine Debatte auch über grund-sätzlichere Veränderungen der institutionellen Rahmenbedingungen des Wirtschaftens und deren Umsetzung dringend erforderlich ist.

Vor dem Hintergrund seiner Erfahrungen und Erkenntnisse als Unternehmer sowie als Wirtschafts- und Geisteswissenschaftler, der ein „Ur-Vertrauen“ in die marktwirtschaftli-chen Grundprinzipien zum Ausgangspunkt seiner Überlegungen macht, geht Bannas von der Problemdiagnose vielfach verfälschter Marktergebnisse und daraus resultierender unerwünschter Effekte aus. Er führt dies vor allem auf zwei Faktoren zurück: zum einen auf die institutionalisierte Ausblendung der Emoti-on Angst auf der Produktionsseite – Angst vor Risiko und vor den Folgen des eigenen Tuns – insbesondere durch die Ende des 19. Jahrhun-derts eingeführten haftungsbegrenzenden Rege-lungen des Aktien- und des GmbH-Rechts; zum anderen auf die umfangreichen Werbe-kampagnen und Marketingstrategien, die er als kommunikative Beeinträchtigung der Men-schen und als Verletzung ihrer kommunikativen Integrität und Selbstbestimmung interpretiert und die er im Wesentlichen als dem Zweck der Erhaltung bzw. Konzentration von Marktmacht dienend charakterisiert. Der Autor spricht hier von „Informationsmüll“ und „Aufmerksamkeits-okkupation“, die Folgen davon bezeichnet er als „emotionale externe Effekte“, in Erweiterung des in der Umweltökonomie eingeführten, dort jedoch auf materielle Komponenten beschränk-ten Begriffs der externen Effekte.

Im Verständnis des Autors besteht die Grundidee des vorliegenden Ansatzes darin, die (lebenden) Menschen in den Vordergrund ordnungstheoretischer Überlegungen zu stellen und dem Kapital – als tendenziell vergangen-heitsbezogenem und von Verstorbenen über-nommenem Faktor – keine eigenständige und strukturierende Funktion zuzumessen. Anstelle des Kapitals und dessen Wachstum soll vor allem den Menschen und ihren Emotionen die Funktion des „dynamischen Elements“ des Wirtschaftens zukommen. Er versucht damit, eher an den Überlegungen von Adam Smith zur „Theorie der ethischen Gefühle“ anzuknüp-

fen und diese mit seinem wesentlich später erschienenen Hauptwerk „Der Wohlstand der Nationen“ zu verbinden, anstatt sich in die gegenwärtige Globalisierungsdebatte einzurei-hen, die er als Aufguss der Sozialismus-Kapitalismus-Kontroverse kritisiert.

Bannas’ „Gegenmodell“ der „Fairen Marktwirtschaft“ beruht auf drei konstituieren-den Elementen: Erstens bleiben mit der freien Preisbildung, der wettbewerblichen Marktorga-nisation und dem Privateigentum wesentliche Elemente der gegenwärtigen marktwirtschaftli-chen Grundordnung prinzipiell erhalten. Dabei ist hinsichtlich des Eigentums vorgesehen, dass machtbildende Rechte von Verstorbenen nicht vererbt bzw. weitergegeben werden können, sondern der Allgemeinheit zugänglich gemacht werden, mit dem Ziel, die Chancen und Gestal-tungsspielräume kommender Generationen im-mer wieder neu und damit intergenerativ fairer zu verteilen. Eigentumsrechte an Sachen – und damit auch gegebenenfalls existierende Macht-elemente – sollen dagegen wie bisher übertragen werden können. Auch der Anreiz, aus unter-schiedlicher Kreativität oder Innovationsbereit-schaft ökonomische Vorteile erzielen zu können, soll im Sinne der „Philosophie“ von Wettbe-werb und Dynamik konstitutiven Charakter behalten. Die Grundzüge von Geld- und Finanz-verfassung, Steuer- und Sozialgesetzgebung bleiben ebenfalls erhalten.

Das zweite Element besteht darin, dass Haftungsbegrenzung bzw. -ausschluss bei wirt-schaftlichen Aktivitäten nicht mehr vorgesehen ist. Es wirtschaften nur noch voll haftende Ein-zelkaufleute oder Zusammenschlüsse solcher Kaufleute – d. h. juristische Personen sind nicht wirtschaftlich aktiv – und das Aktienrecht und das GmbH-Gesetz werden abgeschafft, d. h. Aktionäre und GmbH-Anteilseigner gibt es nicht mehr. Vereine oder Vereinigungen mit eigener Rechtspersönlichkeit sind zwar zugelas-sen, sie werden jedoch steuerlich benachteiligt um zu vermeiden, dass die neue Regelung durch das Vereinsrecht unterlaufen werden kann und dass Vereine primär wirtschaftlich tätig sind. Bannas knüpft damit an klassische Ökonomen wie Adam Smith oder Walter Eucken an, die Haftungsbeschränkungen bzw. Kapitalgesell-schaften im Prinzip ablehnten. Als Folge dieser Modifikation erwartet er, dass Kapital vermehrt innerhalb der Unternehmen – d. h. durch nicht

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 107

Page 108: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

ausgeschüttete Gewinne – oder durch Bankkre-dite geschaffen wird und dass sich die Kapital-mobilität wieder der menschlichen Mobilität annähert, da Vertrauen gegenüber den Kapital-nachfragern eine wesentlich größere Rolle spie-len wird. Er prognostiziert eine wachsende Zahl von unternehmerisch Tätigen (nicht zuletzt ehemalige Aktionäre) sowie einen aufgrund des Wegfalls des Haftungsausschlusses einsetzen-den strukturellen Wandel in der Finanzbranche weg von Großbanken und hin zu kleineren, re-gional orientierten Banken, die sich aufgrund des Rufschädigungsrisikos durch gefährdete Einlagen wesentlich weniger an Unternehmen beteiligen werden.

Das dritte konstitutive Element besteht in einem erheblich eingeschränkten Markenschutz-recht. Es erlischt mit dem Tod des Inhabers und ist nicht auf andere Personen übertragbar. Die Marke wird sofort frei und für die Mitbewerber nutzbar, die sich jedoch an die vom ursprüngli-chen Inhaber festlegbaren Anforderungen an die Marke halten müssen. In der Einschätzung des Autors wird dies zur Folge haben, dass Marken in der Unternehmensstrategie keine dominieren-de Bedeutung mehr zukommt, Investitionen in Marken risikoreicher werden und Marketing- und Werbestrategien sich an diese Gegebenhei-ten anpassen werden.

Wesentliches Ziel dieser Änderungen der gegenwärtigen Haftungsbeschränkungs- und Markenschutzregelungen ist es, eine sich über Generationen fortpflanzende Konzentration von ökonomischer Macht zu begrenzen und letztlich eine Alternative zur Dominanz von internationalen Konzernen und Marken zu er-möglichen. Neben den genannten drei konstitu-tiven Elementen werden zwei ergänzende Re-gelungen eingeführt, die die Akzeptanz des Modells erleichtern sollen. Zum einen wird eine Risikobegrenzung für die Unternehmer dadurch vorgesehen, dass sie in begrenztem Umfang (maximal 5 Mio. Euro) Kapital an-sammeln können, das nicht pfändbar ist und das nur zum Lebensunterhalt, nicht für wirt-schaftliche Aktivitäten, verwendet werden darf. Zum anderen wird die Möglichkeit, Vermögen zu vererben, auf die Summe von fünf Mrd. Euro begrenzt, darüber hinaus gehende Beträge sollen dem Staat zufallen.

Im Anschluss an die Skizzierung seines Ansatzes versucht sich der Autor an einer quali-

tativen Überprüfung der Funktionsfähigkeit in zweierlei Hinsicht: Zum einen geht er unter einer eher immateriellen, visionären Perspektive der Frage nach, inwieweit es mit dem Modell gelingen kann, die gewünschten menschlichen „Energien“ freizusetzen, zum anderen betrachtet er in einer eher pragmatischen materiellen Per-spektive die ökonomische und gesellschaftliche Effizienz seines Modells. Die „Energie-Frage“ beantwortet er insoweit positiv, als nach seiner Einschätzung die Umsetzung seines Modells zu einer veränderten Wirtschaftsweise führen wür-de, die „die Vielseitigkeit der Welt und die Viel-fältigkeit der Lebensenergien widerspiegelt“ (S. 23). Nicht anonyme, langfristig bestehende Konzerne, sondern dem menschlichen Lebens-zyklus unterworfene, a priori stärker regional orientierte Eigentümer-Unternehmer würden die wirtschaftliche Realität prägen. Dadurch erhiel-ten die Elemente Muße und Langsamkeit wieder mehr Bedeutung gegenüber Elementen wie Be-schleunigung und Geschwindigkeit. Der Span-nungsbogen der gesamten Verhaltensbandbreite zwischen „Dienst am Nächsten“ und „Egois-mus“ würde wieder mehr zum alltäglichen Bild des Wirtschaftens gehören. Dabei soll es letzt-lich dem Spiel der Marktkräfte überlassen blei-ben, welche der vom Autor idealtypisch unter-schiedenen Energien – die an Kosten- oder Pro-duktivitätsgrößen orientierte „betriebswirtschaft-lich-pragmatische“ oder die an menschlicher Nähe, regionaler Identität oder Altruismus ori-entierte „betriebswirtschaftlich-charismatische“ – dominieren wird, sowohl im Verhältnis zwi-schen Unternehmen als auch innerhalb eines Unternehmens. Diese, durch das Modell inten-dierte tendenzielle Chancengleichheit für beide „Energietypen“ markiert er als wesentlichen Unterschied zur gegenwärtigen Praxis.

Hinsichtlich der Effizienz-Frage beschränkt sich der Autor zwangsläufig auf grundlegende Argumentationslinien, da Maßnahmen der vor-geschlagenen Art in ihren vielfältigen Wirkun-gen natürlich erst nach eingehenderen Analysen angemessen evaluiert werden können. Er argu-mentiert dabei unter drei Gesichtspunkten. Zu-nächst richtet er den Blick auf die Frage nach der Erreichbarkeit der anvisierten Ziele. Die Reduzierung von unerwünschter (d. h. nicht durch z. B. höhere Produktqualität begründete) Marktmacht und die daraus resultierende erhöh-te Fairness sieht er bereits durch die starke Ein-

Seite 108 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 109: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

schränkung des nach seiner Einschätzung zent-ralen Faktors für die Entstehung von Markt-macht, der Marke und des Markenschutzrechts, gewährleistet. Darüber hinaus bewirke die Ver-knüpfung mit der vorgesehenen Veränderung des Gesellschaftsrechts, dass in den Markt neu eintretende bzw. dies beabsichtigende Wettbe-werber bessere Chancen haben werden, da sie nicht mehr mit langfristig präsenten Marken und davon profitierenden kapitalstarken Unterneh-men konkurrieren müssen. Auch die Frage nach der Möglichkeit, die „emotionalen externen Effekte“ zu reduzieren und Emotionen stärker ins Wirtschaften zu integrieren, beantwortet er positiv. Er verweist dabei zum einen auf die erwartete Reduzierung der vor allem durch den bislang unbegrenzten Markenschutz entstehen-den (und die externen Effekte bewirkenden) Marketing- und Medienmacht; zum anderen führt er die verbesserten Chancen an, ein Unter-nehmen zu gründen und leitet daraus Effekte ab wie „vermehrten Stolz auf die eigene Arbeit“, Berücksichtigung der „Würde der Menschen“ oder auch eine stärkere regionale Orientierung und damit gesellschaftliche Identitätsbildung vor Ort. Spätestens hier bewegt sich Bannas aller-dings deutlich im Bereich der Spekulation.

Der zweite Aspekt betrifft das Thema Verbraucherschutz. Der Autor stellt hier dem Argument, die Existenz von Marken würde eine durch bessere Information bedingte Kauferleich-terung für Kunden und damit mehr Verbrau-cherschutz bewirken, seine Beobachtung der Praxis und Thesen aus der betriebswirtschaftli-chen Literatur gegenüber. Demnach sind Wer-bestrategien in den letzten Jahren zunehmend dadurch charakterisiert, dass in ihnen die funkti-onalen Qualitäten eines Produkts zunehmend durch psychologische Qualitäten und die Ver-mittlung eines psychologischen Zusatznutzens ergänzt bzw. abgelöst werden. Die ursprüngli-che Funktion von Marken, Produktinformation und -unterscheidbarkeit zu erhöhen, verliere zu Gunsten des Ziels des Aufbaus von Produzen-tenmacht an Bedeutung. In einem System mit zeitlich befristetem Markenschutz könne dage-gen Werbung den Verbraucherschutzgedanken wieder neu entdecken.

Schließlich widmet sich Bannas der klassi-schen Frage nach der volkswirtschaftlichen Effi-zienz. Hinsichtlich des hierfür zentralen Kriteri-ums, der Allokation der Produktionsfaktoren,

misst er seinem Modell eine der gegenwärtigen Praxis vergleichbare Effizienz zu. Ein effizienter Kapitaleinsatz werde vor allem dadurch gewähr-leistet, dass die Prinzipien freie Preisbildung, Privateigentum, Gewinnanreiz und dezentrales Angebot erhalten bleiben. Der Faktor Arbeit werde aufgrund der steigenden Marktchancen, Arbeitsleistung als Selbständiger anzubieten, und der vermehrten Wahrnehmung dieser Chan-cen aufgrund der stärkeren Gewinnanreize eben-falls tendenziell effizienter eingesetzt. Bezogen auf die Distributionseffekte konstatiert der Autor die Überlegenheit des Modells, da die tenden-ziell wachsende Spreizung sowohl in der funkti-onalen als auch in der personalen Einkommens-verteilung abgebaut werde, zurückzuführen vor allem auf die fairere Chancenverteilung für un-ternehmerisches Handeln und auf die wachsende Zahl von Unternehmen bzw. Unternehmerfami-lien. Schließlich attestiert Bannas dem Modell auch Ordnungskonformität, einerseits aufgrund der Beibehaltung der oben genannten Prinzipien zu Preisgestaltung oder Produktangebot, ande-rerseits unter der Maßgabe, dass durch die Ge-währung angemessener Anpassungszeiträume für die Umsetzung der markenschutzrechtlichen Veränderungen auch dem Eigentumsschutzge-danken Rechnung getragen werden kann.

Im letzten Teil benennt der Autor zunächst einige Punkte, die im Rahmen einer Weiterent-wicklung bzw. Präzisierung des Modells der genaueren Betrachtung bedürfen, etwa den Übergangsprozess zu den neuen Regelungen, die Funktion des Staates als Unternehmer oder die Regeln zum Vererben und zum pfändungs-freien Vermögen betreffend. Im Anschluss da-ran geht Bannas kurz auf einige ihm bisher be-sonders häufig gestellte, teils kritische Fragen zu seinem Ansatz ein. Zum Abschluss skizziert er erste aus seiner Sicht denkbare Maßnahmen zur geeigneten Gestaltung des Transformationspro-zesses der beiden Rechtsbereiche in Richtung einer „fairen Marktwirtschaft“.

Was die Einschätzung des vorliegenden Buches betrifft, will ich zunächst drei Punkte herausstellen: Zunächst ist es dem Autor gelun-gen, auf wenigen Seiten ziemlich komplexe wirtschaftssytemare und -politische Sachverhal-te auf der Ebene der Diagnose sowie der Prob-lemlösungsstrategie auch für Nicht-Experten recht verständlich darzustellen. Unter inhaltli-chen Gesichtspunkten ist sehr zu begrüßen, dass

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 109

Page 110: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

hier die Begriffe bzw. Grundgedanken der Fair-ness und der Chancengleichheit (vielleicht sollte man eher von Chancenvergleichbarkeit sprechen) im Zusammenhang mit dem wirt-schaftlichen Geschehen in den Mittelpunkt gerückt werden. In der ordnungsökonomischen bzw. -politischen Debatte stellt dies eine eher seltene Ausnahme dar. Wenn auch in dem Buch nach meiner Erinnerung kein einziges Mal der Begriff „Nachhaltigkeit“ verwendet wird, so stellen doch Fairness und Chancenvergleichbar-keit unter dem Stichwort der inter- und intrage-nerativen Gerechtigkeit Grundorientierungen in der Nachhaltigkeitsdebatte dar. Insoweit kann (und sollte) die Kernthese des Buches durchaus auch in diesen Kontext gestellt werden. Gleiches gilt für die beiden strategischen Ansatzpunkte der Veränderung des Gesellschafts- und des Markenrechts, die auf eine Begrenzung von ökonomischer Macht sowie auf die Institutiona-lisierung von individueller Verantwortung für wirtschaftliches Handeln zielen.

Wenn auch die hier vorgelegten Grund-überlegungen zur „Vision“ einer veränderten marktwirtschaftlichen Ordnung vom Autor selbst mit dem Etikett der noch erforderlichen Präzisierung und Weiterentwicklung versehen worden sind, will ich dennoch einige kritische Anmerkungen zu einigen eher grundlegenden Punkten anfügen:

- Insbesondere mit der Verwendung des Be-griffs „umfassendes Gesellschafts- und Wirt-schaftskonzept“ für seinen Ansatz hat sich der Autor – wie ich finde unnötigerweise – die Messlatte des eigenen Anspruchs und vor allem der induzierten Lesererwartungen sehr hoch, ich denke zu hoch gelegt. Zwar stellen die beiden Vorschläge zur Veränderung des Gesellschafts- und Markenrechts das im Kern neue bzw. innovative und, gemessen an der gegenwärtigen Praxis, ohne Zweifel weit reichende Element des Buches dar. Aber selbst wenn man berücksichtigt, dass diese ordnungspolitischen Neuerungen Auswir-kungen auf gesellschaftliche Aspekte haben und dass der Autor eine explizite Verknüp-fung zum Thema menschliche Emotionen herstellt, sollte man doch mit dem Begriff des „Umfassenden“ in diesem Zusammen-hang etwas vorsichtiger umgehen.

- Ohne Zweifel liefert Bannas mit den beiden Reformvorschlägen zum Gesellschafts- und

Markenrecht einen sehr interessanten und innovativen Beitrag zu der Frage, wie die existierenden ordnungsökonomischen Rah-menbedingungen zu reformieren wären, um bestimmte Problemphänomene zielgerichtet eindämmen zu können. Weniger überzeu-gend erscheint mir dagegen die starke Beto-nung der menschlichen bzw. emotionalen Komponente in den betrachteten Prozessen, die für beide Reformvorschläge als explizi-ter Begründungskontext herangezogen wird. So wird für die Abschaffung der bestehenden Haftungsbeschränkungsregelungen nicht nur das Argument der verstärkten Zuschreibung individueller Verantwortung für wirtschaft-liches Handeln, sondern auch die Auseinan-dersetzung mit der Emotion Angst und mit dem Unbekannten angeführt. Auch die Be-schränkung des Markenschutzes wird nicht nur mit den Zielen Abbau von Marktmacht und Stärkung der Chancengleichheit, son-dern auch mit der Verringerung emotionaler Beeinträchtigungen der Menschen durch Werbe- und Marketingstrategien begründet. Insbesondere mit der Prüfung seines Ansat-zes hinsichtlich des Gelingens der „Freiset-zung bestimmter menschlicher Energien und Regungen“ begibt sich der Autor auf problematisches Gelände. Manche Argu-mentation wirkt hier ziemlich gezwungen, zumindest jedoch sehr spekulativ, und nur bedingt nachvollziehbar.

Zumindest in dem Maße wie Anschluss-fähigkeit an eine existierende Debatte, Nach-vollziehbarkeit und vor allem eine den Grundthesen zu wünschende Akzeptanz bei den relevanten Institutionen als ein erstre-benswertes Ziel betrachtet werden, hielte ich eine weniger starke Betonung der emotiona-len Aspekte der Vorschläge für zuträglicher.

- Mit seiner – nur mit der Sicht des überzeug-ten „Marktwirtschaftlers“ erklärbaren – ab-soluten Fokussierung auf das Funktions-prinzip „Markt“ (er spricht auch von seinem Ansatz als „radikal liberalem Wirtschafts-konzept“) blendet der Autor die gesamte Pa-lette dessen aus, was seit langem und weit-gehend konsensual als „Marktversagen“ be-zeichnet wird. Anders als in seiner Ein-schätzung spielt dieses Phänomen in der Praxis eine erhebliche Rolle, da mit seinem Erscheinen immer dann zu rechnen ist,

Seite 110 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 111: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

REZENSIONEN

wenn die Realität von der idealtypischen ökonomischen Modelltheorie abweicht: d. h. wenn es um öffentliche Güter geht (was den gesamten Umweltbereich betrifft, aber auch z. B. das Thema Bildung), wenn (ökologische oder soziale) externe Effekte vorliegen oder wenn die Akteure nicht über „vollständige Information“ hinsichtlich Pro-duktpreisen und -qualitäten und die Pläne aller Marktteilnehmer verfügen. Es ist zu-mindest fraglich und weiteren Untersuchun-gen vorbehalten, ob bzw. inwieweit es mit der Umsetzung der Vorschläge des Autors (eher) gelingen könnte, die aus diesen Phä-nomenen resultierenden Probleme zu lösen und ob es beispielsweise ergänzender Me-chanismen bedürfte. Gleiches gilt für die unterstellte Tendenz hin zu mehr Muße und Langsamkeit anstatt Geschwindigkeit und Dynamik im Wirtschaftsprozess.

- Ein ebenfalls grundsätzlicheres Problem scheint mir darin zu liegen, dass der Autor seine Vorschläge, die ja nicht zuletzt vertei-lungsbeeinflussenden Charakter besitzen und die er daher zu Recht mit den Begriffen „Fairness“ und „Chancengleichheit“ in Ver-bindung bringt, einer mehr oder weniger klassischen Effizienzprüfung zu unterziehen versucht. Selbst wenn man einen breiteren Effizienzbegriff zu Grunde legt, gilt doch, dass die Realisierung von Fairness zumindest auch nach anderen Kriterien als dem der Ef-fizienz zu bemessen ist. Der Autor unterzieht sich bzw. seinen Ansatz damit einem unnöti-gen, weil sachlich unangemessenen Erklä-rungs- bzw. Rechtfertigungszwang, der – und das ist natürlich die Interpretation des Rezensenten – den Umstand widerspiegelt, dass Bannas hin und her gerissen ist zwi-schen neoklassisch-marktwirtschaftlichen Grundüberzeugungen und dem Wunsch, in diesem System „revolutionäre“ Ideen zu verwirklichen. Nicht zuletzt auch weil die von ihm vorgebrachten Argumente für die Möglichkeit eines effizienten Einsatzes der Produktionsfaktoren in seinem Modell meist sehr kursorisch, spekulativ und nur bedingt nachvollziehbar sind (etwa den Faktor Arbeit betreffend), scheint mir dieser – bewusst oder unbewusst vollzogene – Spagat nicht ganz geglückt zu sein.

- Schließlich sei noch auf eine zumindest sprachliche „Unsauberkeit“ hingewiesen. Wenn der Autor von „Kapital“ spricht, die-ses als tendenziell vergangenheitsbezogen bezeichnet und ihm keine eigenständige und strukturierende Funktion zumessen möchte, meint er offenkundig das Sachkapital in Form von Anlagen, Gebäuden, Maschinen usw. Unter dem Kapitalbegriff werden je-doch vielfach – man mag sich über die An-gemessenheit streiten – auch ökologische („Naturkapital“) und soziale bzw. menschli-che Faktoren („Sozial-, Wissens- und Hu-mankapital“) subsumiert. Da diesen im Sinne des Autors wohl durchaus eine eigenständige Funktion zuzumessen ist, wäre hier größere sprachliche Genauigkeit ratsam gewesen.

Als Fazit möchte ich festhalten: Auch wenn man sich nicht die Terminologie des Autors zu eigen macht, der im Zusammenhang mit seinem An-satz und dessen Umsetzung die Begriffe „Unge-heuerlichkeit“ und „Heldentat“ verwendet, sind die weit reichenden Veränderungen der beste-henden wirtschaftlichen Rahmenbedingungen, die mit den unterbreiteten Vorschlägen verbun-den sind, offenkundig. Sie sind im Kern positiv zu bewerten, zumindest jedoch der eingehenden Diskussion würdig. Die kritischer zu betrach-tenden Teile des Buches liegen eher im „Um-feld“, genauer in einigen der vom Autor gewähl-ten Begründungskontexte und Bewertungskrite-rien. Aus der Sicht des Rezensenten wäre eine Beschränkung auf die Ziele Zuschreibung von individueller Verantwortung für wirtschaftliches Handeln und Reduzierung von Marktmacht völlig ausreichend und unter Akzeptanzge-sichtspunkten erfolgversprechender gewesen, um im Rahmen der existierenden (Nachhaltig-keits)Debatten für die – ohnehin schon für viele schwer verdaulichen – Thesen zur Veränderung des Gesellschafts- und Markenrechts zu werben. Letztlich werden die Intensität und die Richtung der allgemeinen Rezeption und Diskussion des Buches in der nächsten Zeit zeigen, wie die vom Autor gewählte Strategie zu beurteilen ist.

« »

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 111

Page 112: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

NACHRICHTEN

NACHRICHTEN

Transport Research Knowl-edge Centre: Launch of the re-vamped website

The “European Transport Research Knowledge Centre” is a EU-funded website that connects transport research solutions to European trans-port policy.

The newly structured Transport Research Knowledge Centre was launched in July 2004 at the World Congress on Transport Research (WCTR’04) in Istanbul. At

http://europe.eu.int/comm/transport/extra/web/index.cfm

the website offers information on how Euro-pean (e.g. FP4, FP5, etc.) and national transport research programmes and projects can help “to develop guidelines and innovative tools to sup-port sustainable mobility”.

The website currently features summaries of 206 international, European and national research programmes.

At the project level, FP4 results have all been re-categorised according to a multi-dimensional thematic structure. Thematic find-ings are provided once final results are avail-able while policy implications are analysed across the results contributing to specific themes and presented in thematic reports. In the future, results from all 30 countries repre-sented will be made available to the research and business communities, as well as public service providers and governments.

In addition to the Programmes database a more concise guide is now available for distribution to a wider audience.

For each country, you will find:

- A short introduction outlining the main actors and organisation of transport re-search.

- A list of government departments (minis-tries) and state agencies involved in trans-port research and their web sites.

- A list of programmes sponsored by these government bodies. This includes the pro-

gramme name and, where necessary, a brief description, including the name of the lead-ing organisation.

In order to ensure that these results are har-monised, a common European Transport Re-search Reporting Scheme has been developed with the support of an Advisory Board com-posed of representatives from national trans-port ministries.

For making submissions, transport project co-ordinators can use the Word forms for download (Project Profile, Progress Summaries and Result Summary) or directly use the online reporting facility via a secure extranet (go to http://www.transport-research.info).

«

Bibliographie zu Fragen der In-ter- und Transdisziplinarität

Seit Anfang Juni 2004 steht die in den letzten Jahren von der Forschungsgruppe Inter-/Trans-disziplinarität (IKAÖ, Universität Bern) aufge-baute Bibliographie zu Fragen der Inter- und Transdisziplinarität als Online-Datenbank mit ca. 3.000 Eintragungen auf dem Netz zur Ver-fügung:

http://www.interdisciplinarity.ch/

Das Ziel der Forschungsgruppe besteht darin, zur Verbesserung inter- und transdisziplinärer Prozesse beizutragen. Sie nimmt eine ge-samtheitliche Perspektive ein und versucht, Theorie und Praxis zu verbinden, den Bogen von der Forschung bis zur Lehre zu schlagen und dabei möglichst sämtliche Aspekte inter- und transdisziplinären Arbeitens in den Blick zu nehmen.

Kontakt

Dr. Antonietta Di Giulio E-Mail: [email protected]

« »

Seite 112 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 113: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

DISKUSSIONSFORUM

DISKUSSIONSFORUM

Innovationspolitische Aspekte der geplanten Einführung eines elektronischen Maut-Systems in Deutschland*

von Günter Halbritter, Torsten Fleischer und Christel Kupsch, ITAS

Die vornehmlich als industriepolitische Pan-ne angesehene, bisher an technischen und organisatorischen Problemen gescheiterte Einführung des technisch anspruchsvollen elektronischen Mautsystems Toll Collect in Deutschland offenbart auch innovationspoli-tische Defizite, die in Deutschland vorliegen-de politische Rahmenbedingungen für die im Augenblick intensiv diskutierten Innovatio-nen betreffen. Nachfolgend werden innovati-onspolitische Aspekte der geplanten Einfüh-rung eines elektronischen Maut-Systems in Deutschland auf der Grundlage von Erfah-rungen aus mehreren vom Bundesministeri-um für Bildung und Forschung (BMBF) ge-förderten Forschungsprojekten, die am Insti-tut für Technikfolgenabschätzung und Sys-temanalyse (ITAS) des Forschungszentrums Karlsruhe durchgeführt werden und wurden, und die den Vergleich von Innovationsstra-tegien im Bereich der Verkehrstelematik in verschiedenen Ländern zum Untersu-chungsgegenstand haben, kommentiert.

Vergleichende Untersuchungen von Innovati-onsstrategien im Bereich der Verkehrstelematik (VT) in verschiedenen Ländern, die vom ITAS durchgeführt wurden bzw. zurzeit noch laufen, zeigen, dass infrastrukturbasierte Innovationen, d. h. solche. deren Realisierung mit dem Auf-bau von Infrastrukturleistungen verbunden ist, nicht nur einer konzeptionell-strategischen, sondern auch einer organisatorischen Beglei-tung durch staatliche Institutionen bedürfen, wenn sie erfolgreich realisiert werden sollen (Halbritter u. a. 1999; Halbritter u. a. 2002). In Deutschland hingegen wird Innovationsmana-gement vornehmlich als Aufgabe der Industrie angesehen. Komplexe Aufgaben wurden auch im Falle von Toll Collect als Ganzes an die Industrie übergeben, in der Hoffnung, ihr wer-

de die Realisierung schon gelingen. Die gesam-te Einführungsstrategie, die Überprüfung vor-gegebener bzw. festgelegter Schritte während der Einführungsphasen stehen damit nicht mehr im Einflussbereich der Politik. Die feh-lenden Möglichkeiten des Eingreifens staatli-cherseits bei der Koordinierung sind unter an-derem als ein Grund für die Probleme bei der Einführung der satellitengestützten Lkw-Maut anzusehen.

Unstrittig ist der eigentliche Grund für die in den Medien als Maut-Desaster beschriebene Technikpanne eine Fehleinschätzung der Kom-plexität, die mit der Einführung neuer IuK-Techniken im Rahmen integrativer Konzepte im großtechnischen Maßstab verbunden sind. Dabei ist im Rahmen von Toll Collect im Wesentli-chen das organisatorische Problem der System-integration von Komponenten zu leisten, deren Basistechniken, wie z. B. GPS und GSM, weit-gehend bekannt und erprobt sind. Das Scheitern dieser Systemintegration weist darauf hin, dass in jüngster Vergangenheit die Entwicklung technischer und organisatorischer Kompetenzen, die früher eine besondere Stärke der deutschen Industrie darstellten, hinter ökonomische Priori-tätensetzungen zurückgetreten ist. So beklagen heute viele Ingenieure gerade der fortgeschritte-nen Altersstufen, dass in den vergangenen Jah-ren der kreative, gestalterische Einfluss ingeni-eurwissenschaftlicher Kompetenz zurückge-drängt wurde. Diese Tendenz kennzeichnet be-sonders auch die Entwicklung im Bereich der Bahntechnik. Das Tragische an dieser Entwick-lung ist, dass bei der Vielzahl der Pannen bei der Einführung neuer Techniken auch die ökonomi-schen Erwartungen nicht in Erfüllung gingen.

Insgesamt lässt sich in jüngster Vergangen-heit die widersprüchliche Entwicklung beobach-ten, dass einerseits neue technische Produkte, wie Digitalkameras und Mobiltelefone, sich großen Interesses sowohl seitens der breiten Öffentlichkeit als auch der Medien erfreuen. Dem steht jedoch nur ein sehr schwach ausge-prägtes Interesse an den eigentlichen techni-schen Konzepten gegenüber, die Grundlage für diese neuen Produkte und Dienstleistungen sind. Dies spiegelt sich auch wider in dem schweren Stand, den kompetenter Technikjournalismus in Deutschland besitzt. So war und ist auch die mediale Diskussion im Falle der LkW-Maut gar nicht von technischen Problemen geprägt, selten

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 113

Page 114: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

DISKUSSIONSFORUM

ist von ihnen überhaupt die Rede, vielmehr spie-len vornehmlich Spezialfragen der Vertragsge-staltung eine viel bedeutendere Rolle. Auch vom Verkehrsministerium vergebene Beraterverträge zielen dem Vernehmen nach vornehmlich auf rechtliche und wirtschaftliche Fragestellungen und nicht auf die technische Umsetzung von Mautkonzepten, andernfalls hätten kritische technische Machbarkeitsaspekte zumindest als mögliches Umsetzungsproblem angesprochen werden müssen.

Dieser mangelnde Bezug von Entschei-dungsträgern und Multiplikatoren zu den grund-sätzlichen Funktionsweisen technischer Konzep-te ist auch ein Grund für unrealistische Visionen zu deren Leistungsfähigkeit und notwendiger Umsetzungszeiträume. Toll Collect ist ein Bei-spiel für eine solche utopischen Visionen ent-springende Überschätzung technischer Systeme. Diese Überschätzung geht sogar so weit, dass in Deutschland, wie das Beispiel von Toll Collect ebenfalls zeigt, verkehrspolitische Überlegungen technischen und industriepolitischen Konzepten untergeordnet werden. Dies kann in kaum einem anderen Land so deutlich beobachtet werden wie in Deutschland. So besteht seit vielen Jahren bei den großen Parteien Konsens darüber, dass der Güterverkehr angemessene Anteile an den Infra-strukturkosten zu tragen hat und dass strecken-bezogene Straßenbenutzungsgebühren das ge-eignete Instrument hierzu seien. Aber anstatt diese Einschätzung schon vor Jahren mit ver-fügbaren und erprobten terrestrischen Techniken umzusetzen, wird ein „Hightech“-Konzept ent-wickelt, dass bezüglich seiner technischen Aus-legung – Gebührenabbuchung auch bei hohen Geschwindigkeiten und gleichzeitigem Spur-wechsel – für den LkW-Verkehr absolut über-dimensioniert ist. Die Realisierung einer ver-nünftigen verkehrspolitischen Einsicht muss daher auf die Entwicklung eines überdimensio-nierten „Hightech“-Konzepts warten.

1 Der Staat als Innovationsmanager?

Ein wesentliches Ergebnis der oben genannten, vom Bundesministerium für Bildung und For-schung (BMBF) geförderten Forschungsprojekte des ITAS, die sich mit Innovationsstrategien im Bereich der Verkehrstelematik in verschiedenen Ländern befasst haben, war, dass infrastruktur-basierte Projekte, d. h. Vorhaben, deren Reali-

sierung mit dem Aufbau von Infrastrukturleis-tungen verbunden ist, nicht nur einer konzeptio-nell-strategischen, sondern auch einer organisa-torischen Begleitung durch staatliche Institutio-nen bedürfen, um erfolgreich zu sein. Diese Erkenntnis der Notwendigkeit staatlichen Enga-gements über vertragsrechtliche Regelungen hinaus findet nicht nur in den USA, sondern auch auf der Ebene der Europäischen Union und einer Reihe europäischer Staaten Beachtung, die verkehrstelematische Konzepte entsprechend verkehrspolitischen Strategien teilweise bereits erfolgreich umgesetzt haben. So etwa in Frank-reich, Italien, den Niederlanden, dem Vereinig-ten Königreich, Schweden, Finnland, Tsche-chien und Österreich. Deutschland hingegen verzichtet bisher auf die Entwicklung verkehrs-strategischer Konzepte zum Einsatz der Ver-kehrstelematik und hofft auf die Wirkung auto-nomer Marktmechanismen, ohne dass vorher entsprechende Rahmenbedingungen für einen solchen Markt entwickelt wurden. Dies ge-schieht auf der Grundlage von Fehlinterpretatio-nen von Konzepten, wie das der „Public Private Partnership (PPP)“.

Besonders überraschend ist die innovati-onsstrategische Praxis in den USA, dem Land, das zumeist als Vorbild für erfolgreiche Inno-vationsaktivitäten gilt. Im Vergleich zu Deutschland ist dort ein bemerkenswert hohes staatliches Engagement bei der Konzeption und Durchsetzung von Innovationsstrategien im Bereich der Verkehrstelematik, dort ITS – In-telligent Transportation Systems genannt, fest-zustellen. Die Entwicklung und der Einsatz der neuen Techniken wird dabei keineswegs der Industrie allein überlassen, vielmehr fördern staatliche Institutionen nicht nur die Einfüh-rung von ITS in einer systematischen und kon-sequenten Weise, sondern begleiten diese auch in der Einführungsphase (deployment) und üben einen gezielt lenkenden Einfluss im Hin-blick auf die angestrebten Zielvorgaben aus. Man ist geneigt, angesichts des Fördervolu-mens für nationale ITS-Programme von einem gigantischen staatlichen Technikeinführungs-programm zu sprechen.

Die Vielzahl staatlicher Aktivitäten in die-sem Bereich erweckt den Anschein eines Pla-nungsperfektionismus, bei dem staatlichen Insti-tutionen vornehmlich die Vorgabe der strategi-schen Ausrichtung zukommt. Insbesondere vier

Seite 114 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 115: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

DISKUSSIONSFORUM

Aspekte kennzeichnen die US-amerikanischen Aktivitäten: So werden von den für die Ver-kehrspolitik verantwortlichen staatlichen Institu-tionen nicht nur zukunftsorientierte Programme festgelegt, sondern diese Programme bestimmen auch gesetzliche Regelungen zur Einführung und Umsetzung neuer Techniken und Dienste. Noch konkreter bezüglich der Umsetzung der neuen Techniken und Dienste sind die Vorgaben der so genannten nationalen Architektur, die sich nicht nur auf die Schnittstellenabstimmung verschiedener technischer Einzelmodule bezie-hen, sondern grundsätzliche Aspekte und An-forderungen für die Einführung neuer Techniken und Dienste beschreiben. Schließlich ist das systematische Projektmanagement nicht nur bei der Entwicklung, sondern auch beim Einsatz der neuen Techniken und Dienste in konkreten An-wendungszusammenhängen zu erwähnen.

Um dieses systematische Projektmanage-ment leisten zu können, wurden in den USA auch institutionelle Voraussetzungen im admi-nistrativen Bereich und bei der wissenschaftli-chen Begleitung der Programme geschaffen. So wurde in den USA nicht nur im US-Ver-kehrsministerium (US-DoT) mit dem „Joint Program Office“ eine ressortübergreifende Querschnittsorganisation für die verschiedene Verkehrsträger betreffenden ITS-spezifischen Fragen eingerichtet, sondern auch spezielle wissenschaftliche Institutionen, wie das Volpe Center mit Begleituntersuchungen beauftragt, das mit seinen vielfältigen Kompetenzen im Bereich der strategischen Innovationsplanung und der unmittelbaren wissenschaftlichen Poli-tikberatung in diesem Bereich sehr hilfreich ist.

Auch in der EU wurde, wie bereits er-wähnt, die Notwendigkeit einer konzeptionel-len Gestaltung der Verkehrstelematik im Hin-blick auf verkehrs- und umweltpolitische An-forderungen erkannt und auch umgesetzt. So wurde eine „EU Rahmenarchitektur“ der Ver-kehrstelematik entwickelt, die Strukturen und Funktionen der neuen Techniken und Dienste beschreibt. Sie soll als Grundlage für die Ent-wicklung von „nationalen Architekturen“ die-nen. Ein Großteil der EU-Länder haben die entsprechenden Vorgaben der EU auch in Form von „nationalen Plänen“ und „nationalen Ar-chitekturen“ bereits umgesetzt bzw. sie sind dabei, diese umzusetzen. In Deutschland wurde bisher jedoch keine Notwendigkeit gesehen,

von Seiten der Regierung strategische und or-ganisatorische Vorgaben zu machen.

Als wir im Jahre 1999 die US-amerikani-sche Vorgehensweise vor Vertretern des BMBF und des damaligen BMV, heute BMVBW, vor-stellten, war der lakonische Kommentar des Vertreters des Verkehrsministeriums zu unseren Ausführungen, eine nationale Architektur werde es in Deutschland nicht geben. Von Seiten der Politik sei alles getan, jetzt sei die Industrie am Zuge und der Markt werde die Einführung der neuen Techniken und Dienste regeln. Eine Ein-schätzung, die schon deshalb sehr erstaunlich ist, da die USA nicht gerade das Land ist, wo Marktprozesse eine unbedeutende Rolle spielen.

2 Unterschiedliches Verständnis von „Public Private Partnership (PPP)“

Die unterschiedliche Einschätzung der Notwen-digkeit staatlichen Engagements bei der Reali-sierung von Innovationsstrategien wird auch aus der unterschiedlichen Bedeutung des Begriffs „Public Private Partnership (PPP)“ deutlich. Dieser Begriff erfreut sich in Deutschland einer Beliebtheit, die weit über diejenige anderer Ang-lizismen hinausgeht. Dabei ist jedoch bemer-kenswert, dass in den USA ganz andere Vorstel-lungen über die grundsätzliche Bedeutung und die praktische Realisierung von PPP bestehen als in Deutschland. Dort werden, wie bereits erwähnt, PPP-Projekte im Bereich der Ver-kehrstelematik vornehmlich auf der Grundlage staatlicher Strategiekonzepte und Programme durchgeführt. Privaten Unternehmen werden im Rahmen der Realisierung dieser Programme klar umrissene Arbeitspakete zugewiesen. Umfang-reiche staatlich koordinierte Evaluationspro-gramme begleiten die praktische Umsetzung. Um diese konzeptionellen Arbeiten zu leisten, wurden sowohl in der einzelstaatlichen wie auch der Bundes-Administration entsprechende orga-nisatorische Voraussetzungen geschaffen. Auch stehen, wie bereits erwähnt, kompetente Ein-richtungen zur wissenschaftlichen Politikbera-tung für diese komplexen Innovationsvorhaben zur Verfügung. Für mit deutschen Verhältnissen Vertraute erstaunt auch immer wieder die Deut-lichkeit mit der in den Evaluationsberichten die noch vorliegenden Defizite benannt werden. So wird in dem Evaluationsbericht zu einem vom US-Verkehrsministerium in vier US-Ballungs-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 115

Page 116: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

DISKUSSIONSFORUM

räumen durchgeführten Projekt zur Einführung von Telematikdiensten klar ausgesprochen, dass bisher kein einziges erfolgreiches PPP-Projekt realisiert werden konnte („...there was no successful PPP-project“; US-DoT 2001).

In Deutschland hingegen wird Innovati-onsmanagement vornehmlich als Aufgabe der Industrie angesehen. Es wurden zwar eine Reihe von Innovationsbeiräten gegründet, diese haben jedoch bisher keine wirklich gestaltenden Akti-vitäten entfaltet. Im administrativen Bereich auf der Ebene des Bundes werden bestimmte tech-nische Entwicklungslinien im Rahmen von Pro-grammen des BMBF gefördert. Diese werden aber häufig – zumindest in der Frühphase – unter einseitig industriepolitischen Aspekten ohne Einbeziehung der jeweils verantwortlichen Fachressorts und damit auch ohne frühzeitige Analyse der praktischen Umsetzungsmöglich-keiten vorangetrieben. Dies kann, wie das Bei-spiel des Magnetschwebebahnsystems Transra-pid zeigt, zu erheblichen Problemen führen. Technisch durchaus interessante und viel ver-sprechende Projekte scheitern, weil der Analyse der Umsetzbarkeit und der staatlichen Beglei-tung der Umsetzung (deployment) nicht frühzei-tig der notwendige Stellenwert gegeben wird. In den angelsächsischen Ländern sind die Förde-rung von Technikentwicklungen wie auch die Einführung neuer Techniken zumeist Gegen-stand der Fachadministrationen, die dadurch gezwungen sind, Einführungsstrategien zu ent-wickeln und entsprechende organisatorische Strukturen aufzubauen, die sich an den spezifi-schen Bedingungen der Einführung der neuen Techniken zu orientieren haben.

3 Ineffektiver Innovationsdiskurs

Das Beispiel des Mautsystems Toll Collect zeigt somit auch die erheblichen Auswirkungen, die Defizite im administrativen Bereich haben kön-nen. Komplexe Aufgaben wurden auch in die-sem Fall als Ganzes an die Industrie übergeben, in der Hoffnung, ihr werde die Realisierung schon gelingen. Die gesamte Einführungsstrate-gie, die Überprüfung vorgegebener bzw. festge-legter Einführungsphasen stehen damit nicht mehr im Einflussbereich der Politik. Da weder nationale Programme noch entsprechende Ge-setze für die Einführung der neuen Techniken als notwendig erachtet werden, sind diese auch

nicht Gegenstand parlamentarischer Beratungen. Ohnehin ist die parlamentarische Arbeit in Deutschland nicht durch innovationspolitische Diskurse oder Initiativen gekennzeichnet, sieht man von wenigen Ausnahmen, wie dem Gen-technikgesetz, einmal ab. Das Parlament besitzt zwar kompetente Beratungseinrichtungen zur Problematik der Einführung von neuen Techno-logien, diese werden aber zumeist zur Beratung über langfristige Entwicklungen und weniger zur unmittelbaren Technikeinführung herange-zogen. An dieser Situation ändert auch die vor kurzem initiierte Innovationsdebatte nichts, die bisher in keinem Fall konkret geworden ist oder Visionen derjenigen Innovationen entwickelte, die für die Zukunft von Bedeutung sein sollten, z. B. um die oft geforderte „nachhaltige Ent-wicklung“ zu befördern.

Dieser neuerlich in Deutschland initiierte Innovationsdiskurs, wenn man den Äußerun-gen der vergangenen Monate diese anspruchs-volle Bezeichnung zuordnen kann, bleibt auch deshalb oberflächlich, da dem mit der Forde-rung nach Innovationsbereitschaft verbundenen Anspruch an die Politik, in Legislative und Exekutive, nur unzureichend entsprochen wur-de. Innovationen sind Umsetzungen techni-scher und organisatorischer Neuerungen in die gesellschaftliche Praxis. Sie erfordern daher auch entsprechende politische Rahmenbedin-gungen, um verwirklicht zu werden. Insbeson-dere die neuen Informations- und Kommunika-tionstechniken (IuK-Techniken) können ihre Systemvorteile erst dann entfalten, wenn die entsprechenden Bedingungen vorliegen.

Als Fazit bleibt zu betonen, dass es zu ein-fach wäre, die Panne bei Toll Collect allein der Industrie anzulasten, ebenso große Versäumnis-se sind auch den politisch Verantwortlichen zu zuschreiben. Hier wird zwar gerne von Innova-tionen gesprochen, aber weder im Ministerialbe-reich noch auch im Parlament wurden Struktu-ren aufgebaut, um den mühsamen Prozess – Innovationsmanagement als Umsetzungen tech-nischer Neuerungen in der Gesellschaft – zu begleiten, so wie es in anderen Staaten ge-schieht. Es besteht die Gefahr, dass die am Bei-spiel Toll Collect deutlich gewordene mangeln-de Bereitschaft, technischen Problemen eine entsprechende Bedeutung zuzumessen, zusam-men mit dem mangelnden Interesse in der Ge-sellschaft, technische Probleme bezüglich ihrer

Seite 116 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 117: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

DISKUSSIONSFORUM

Komplexität zur Kenntnis zu nehmen, auch andere Bereiche, wie etwa die Energieversor-gung, treffen kann. Dies würde erhebliche Aus-wirkungen auf unsere technisch-zivilisatorisch geprägte Gesellschaftsstruktur haben. In diesem Sinne kann das Debakel von Toll Collect sogar einen positiven Besinnungsprozess auslösen über die Rolle, die der Technikentwicklung in der Gesellschaft zukommen sollte und wie diese zu gestalten und zu begleiten wäre. * Überarbeitete Version des zuerst in der Zeitschrift

Internationales Verkehrswesen, Band 56, Heft 9/2004, S. 363-366 veröffentlichten Beitrags.

Literatur

Halbritter, G.; Bräutigam, K.-R.; Fleischer, T.; Klein-Vielhauer, S.; Kupsch, Chr.; Paschen, H., 1999: Umweltverträgliche Verkehrskonzepte: Ent-wicklung und Analyse von Optionen zur Entlastung des Verkehrsnetzes und zur Verlagerung von Stra-ßenverkehr auf umweltfreundlichere Verkehrsträ-ger. Berlin u. a.: Erich Schmidt Verlag (Beiträge zur Umweltgestaltung A 143) Halbritter, G.; Bräutigam, K.-R.; Fleischer, T.; Ful-da, E.; Georgiewa, D.; Klein-Vielhauer, S.; Kupsch, Chr., 2002: Verkehr in Ballungsräumen: Beiträge von Verkehrstelematiktechniken und -diensten für einen effizienteren und umweltverträglicheren Ver-kehr. Berlin u. a.: Erich Schmidt Verlag (Beiträge zur Umweltgestaltung A 149) US-DoT, 2001: Deploying and Operating Integrated Intelligent Transportation Systems. US-DoT Pub. No. 13599

Kontakt Prof. Dr. Günter Halbritter Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgenabschätzung und System-analyse (ITAS) Postfach 36 40, 76021 Karlsruhe Tel.: +49 (0) 72 47 / 82 - 48 71 Fax: +49 (0) 72 47 / 82 - 48 06 E-Mail: [email protected]: http://www.itas.fzk.de

« »

ISBN: 3-5030-4805 7; Preis: EUR 44,80

ISBN: 3-503-06686-1; Preis: EUR 29,80

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 117

Page 118: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

TAGUNGSBERICHTE

Of Visions, Dreams and Night-mares: The Debate on Con-verging Technologies Report on the Conference „Converging Technologies for a Diverse Europe“, Brussels September 14 – 15, 2004

by Christopher Coenen, TAB, Michael Rader and Torsten Fleischer, ITAS

1 The context

The occasion for the conference “Converging Technologies” was the launching of a public discussion on the report of a High-Level Expert Group (HLEG) “Foresighting the New Technol-ogy Wave”. The report, entitled “Converging Technologies – Shaping the Future of European Societies”, was edited by the philosopher Alfred Nordmann. Additionally, there were reports from several special interest groups (or working groups of the panel as a whole), position papers from individual members of the HLEG, a collec-tion of state of the art reviews and related pa-pers, and finally a set of comments by invited experts submitted prior to the conference.*

The exercise was organised by the foresight unit (K2) within the European Commission’s Directorate General Research. The HLEG was set up towards the end of 2003 and met formally four times between February and mid-June 2004, with communication within the special interest groups (SIGs) organised by their respec-tive chairpersons. It was composed of a total of 25 experts coming from a broad range of scien-tific disciplines and chaired by the historian Kristine Bruland of the University of Oslo.

The HLEG was set up largely in reaction to activities on the convergence of nanotech-nology, biotechnology, information technology and cognitive science (abbreviated and hence forward referred to as NBIC) by the National Science Foundation in the US, most notably the publication of a conference report “Converging Technologies for the Improvement of Human Performance” (Roco, Bainbridge 2002; see section 2 below) and subsequent annual con-ferences on the topic.

2 The background

Converging Technologies (CT) emerged as an issue of scientific and political discussion in the US. It takes up the notion of ‘convergence in the digital world’ which was developed in the IT, multimedia and entertainment industries in the nineties, and applies it to a current technological trend: Nanotechnology enables many new ap-proaches, processes and materials at the nano-scale as well as analytical access to and theoreti-cal understanding of fundamental chemical, physical and biological processes at atomic and molecular level. The implications of these trends, and their synergies with information technology are described in a RAND report published in 2001 (RAND 2001). On December 3-4, 2001, the National Science Foundation (NSF) and the US Department of Commerce (DoC) at the request of the National Science and Technology Council (NSTC), Subcommittee on Nanoscale Science, Engineering and Technol-ogy (NSET), organized a workshop on “Con-vergent Technologies to Improve Human Per-formance”. The outcomes of this workshop and contributions submitted after that meeting were published in June 2002 in a report of the same title (Roco, Bainbridge 2002).

According to the report, “the phrase ‘con-vergent technologies’ refers to the synergistic combination of four major “NBIC” (Nano-Bio-Info-Cogno) provinces of science and technol-ogy, each of which is currently progressing at a rapid rate: (a) nanoscience and nanotechnol-ogy; (b) biotechnology and biomedicine, in-cluding genetic engineering; (c) information technology, including advanced computing and communications; (d) cognitive science, includ-ing cognitive neuroscience. Accelerated scien-tific and social progress can be achieved by combining research methods and results across these provinces in duos, trios, and the full quar-tet. (…) This progress is expected to change the main societal paths, towards a more func-tional and coarser mesh instead of the less or-ganized and finer one we have now.”

Topic as well as content of this report al-most immediately attracted great attention from the technology assessment and foresight com-munities as well as national R&D policies. After the publication of the US report they became the subject of international discussions.

Seite 118 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 119: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

Other reports (TAB 2003; Paschen et al. 2004) characterized the US approach as being very futuristic and open to the ideas of “visionary engineers” (such as Ray Kurzweil) and the “transhumanist” movement. It has been criti-cized for mixing science and science fiction (Royal Society, Royal Academy of Engineer-ing 2004) as well as for displaying a disquiet-ing “insouciance” towards problematic aspects of the pursuit of human enhancement that could eventually lead to a “humanly dimin-ished” Brave New World (President’s Council on Bioethics 2003). It was also a task of the European HLEG to deal with the questions raised in the US report. Some of the, from our perspective, most problematic aspects of the US NBIC initiative will be outlined below.

3 Problematic Features of the US Initiative on Converging Technologies

The US public-private NBIC initiative could be seen as a by-product of the US nanotechnology initiative (NNI) and certain characteristics of NNI prepared the ground for the CT visions. The US nanotechnology strategy focussed from its beginnings - in the middle of the last decade - on new forms of transdisciplinarity and the unity of concepts among disciplines. Along with this soon came a highly optimistic rhetoric concern-ing the prospects of technological change. In an NSF workshop report on nanotechnology re-search directions published in 1999, an impor-tant proponent of the NBIC initiative wrote: “The convergence of nanotechnology with the other three power tools of the twenty-first cen-tury – computers, networks, and biotechnology – will provide powerful new choices never ex-perienced in any society at any time in the his-tory of humankind” (Canton 1999). In the NSF/DOC report (Roco, Bainbridge 2002) this bold vision is further elaborated: CT can poten-tially bring about

• a “new renaissance” within the 21st century, based “on a comprehensive understanding of the structure and behavior of matter from the nanoscale up to the (…) human brain”,

• “world peace, universal prosperity and an evolution to a higher level of compassion and accomplishment”,

• enhanced performance in all areas of human life,

• “wholly new kinds of rigorous research on the nature of both culture and personality” and a unification of knowledge by combin-ing natural sciences, social sciences, and humanities,

• a global !networked society of billions of human beings”, comparable to “one single interconnected ‘brain’” or to “a larger form of a biological organism”, and

• a “predictive science of societal behaviour”, allowing “advanced corrective actions”, based on NBIC and with the goal “to inter-dict undesirable behaviors before they cause significant harm to others and to support and encourage behaviors leading to greater social goods”.

While some critics ridiculed this vision, criti-cized it for its conceptional vagueness and dis-regard for mainstream science (Royal Society, Royal Academy of Engineering 2004) or dis-missed it as a slippery slope to a Brave New World (President’s Council on Bioethics 2003), others appraised it as a pioneering work with necessarily provocative features that should not be taken too seriously.

The proponents of the initiative, however, seem indeed to take their visions seriously: In a publication on the results of the second NBIC workshop in February 2003 (Roco, Monte-magno 2004), there is some new wording within the rhetorical framework (e.g. “social responsi-bility”, “democratic rights”, “deliberate choices”, “democratization”, “satisfying the needs of different lifestyles, cultures, and ‘value sets’”) – and even the idea of starting a NNI research project “to think about the language that can best be used to advance our common cause” (Bond 2004). Problematic features of the initiative’s approach are nevertheless retained and even radicalized: In one contribution (Can-ton 2004) possible misuses of CT by autocratic regimes and the “specter of eugenics” are men-tioned, but it is also deterministically stated that human enhancement and designed evolution will inevitably be future tools for shaping socie-ties. In another paper (Bainbridge 2004), a rather bizarre and polemical piece, the author predicts that a biology-inspired approach to social sci-ences “will allow us to engineer culture” and,

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 119

Page 120: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

among other things, recommends “memetics” (cf. Strong, Bainbridge 2002), internet research, Friedrich Nietzsche’s “The Birth of Tragedy” and Oswald Spengler’s “The Decline of the West” as useful starting points for the elabora-tion of such an approach.

There’s nothing to be said against new tools of quantitative research, and organic metaphors, as well as biological concepts, are quite well established in social sciences and cultural theory. Even “memetics” may deserve attention. But the initiative’s long-term goal to merge different disciplines into a single “hard” human science is questionable and seems to be rather unrealistic. In any case, polemics won’t help to reduce the notorious gap between the “two cultures” of scientists and humanists. It is therefore an encouraging sign that some parts of the US NBIC community seem to be – in-creasingly – interested in a thorough and com-prehensive analysis of the subject. Noteworthy works are included in the publications of the initiative (e.g. Gorman 2004, Khushf 2004a, or earlier Turkle 2002).

The initiative had a useful role in starting the discussion, and “could be understood in a more general way as a forum for exploring the future impact of all science and engineering” (Khushf 2004b). But it still serves as a vehicle for some highly idiosyncratic ideas, exhibits many biases and overly opinionated views, and suffers from a lack of forthrightness with regard to its proximity to “transhumanist” and other radically futuristic thinkers. Overall, the initia-tive is technology-driven, seems to be heavily influenced by new governmental perspectives on national security after 9/11, and conceals that many of the assumed technical breakthroughs presuppose scientific knowledge and techno-logical capabilities that will very likely not be available in the foreseeable future. Cognitive science is crucial for achieving most of the tech-nological visions but its opportunities and limits are least addressed. Discussions of ethical, legal or social issues related to NBIC are largely avoided. Assessments of hazards and risks as well as the discussion of values and moral boundaries are missing. Among the most serious flaws are the technocratic understanding of soci-ety and culture, the dubious evocation of the renaissance, the vision of a perfect future, the carefree siding with the proponents of a neural

turn in social sciences and humanities, the alarmingly deep fascination with man-machine-symbiosis, and a certain degree of disregard for diversity and for relevant research findings of other scientists and scholars.

4 Positions of the European High Level Expert Group – Analysis of the Report

HLEG (2004) starts the discussion by citing three rather futuristic passages from the NSF/DoC report (Roco, Bainbridge 2002), but then concentrates on the development of an alternative vision of CT. By doing so, HLEG avoided a direct critique of the US report – a prudently chosen modus operandi, given the report’s highly problematic features, the com-plicated US context of the NBIC initiative, and the short length of time at the HLEG’s disposal

In its discussion of the potentials, limits and implications of convergence, the HLEG reacted both implicitly and explicitly to the abovementioned problematic aspects of the US NBIC initiative:

• The report of the HLEG, perhaps mischie-vously, adds socio, anthro, philo, geo, eco, urbo, orbo, macro and micro to the four “big Os” in NBIC convergence and pro-poses a distinctively European concept for convergence, which it calls CTEKS, stand-ing for Converging Technologies for the European Knowledge Society. A major aim of this concept is to advance the so-called Lisbon agenda, the European path to the knowledge society.

• The group developed its own definition of converging technologies: “Converging tech-nologies are enabling technologies and knowledge systems that enable each other in the pursuit of a common goal” (p. 14). While this definition is very broad, at least nanotechnology, biotechnology and infor-mation technology have undisputed key roles in convergence. Their mutual enable-ment is characterized as evident. In addition the HLEG argues for a special role for the social sciences and humanities, including cognitive science in this category rather than in a group with the NBI part of con-vergence. It also refrains from hastily taking sides in the emergent new round of debate over free will versus (neuro)determinism.

Seite 120 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 121: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

• HLEG stresses the importance of specific societal needs that must be identified in or-der to take advantage of and preserve Europe’s cultural diversity and to create economic opportunity. Social sciences and humanities should provide orientation where CT could disrupt traditional ways of life, serve as intermediaries between politi-cal actors, CT researchers and society, and help to assess risks. The report obviously appreciates the methodological and theo-retical diversity of social sciences and hu-manities as a reflection of the cultural and political diversity of modern societies. Moreover, these disciplines are seen as en-ablers for a human-centered and demand-driven CT applications design.

• The HLEG favors an approach to CT that prioritizes “engineering for the mind” as op-posed to “engineering of the mind”. It is skeptical towards brain-machine interfaces and brain implants to enhance mental capa-bilities and recommends instead the devel-opment of tools that can support and improve social interaction and decision-making in a diverse Europe and for ageing societies. The HLEG takes a reserved stance on technologi-cal enhancements of mental and physical ca-pabilities that could create a divide between enhanced and non-enhanced humans – with the latter being increasingly perceived as “imperfect” or inferior. Furthermore the HLEG report warns that an idea of man as machine could lead to a mechanistic world in which there is no genuine moral choice. One may add that far-reaching transformations of the human body by technological means would raise questions of identity, e.g. with respect to the distinction between “having” and “being a body” (“Körper” and “Leib”, as in the phenomenological tradition).

• The report includes a set of recommenda-tions for European policy concerning CTEKS, including quite ambitious endeav-ours, such as an initiative to widen circles of convergence (WiCC), starting with the crea-tion of a coordinating office. Although very good as a starting point for a debate on chal-lenges arising from current developments in science and technology, further reflection on and elaboration of some of the ideas would have been helpful.

5 Structure of the conference

Following an introductory session with speak-ers from the commission and the HLEG, there were sessions on understanding convergence and the process of convergence which mainly featured presentations by members of the HLEG and of similar activities elsewhere. A similar format was employed by sessions on the next day which examined opportunities for Europe from the new technology wave and discussed new research models. Then followed a panel session involving speakers from vari-ous commission services on the role of con-verging technologies in the current EU research policy framework. The closing session was a summing up, in particular, on implications for European research policies.

6 Notes on the sessions

The major differences between the European CTEKS and the US American NBIC are per-haps that CTEKS are conceived as a bottom-up approach, starting from societal needs and in-volving many scientific disciplines other than the core of three or four (depending on the strategic importance of cognitive science), while NBIC has a strong focus on the im-provement of human capabilities and perform-ance, fuelled no doubt by military and security concerns, and is concentrated on the three es-tablished “big Os” (Nano, bio, info) and a promising newcomer (cogno). The US program is also extremely ambitious, culminating in the declaration of a “new renaissance” of science and including such projects as “mapping the human cognome” or “memetics” as a new sci-entific discipline, designed to overcome per-ceived dead-ends in the social science. The European program has no such ambitions and cautions against unbridled technological opti-mism. The HLEG proposes the involvement of social sciences and the humanities from the outset to consider societal needs and concerns (Bruland, Nordmann in their presentations).

Cognitive sciences are seen as a key field for CTEKS, which should receive greater attention at the European and national levels. The cognitive sciences are marked by a high degree of interdisciplinarity and include areas of psychology, neuroscience, linguistics and philosophy with important impulses coming

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 121

Page 122: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

from the social sciences. In the past much attention was given to artificial intelligence (AI) which, depending on perspectives, can be seen as an area of cognitive sciences or as a separate endeavour which uses many results from the cognitive sciences. There was great interest in AI in the late 1980s and early 1990s which ebbed, when promised spectacular pro-gress did not take place. At the moment, neu-roscience is at the forefront of cognitive sci-ences. Cognitive science is making a major contribution to the understanding of the hu-man as a social being which is essential for the construction of converging technologies if these are not to be misused or suffer rejection (presentation by the philosopher and cognitive scientist Daniel Andler).

The NBIC initiative has also attracted the attention of its northern neighbour, Canada, which concerned itself with convergence in its own pioneer foresight study on “Biosys-temics”, the Canadian variant of convergence, which gives special attention to ecological science in addition to the NBIC quartet. Corre-spondingly, the Canadian foresight program has devoted special attention to health-related applications, materials science, food system integrity and disease mitigation (presentation by Canadian Foresight director Jack Smith).

No doubt because of the military connota-tions of the American NBIC concept, there are concerns that the social aspects of convergence might be of even greater importance and more controversial than in such cases as genetic engi-neering. Since societal attitudes in Europe to-wards CTs are uncertain, due not least to lacking awareness at present, it is extremely difficult to undertake any kind of risk assessment, addition-ally so, since experts are few and far between (presentation by Raoul Kneucker). In the US, social science on nanotechnology is part of the program outlined in the “21st Century Nano-technology Research and Development Act” (108th Congress, 1st Session, p. 189, signed by the President on December 3, 2003) with funds earmarked for the purpose. In the NBIC report (Roco, Bainbridge 2002), there is a proposal to actually train social scientists in the NBIC sci-ences during their professional education.

A problem arising from visions for perfect-ing humans through NBIC is the ethical ques-tion of the acceptance of imperfection, such as

disabilities of physical or mental nature, i.e. a “right to imperfection” which is being debated in philosophical circles. There is also doubt about the adequacy of the existing legal frame-work to deal with questions arising from the availability of products of converging technolo-gies, .e.g. “right to life”, privacy concerns or the right to access of certain products in health care.

Convergence is already taking place in such concepts as “ambient intelligence”, which relies heavily on nanotechnology to enable cognition (presentation by José Encarnação, Chairman of the Information Society Tech-nologies Advisory Group (ISTAG)).

A recurring theme in the conference was the need for cooperation between scientific disciplines in such endeavours as CTEKS. There are various kinds of such cooperation, including multidisciplinarity, where each disci-pline as assigned its own tasks and there is mainly an exchange of results and transdisci-plinarity, where cooperation is closer necessi-tating an exchange on approaches, underlying assumptions, concepts etc. to be successful (Eleonora Barbierie Masini). There was seen to be a need to embed socio-economic aspects in technological development.

The development of CTEKS in four dif-ferent scenarios for the future development of Europe was discussed, with each scenario pro-ducing different accents with respect to the development and application of CTEKS.

There was a recommendation to emphasise European values in the development of CTEKS, such as solidarity, justice, cultural diversity and plurality, employing constructive technology assessement (Jan Staman). Another recommen-dation concerned the justification of decisions on technology policy by decision makers, such as the European Commission (Françoise Roure in her presentation). Concerns and worries could be used to advantage in conceiving new re-search. New roles emerge for disciplines that are traditionally focussed on regulation issues and gatekeeping functions. E.g. toxicology may serve as a point of information that allows you to generate more biocompatible materials – the US chemist Vicky Colvin was cited. In a similar way, social sciences could be used to generate more socially and culturally beneficial technolo-gies (Nordmann).

Seite 122 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 123: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

Presentations from commission officers showed that much research which could fall under the heading of CTEKS in future is al-ready in hand in the sixth framework program.

7 Prospective Outlook

Much space in the report of the HLEG is de-voted to issues of interdisciplinary work which are obviously of great importance but not re-stricted to convergence of the type which was the subject of the report. There is thus a need to discuss various approaches to integration of relevant disciplines, such as education of social scientists in the NBIC disciplines as proposed in the NSF/DoC report (Roco, Bainbridge 2002), or the concept of “embedded social scientists” as being implemented at the Nanoscience Centre at the University of Cam-bridge (UK) (Wilsdon 2004).

In further work, it might be helpful not only to analyze the US NBIC visions in greater depth, but also to put them into perspective. The 2002 NSF/DoC report should not be treated as an isolated document, but seen within the context of US and international de-bates on NBIC and other enabling technologies and knowledge systems. As the US debate seems to be heavily influenced by two poles – an “extremely conservative reluctance” and a “quasi-religious embracement” of CT (Baird 2003) – it may be possible to learn from these highly polarised discussions.

In some senses the NBIC debate is reviving many of the arguments exchanged in the late 1980s – early 1990s debate on artificial intelli-gence, in which Hans Moravec published a controversial book with the title “Mind Chil-dren” (Moravec 1988), which contains many central arguments of the “trans-humanists”. Moravec’s and Ray Kurzweil’s mentor, Marvin Minsky, a pioneer of artificial intelligence from the 1950s on, in fact argues for a central role for nanotechnologies in a 1994 article for the “Scientific American” asking the provocative question “Will robots inherit the Earth?”: “…our nanotechnologies should enable us to construct replacement bodies and brains that won’t be constrained to work at the crawling pace of ‘real time’” (Minsky 1994). At this time, there was also a lively debate in parts of Europe on many aspects of artificial intelligence fuelled

largely by public and industrial interest in “ex-pert systems”. At the time, a distinction was made between applications designed to replace human beings (experts) and those designed to support them. Many of the issues discussed then are resurfacing in connection with NBIC, so it is instructive to revisit the debate ongoing at that time for lessons which can be learnt – especially against the background of a develop-ing societal framework and changing individual perspectives on and growing societal acceptance of new medical and pharmaceutical opportuni-ties like cosmetic surgery or drugs to improve muscle mass and endurance as well as moods, attention or memory.

Besides the ethical and social concerns which are the topic of a drifting debate about CT, there are major doubts about the techno-logical feasibility of many CT applications dis-cussed in the various reports. Although science and technology have made enormous progress in the NBIC fields over the last years, many of the underlying fundamental processes of nature still are not sufficiently understood. Information on the state-of-the-art of related technologies is highly fragmented and often not transparent (since many research efforts in these fields are funded by defense research programs). Progress reports more often than not seem to be biased because of commercial interests, undisputed facts and widely accepted research results are rare. There is a clear need for reliable and well-structured information on opportunities, chal-lenges and limitations for CT, linked with fore-sight activities and an analysis of the actual rele-vance of CT for research policy. Interestingly enough, the political discussion on CT shows signs of the same paradox as the debate on nanotechnology. Much simplified: “It is not clear, what it really is, what it will enable and where it will lead to, but in any case it is very important and will have enormous impact”. Moreover, the atmosphere in the US now seems to be rather poisoned: In “transhumanist” and other technophile circles the members of the US President’s Council on Bioethics are often seen as reactionary fanatics. A member of the Coun-cil, Francis Fukuyama, recently characterized “transhumanism” as one of the world’s most dangerous ideas. There is still a real danger that the loudest voices will shape the public debate.

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 123

Page 124: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

In any case, it would be unwise to model a European approach to CT only in opposition to a single US initiative or by adapting some of its elements in a European context without careful consideration: Shared cultural roots - like older occidental traditions - as well as the specifici-ties of US and European societies and histori-cal experience have to be taken into account. Otherwise relevant human, ethical and social aspects of CT and their potentially disruptive qualities may be neglected. A critical appraisal of US discussions may also help to avoid a biased perception of the US cultural climate, the scientific state of the art and the similarities and differences between Europe and the US with regard to CT. Rational curiosity about the synergistic effects of new technologies, cou-pled with historical and ethical awareness, seems to be the stance that is most appropriate for the forthcoming discussions. * Most of the material is available at the Confer-

ence website (NTW 2004)

Bibliography

Bainbridge, W.S., 2004: The Evolution of Semantic Systems. In: Roco, M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converg-ing Technologies, op. cit., pp. 150-177 Baird, D., 2003: Testimony at a Full Committee Hearing on Nanotechnology of the US Senate Com-mittee on Commerce, Science, and Transportation. 01.05.2003 http://commerce.senate.gov/hearings/ testimony.cfm?id=745&wit_id=2012 (17.11.2004) Bond, P.J., 2004: Vision for Converging Technology and Future Society. In: Roco, M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converging Technologies, op. cit., pp. 17-24 Canton, J., 1999: The Social Impact of Nanotechnol-ogy: A Vision to the Future. In: NSTC-IWGN (ed.): Nanotechnology Research Directions. Workshop Report, The National Science and Technology Coun-cil’s Interagency Working Group on Nano Science, Engineering, and Technology, workshop on January 27-29, 1999, pp. 178-180 (chapter 11.7.13) http://www.wtec.org/loyola/nano/IWGN.Research. Directions/IWGN_rd.pdf (17.11.2004) Canton, J., 2004: Designing the Future: NBIC Technologies and Human Performance Enhance-ment. In: Roco, M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converg-ing Technologies, op. cit., pp. 186-198 Gorman, M.E., 2004: Collaborating on Convergent Technologies: Education and Practice. In: Roco,

M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converging Technologies, op. cit., pp. 25-37 HLEG – High Level Expert Group ‘Foresighting the New Technology Wave’, 2004: Converging Tech-nologies – Shaping the Future of European Societies. By Alfred Nordmann, Rapporteur. Brussels Khushf, G., 2004a: Systems Theory and the Ethics of Human Enhancement: A Framework for NBIC Convergence. In: Roco, M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converging Technologies, op.cit., pp. 124-149 Khushf, G., 2004b: The Ethics of Nanotechnology. Vision and Values for a New Generation of Science and Engineering. In: National Academy of Engi-neering (ed.): Emerging Technologies and Ethical Issues in Engineering. Papers from a Workshop, October 14-15, 2003. The National Academies Press; http://books.nap.edu/books/030909271X/html/ 29.html#pagetop (17.11.2004) Minsky, M., 1994: Will Robots Inherit the Earth? Scientific America, October 1994 Moravec, H., 1988: Mind Children – The Future of Robot and Human Intelligence. Cambridge, Mass., London: Harvard University Press NTW, 2004: Conference Website http://www.europa. eu.int/comm/research/conferences/2004/ntw/index_en.html Paschen, H.; Coenen, C.; Fleischer, T.; Grünwald, R.; Oertel, D.; Revermann, C., 2004: Nanotechnolo-gie – Forschung, Entwicklung, Anwendung. Berlin: Springer-Verlag President’s Council on Bioethics, 2003: Beyond Therapy: Biotechnology and the Pursuit of Happi-ness. Washington DC; http://www.bioethics.gov/ reports/beyondtherapy/beyond_therapy_final_report_ pcbe.pdf (25.11.2004) RAND, 2001: The Global Technology Revolution. Bio/Nano/Materials Trends and Their Synergies with Information Technology by 2015. By Philip S. Antón, Richard Silberglitt and James Schneider. RAND National Defense Research Institute Roco, M.H.; Bainbridge, W.S. (eds.), 2002: Con-verging Technologies for Improving Human Per-formance: Nanotechnology, Biotechnology, In-formation Technology and Cognitive Science. http://www.wtec.org/ConvergingTechnologies (17.11.2004) Roco, M.H.; Montemagno, C.D. (eds.), 2004: The Coevolution of Human Potential and Converging Technologies. New York: New York Academy of Sciences (Annals of New York Academy of Sci-ences, Vol. 1013, May 2004)

Seite 124 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 125: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

Royal Society; Royal Academy of Engineering, 2004: Nanoscience and nanotechnologies: opportu-nities and uncertainties. RS policy document 19/04. London, July 2004 Strong, G.; Bainbridge, W.S., 2002: Memetics: A Potential New Science. In: Roco, M.H.; Bainbridge, W.S.: Converging Technologies for Improving Hu-man Performance: Nanotechnology, Biotechnology, Information Technology and Cognitive Science. http://www.wtec.org/ConvergingTechnologies, pp. 279-286 (17.11.2004) TAB – Office of Technology Assessment at the German Parliament, 2003: Summary of TAB working report No. 92 “Nanotechnology”. http://www.tab.fzk.de/en/projekt/zusammenfassung/ab92.htm (07.11.2003) Turkle, S., 2002: Sociable Technologies: Enhancing Human Performance when the Computer is not a Tool but a Companion. In: Roco, M.H.; Bainbridge, W.S.: Converging Technologies for Improving Hu-man Performance: Nanotechnology, Biotechnology, Information Technology and Cognitive Science. http://www.wtec.org/ConvergingTechnologies, pp. 133-140 (17.11.2004) Wilsdon, J., 2004: Nanotech needs to listen to its public, and now. Financial Times, 1 September 2004

»

Mobilfunkbranche peilt auf dem Petersberg die Zukunft an Zukunftsforum Mobiles Internet 2010, 14. - 15. September 2004

Tagungsbericht von Bernd Wingert und Arnd Weber, ITAS

Der Ort war gut gewählt, das Gästehaus der Bundesregierung auf dem Petersberg in Kö-nigswinter, denn er passte mit seinem pracht-vollen Ambiente gut zu der wieder zu Opti-mismus neigenden Stimmungslage der Mobil-funkbranche. Die Konferenz war Gelegenheit zur Standortbestimmung, zum Rückblick auf bisherige Entwicklungen und das darin Ver-säumte, wie zum Ausblick auf komplexer wer-dende Infrastrukturen und ein unübersichtlicher werdendes Feld von Akteuren.

Die Konferenz versammelte weit über 300 Teilnehmer: Mobilfunkbetreiber, Chip- und Gerätehersteller, Dienste- und Inhalteanbieter,

auch die universitäre und außeruniversitäre Forschung waren vertreten. Es ging, wie der die Ministerin vertretende Staatssekretär Du-denhausen einleitend betonte, u.a. darum he-rauszufinden, für welche Ideen und Entwick-lungen die im kommenden Jahr zur Verfügung stehenden F+E-Mittel (30 Mio. Euro) einge-setzt werden sollen. Dudenhausen forderte dazu auf, sich die präsentierten Projekte anzu-sehen, die dann am interessantesten seien, wenn sich Gebiete überkreuzten, wie z. B. Te-lekommunikation und Nanoelektronik. Die heutige mobile Kommunikation sei erst durch die Nanoelektronik möglich geworden, „und zugleich ist heute die Mobilkommunikation ein Hauptmotor für die Nachfrage nach Nanoelek-tonik“. Forschung und Industrie sollten enger kooperieren.

Für uns war die Tagung Gelegenheit, eine Zwischenbilanz zu unserem Forschungsprojekt über „i-mode“ (das unter dem Programm für Innovations- und Technikanalysen des BMBF gefördert wird) auf der Postersession zu prä-sentieren (http://www.itas.fzk.de/deu/projekt/ webe0333c.htm).

1 Struktur und Themenblöcke

Die Konferenz ging über zwei Tage; es gab am ersten Tag eine ‚Keynote’ von René Obermann (Vorstandsvorsitzender der T-Mobile Internati-onal AG), und am folgenden Tag sogar zwei Keynotes, die erste von Thomas Ganswindt (Siemens, IuK-Netzwerke), die zweite von Jeffrey Funk (Hitotsubashi University, Tokio). Die Beiträge am Nachmittag des ersten Tages waren den Themen „Infrastruktur“ und „End-geräte“ gewidmet.

Nach den beiden Keynotes des zweiten Tages waren „Internationale Trends“ Gegens-tand der Betrachtung, danach „Anwendungs-felder und Geschäftsmodelle“. Am Nachmittag ging es erneut um Infrastrukturen, nun aber explizit um „Mobile Netze der Zukunft“.

Da es wenig informativ wäre, alle Beiträge mit der gleichen Intensität zu beleuchten, wäh-len wir aus und sparen die Sektionen über ‚Ge-rätetechnik’ und jene zu ‚Anwendungen’ ganz aus und gehen auch innerhalb der Sektionen nicht auf jeden einzelnen Beitrag ein.

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 125

Page 126: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

2 Infrastruktur: Wie sehen Betreiber und Ausrüster Stand und weitere Entwick-lung?

Diese Sektion wurde von Gerhard Fettweis ge-leitet, der an der TU Dresden die Vodafone Stif-tungsprofessur innehat. Der einführende Vortrag von René Obermann sei ebenfalls hier subsu-miert. Während sich Wiemann (Vodafone) mit der unmittelbar anstehenden Zukunft befasste (der Übergang auf DVB-T und -H, „Digital Video Broadcasting-Terrestrisch bzw. –Hand-held“) und Möglichkeiten auslotete, welche Marktnischen ein Handy-angepasstes TV beset-zen könnte, gingen Wulf (Alcatel, Vorstand Marketing, Vertrieb) und Horn (T-Mobile, Ge-schäftsführer Technik) auch schon auf die Aus-legung künftiger konvergierender Netze ein. Im Vergleich dazu nahmen die Vertreter der beiden Netzbetreiber (Obermann für T-Mobile und Dirks für E-Plus) auch einen kritischen Rück-blick vor, der in seiner deutlichen Sprache und Offenheit überraschte. Kritisch kommentiert wurden von Obermann u. a. die unterschätzte Komplexität des mobilen Internet, der Konfigu-rierungsaufwand für den Nutzer, der nicht im-mer zufrieden stellend arbeitende Bildtransport, oder der Umstand, dass das Marketing zu lange über die Technologie aufgezogen worden sei und in Zukunft „mehr Kundenverständnis“ auf-gebracht werden müsse.

Die Komplexität des mobilen Internet sei, nicht nur von T-Mobile, unterschätzt worden, angefangen bei der Netztechnologie, über die Dienstebereitstellung, die Endgeräte und das Schaffen eines gesamten „Ökosystems“, was wir dahin interpretieren, eine Vielzahl von Beteiligten untereinander abzustimmen (Inhal-teanbieter, Netzbetreiber, Handyhersteller). Natürlich sei es gut, wenn die Geräte immer besser würden, aber es stehe, so Obermann wörtlich, „wenn wir ganz ehrlich sind, in der Nützlichkeit der Dienste, in der Einfachheit der Bedienung und die günstigen Preise, die wir alle brauchen und wollen für den Massenmarkt, noch nicht in allen Bereichen zum Besten.“ Freilich zeigte sich Obermann auch vom Erfolg des mobilen Internet überzeugt.

Wo muss nach Ansicht von René Ober-mann in Zukunft anders gehandelt werden? Er ging auf fünf Punkte ein: 1) Zwar müsse man alternative Technologien zu UMTS wie WiFi, WiMAX oder OFDM verfolgen, aber sie wür-

den in Zukunft ein Netz sehen, das aus ver-schiedenen Komponenten aufgebaut sei. Das Ganze müsse einfach tarifiert werden. 2) Die Kunden wollten Mobilität und seien bereit, dafür zu bezahlen. Das heutige relativ hohe Preisniveau im Mobilfunk sei aber nicht zu halten. Wichtig sei „Ende-zu-Ende-Qualität“. 3) „Schaffe das mobile Ökosystem!“ war eine weitere Forderung. Man könne in Zukunft nicht mehr alles alleine machen, „walled gar-den“-Modelle seien nicht mehr aktuell. 4) Man müsse für den Kunden die Komplexität redu-zieren, den Techno-Jargon verlassen, die Dienste einfacher machen und auch an die älte-ren Nutzer denken. 5) Bessere Geräte, mehr Speicher, bessere Displays – das alles sei rich-tig, aber entscheidend sei, die Gerätesubventi-onierung herunterzufahren, auch auf die Gefahr hin, dass ein Anbieter dann 1% Marktanteil verliere. Die Zeit, so Obermann resümierend, wo es um schiere Kundenzahlen ging, sei vor-bei. Die Branche müsse sich daran gewöhnen, unter „reifen Marktbedingungen“ zu agieren.

Im kritischen Rückblick auf die bisherige Entwicklung traf sich Thorsten Dirks in vielen Punkten mit René Obermann, so etwa darin, dass die Branche zu technikgetrieben sei und die Kundenorientierung vernachlässigt habe, oder dass die „walled garden“-Strategie in einem mobilen Internet nicht mehr gehen würde. Aber er teilte nicht den Optimismus über den Erfolg von „public hot spots“. Man prüfe zwar auch die neuen Möglichkeiten (wie WiMAX), aber als Technologie im Hintergrund, nicht für die Kun-denseite. Was künftige Geschäftsmodelle an-geht, plädierte Dirks weder für ein völlig offenes Modell, wo der Betreiber nur als „Pipe“ fun-giert, noch für ein völlig geschlossenes. Nach seiner Einschätzung liege das Optimum in der Mitte, also in etwa ‚kontrollierte Offenheit’.

3 Mobiles Internet – was ist das eigentlich?

In den beiden Keynotes am Mittwochvormittag ging es zum einen schwerpunktmäßig um „ma-chine to machine communication“ (von Tho-mas Ganswindt; Siemens, Bereichsvorstand Information and Communication Networks) und zum anderen um „mobile Internet“ (von Jeffrey Funk, Tokio). Wir konzentrieren uns auf den zweiten Beitrag und schlagen, um das von Obermann Gesagte und das Folgende bes-

Seite 126 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 127: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

ser einordnen zu können, drei Varianten von „mobilem Internet“ vor.

(1) Eine erste Variante bezieht sich auf die drahtlose Nutzung herkömmlicher Internet-Dienste, z. B. mittels Laptop oder PDA. Damit kann etwa ein Außendienstmitarbeiter über UMTS oder WiFi Daten aus dem Internet ho-len kann. Bei dieser Variante kommen Handys noch nicht ins Spiel. (2) Geht es um Angebote wie ‚Vodafone live’ ‚T-Zones’ von T-Mobile oder ‚i-mode’ von E-Plus, dann handelt es sich um Portale der Betreiber, die per Handy zu-gänglich sind (per Vertrag), um etwa Nachrich-ten abzurufen oder die aktuelle Wetterkarte anzusehen. Aufgrund des kontrollierten Zu-gangs nennt man ein solches Konzept „walled garden“. (3) Die dritte Variante liegt vor, wenn Internet-Standards implementiert sind, wie bei „i-mode“ in Japan, so dass man vom Handy aus direkt eine URL anklicken und die hinter-legte Information abrufen kann (sinnvollerwei-se für die Bildschirmgröße von Handys ange-passt). Diese Variante hat Funk im Auge, wenn er über „Solving the start up problems in West-ern mobile Internet markets“ spricht.

Zunächst ging es ihm darum, gängige Vor-urteile über den japanischen Mobilfunkmarkt zu zertrümmern, so wenn betont werde, dass die Beschäftigten in Japan sehr viel und lange mit dem Zug fahren, weniger den PC nutzen und Japan eben, auch kulturell, anders sei: „Success of Japan’s mobile Internet has nothing to do with trains and low PC Internet usage“.

Für die hohe Handy-Nutzung in Japan sei vor allem entscheidend, was er „push-based Internet Mail“ nannte. Damit werde es mög-lich, Mails vom PC direkt auf das Handy zu leiten, in die Nachricht eine URL aufzuneh-men, die dann wiederum klick- und nutzbar ist, oder es komme zu einer „combination of Inter-net and other media“.

Das Start-up Problem sieht Funk darin, „to create a critical mass of users and technology providers in industries that have network ef-fects“. Maßnahmen, das ‚start up Problem’ zu lösen, sind nach Funk u. a. eine Vielzahl von solchen einfachen Anwendungen. Der Markt entstehe nicht dort, wo Nutzer über einen Brow-ser nach Informationen suchten, sondern wo sie sich für spezifische Informationen registrieren lassen, die ihnen per Mail dann zugeht (z. B. dass ein bekannter Künstler dann und dann auf-

tritt, so dass gleich ein Ticket bestellt werden kann). Warum würden hiesige Service Provider solche Dienste nicht einrichten?

Funk sieht solche Gründe etwa darin, sich das SMS-Geschäft nicht kaputt zu machen, oder in einem nicht ausreichenden Verständnis der Bedeutung von ‚Internet mail’: „In my conversation with service providers I've met very few people who understand the impor-tance of push-based Internet mail. When you talk about mail they think, oh yes, business people want to access their PC mail by their phone. And I say, that’s important, but that’s not the most important thing. It’s for all the other things I've talked about“. Und dazu gehö-re auch die Frage, ob Regierungen da nicht Einfluss nehmen sollten. „The mobile Internet is too important to leave it to the service pro-viders ... And so I think that governments need to consider doing some of these things, and the exact way they do them I don't claim to know“.

Es bleibt abzuwarten, ob sich auch die hiesigen Anbieter langfristig auf ein solches offenes Modell zu bewegen werden, wie es Funk skizzierte.

4 Internationale Trends: DoCoMo in Mün-chen, Siemens in China und WWRF in-ternational

Hendrik Berndt (Senior Vice President der DoCoMo Euro-Labs in München) befasste sich mit der Architektur von Netzwerken der nächs-ten Generation (4G). Das von ihnen favorisier-te Modell arbeitet mit offenen Plattformen auf jeder Ebene; wichtig seien „programmability & adaptability“ dieser Netzwerke. Auch Berndt betonte wie andere Referenten (Obermann, Horn, Wulf), dass das Management solcher Netzwerke komplizierter werde. In ihrer Sicht sei 4G eine Kombination von mobiler Welt und einem „ubiquitous networking environment“, das sich gegenüber dem Nutzer auch initiativ verhalten könne. In der Diskussion gefragt, welche Gründe ein japanisches Unternehmen denn bewegen würden, in Deutschland ein Forschungslabor aufzumachen, nannte Berndt u. a. die in Europa und zumal in Deutschland vorhandene lange Tradition von Forschung und die Notwendigkeit, dass DoCoMo im Zuge einer stärker internationalen Positionierung die unterschiedlichen „Räume“ (vermutlich auch als ‚Kulturräume’ gemeint) besser verstehen

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 127

Page 128: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

müsse. Es gäbe neuerdings auch Labors in den USA und in China.

Im Vortrag von Peter Weiss (Siemens Chi-na) wurde von kulturellen Gegebenheiten immer wieder gesprochen, und Siemens müsste Be-scheid wissen, sind sie doch schon länger als 100 Jahre in China geschäftlich tätig. Bei Sie-mens China arbeiten 30.000 Beschäftigte (mit einem Umsatz von 3,3 Mrd. Euro). Ziel sei es, in den kommenden fünf Jahren den Umsatz zu verdoppeln. Weiss erläuterte das Ausbildungs-system (allein im IuK-Bereich 350.000 Absol-venten pro Jahr), das forschungspolitische Sys-tem (im Programm „873“ seien auch For-schungsmittel für „Beyond 3G“ enthalten) und die Telekommunikationsbranche. Sowohl der führende chinesische Festnetz- als auch der Mobilfunkbetreiber sind die größten der Welt. China werde zu einem „lead market“ für den Mobilfunk, im Jahre 2010 rechnet man mit 500 Mio. Mobilfunkteilnehmern, aber der Markt ist noch immer stark durch die Regierung reguliert.

Zwischen China, Korea und Japan entwi-ckeln sich engere Formen der Kooperation, auch um Industriestandards abzusprechen und sich europäischer und amerikanischer Interes-sen stärker erwehren zu können. Trotz dieses ‚Bollwerkes’ sieht der Referent eine Chance, sich in diesen Dialog einzubringen. Ihr Ansatz sei, in China für den chinesischen Markt zu produzieren, auch mit guten Ideen und Innova-tionen, die in Deutschland entstünden. Die Chinesen hätten „einen unheimlichen Drang, ihr eigener Chef zu sein“, so Weiss in seinem Exkurs über die dortige Mentalität.

Aus nahe liegenden Gründen gab es zu diesem Vortrag viele Nachfragen, so u. a., wie es mit IPR (intellectual property rights) stehe und wie sich Siemens gegen den Diebstahl von Ideen wehre. Hierzu meinte Weiss, eine „no risk situation“ gebe es nicht; man könne nicht verhindern, dass etwas kopiert werde. Aber das sei nicht entscheidend. Wichtiger sei die Frage, was passiere, wenn sie in diesem Markt über-haupt nicht präsent wären.

Mikko A. Uusitalo erläuterte als Chairman des WWRF (Wireless World Research Forum) Aufgabenverständnis, Ziele und Arbeitsgruppen, Mitglieder und kommende Konferenzen dieser Organisation. Die 150 Mitglieder des WWRF kommen aus allen Kontinenten, wenn auch, wie in der Diskussion klargestellt wurde, „the Euro-

pean way of doing“ noch dominiere. Die WWRF ist in einem vorwettbewerblichen Be-reich tätig und sucht den internationalen Kon-sens: „Develop a consistent vision of the future Wireless World“, wie eines der Hauptziele um-schrieben wurde. Diese Ideen und Modelle sind in einem voluminösen Band zusammengefasst, dem „Book of Visions“. Die Modellvorstellung ist die einer evolutionären Entwicklung hin zu 3G- und 4G-Systemen, nicht eines revolutionä-ren Wandels, der mit „disruptive technologies“ verbunden wäre. Eine solche Gefahr, so Weiss in der Diskussion, sehe er aber in zwei oder drei Jahren aus dem asiatischen Raum heraufziehen. Wir interpretieren diese Hinweise dahin, dass (1) mit neuen Technologien Sprach- und Daten-dienste billiger als mit UMTS erbracht werden können, (2) neue breitbandige Datennetze, wie sie derzeit in Japan und Korea aufgebaut wer-den, gemeint sind, wie auch (3) drahtlose Sprachkommunikation über das Internet-Protokoll („voice over IP“).

Dem Thema „Disruptive Technologien in Telekommunikationsnetzen – Verifikation anhand von Prototypen“ war der erste Vortrag von Georg Haubs (Siemens) gewidmet. Der zweite Vortrag von Rainer Fechner (Lucent Technologies Network Systems) befasste sich mit „ABC – Always Best Connected: Konver-genz der Dienste und Systeme“ und betonte den personalisierten Bezug auf einzelne Nutzer und Nutzergruppen. Etwas näher eingehen wollen wir auf Fiona Williams, die über „To-wards Ambient Networks“ sprach und in Aa-chen das Ericsson Research Lab aufgebaut hat. Einleitend wies sie darauf hin, dass angesichts der Sättigungskurven in den Industrienationen das kommende Wachstum im Mobilfunk von den Entwicklungsländern erzeugt werde, so dass man gehalten sei, gängige Annahmen zum Bedarf zu überdenken. Konkret malte sie ein Szenario eines mobilen Rockkonzerts aus, das Teil einer Reihe von Projekten im WWI-Verbund ist, der ‚Wireless World Initiative’, die im Kontext des 7. Rahmenprogramms der EU auf eine ‚Wireless Communications Tech-nology Platform’ hinauslaufen solle, damit Europa mit den ehrgeizigen Aktivitäten von China, Korea und Japan mithalten könne. For-schungsanstrengungen in diesem Bereich seien nötig, denn heute schon gelte, was erst wenige

Seite 128 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 129: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

so sehen würden: „mobile & wireless have an economic impact greater than the Internet“.

Bernhard Walke, der Moderator dieser Sektion, lieferte selbst noch einen kleinen Bei-trag, bevor er die Diskussion eröffnete. Die Diensteerbringung sei in den heutigen Netzen noch ineffizient. Er schlug ein Konzept vor, nach dem man die mit zunehmender Entfer-nung von der Basisstation stark abnehmende verfügbare Datenrate für die Nutzer durch Auf-stellen von kleinen Relais verbessern kann. Eine solche Komponente sei im WiMAX-Standard (IEEE 802.16) als Mesh-Komponente vorgesehen, im Übrigen auf Forschungen ba-sierend, die früher an der TH Aachen gemacht wurden. Deutschland solle die Forschung an Mesh-Konzepten vorantreiben. Das sei eine „disruptive technology“, weil u. a. die Fest-netzanschlusskosten dramatisch reduziert wer-den könnten.

Damit endet unser Einblick in die Konfe-renz, die auch ein „Zukunftsforum“ sein sollte, und kommen noch einmal auf jenen Ausblick zurück, den man vom Petersberg hat – Modell für den Ausblick in eine ungewisse Zukunft? „Der beste Weg, die Zukunft vorherzusagen ist, sie zu gestalten“ – so zitierte Ganswindt, seinen Vortrag abschließend, Peter Drucker. Gewiss richtig. Nur zeigte die Konferenz gerade an jenen Stellen, wo „disruptive technologies“ angesprochen wurden, wie hoch-kontingent dieses Gestaltungshandeln in einem globalen Kontext geworden ist, wenn mit neuen Techni-ken die über Jahre gepflegte Technologielinie überrollt zu werden droht.

»

Auf dem Weg zu interdis-ziplinären Methodologien Karlsruhe, 24. - 25. Juni 2004

Tagungsbericht von Armin Grunwald, ITAS, und Jan C. Schmidt, Zentrum für Interdiszi-plinäre Technikforschung, TU Darmstadt

Am 24. und 25. Juni 2004 fand in Karlsruhe der Sondierungsworkshop „Auf dem Weg zu interdisziplinären Methodologien. Forschungs-stand und offene Fragen“ statt. Veranstalter

waren das Zentrum für Interdisziplinäre Tech-nikforschung an der TU Darmstadt (ZIT) und das Institut für Technikfolgenabschätzung und Systemanalyse des Forschungszentrums Karls-ruhe (ITAS).

1 Fragestellung und Zielsetzung

Die fortschreitende Differenzierung der Wis-senschaften seit der Neuzeit folgte in erster Linie den inneren Bedürfnissen und Entwick-lungen der Wissenschaften, weniger den äuße-ren Anforderungen. In Disziplinen und Subdis-ziplinen wurden immer spezialisiertere Felder hoch komplizierter Fragestellungen bearbeitet. Das rasche Wachstum und die enorme Leis-tungssteigerung der Wissenschaft beruht im Wesentlichen auf dieser funktionalen Ausdiffe-renzierung und Spezialisierung im Wissen-schaftssystem.

Im Gegenzug erwartet jedoch die Gesell-schaft seit einigen Jahrzehnten verstärkt wis-senschaftliche Problemlösungen – z. B. in den Bereichen Umwelt, Energie, Gesundheit -, die sich nicht der disziplinären Spezialisierung fügen. Besondere Bedeutung kommt dabei der Zusammenarbeit zwischen Natur- bzw. Tech-nikwissenschaften einerseits und den „Reflexi-onswissenschaften“ (Philosophie, Soziologie, Psychologie, Rechtswissenschaften und Öko-nomie) andererseits zu. Technikfolgenabschät-zung und interdisziplinäre Technikforschung sind einschlägige Gebiete. Inter- und Transdis-ziplinarität als gesellschaftliche Antwort auf die fortschreitende disziplinäre Spezialisierung der Wissenschaften soll die Wissenschaften wieder stärker an praktischen Problemen der Gesellschaft orientieren und die Parzellierung des Wissens aufheben.

Diese Diskussion um Inter- und Transdis-ziplinarität dauert seit den siebziger Jahren an. Nach wie vor herrscht der appellative Duktus vor, dass Inter- und Transdisziplinarität drin-gend benötigt werden. In der Forschungsförde-rung wird sie häufig erwartet, und in institutio-nellen Evaluierungen stellt sie mittlerweile meist einen Pluspunkt dar.

In vielen Feldern sind Inter- und Transdis-ziplinarität mittlerweile fest etabliert, partiell sogar als Teil der Selbstverständnisse von For-schungseinrichtungen oder ganzer Forschungs-richtungen wie z. B. der Nachhaltigkeitsfor-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 129

Page 130: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

schung. Eine Vielzahl von Antworten auf die praktischen Fragen, wie denn interdisziplinäre Forschung zu organisieren sei und worauf man in konkreten Projekten achten müsse, kann mittlerweile aufgrund empirischer Erfahrung gegeben werden.

Demgegenüber scheint die theoretische und methodische Aufarbeitung und Erfassung von inter- und transdisziplinärer Forschung hinterher zu hinken. Folgende Fragen einer Theorie interdisziplinärer Forschung (hier könnte auch ein etwas weniger stark belastetes Wort stehen) sind ungelöst:

- Funktionen: Soll Interdisziplinarität nur Wissen für wissenschaftsexterne Zwecke erzeugen bzw. bündeln oder soll sie in die Disziplinen zurückwirken? Welche Funkti-onen soll sie dort in Forschung und Ausbil-dung haben?

- Objekt: Was sind die Gegenstände interdis-ziplinärer Forschung und wie werden sie konstituiert? Arbeiten verschiedene Diszip-linen, die an einem gemeinsamen Projekt forschen, an den gleichen Gegenständen, oder sind die Gegenstände disziplinär unter-schiedlich konstituiert?

- Methode: Gibt es eine Methodologie inter-disziplinärer Forschung und wie sieht sie aus? Was soll sie leisten? Wo sind die Schnittstellen zu den disziplinären Metho-dologien?

- Qualitätskriterien: Wie kann gute von weni-ger guter Interdisziplinarität unterschieden werden? Wie sieht die Qualitätssicherung aus und welche Kriterien werden verwendet?

Besonders problematisch ist das Fehlen aner-kannter Qualitätskriterien, da vielleicht nichts so sehr das Selbstverständnis der Wissenschaf-ten und auch ihre externe Anerkennung be-stimmt wie die Ausbildung einer internen Qua-litätssicherung die – trotz gelegentlicher Irrtü-mer – im Ganzen ausgezeichnet arbeitet. Dieser Punkt betrifft sowohl die externe Anerkennung der interdisziplinären Forschung als auch ihre Anerkennung seitens der – traditionell quali-tätsgesicherten – disziplinären Forschung.

Auf dem Sondierungsworkshop „Auf dem Weg zu interdisziplinären Methodologien. For-schungsstand und offene Fragen“ standen die wissenschaftstheoretisch und wissenschaftsso-ziologisch, aber auch in praktischer Hinsicht

interessierenden Fragen der Methodologie und ihrer Konsequenzen für die Definition von Qualitätsmerkmalen im Mittelpunkt. Dies in doppelter Hinsicht (wobei auf dem Workshop die erstgenannte Perspektive im Vordergrund stand, was auch teils kritisiert wurde):

- In wissenschaftstheoretischer Perspektive interessierten die Grundlagen der Geltung von Resultaten inter- und transdisziplinärer Forschung. Geltungsfragen disziplinärer Aussagen werden im Regelfall durch den Verweis auf die adäquate Verwendung an-erkannter disziplinärer Methodik beantwor-tet. Wie sieht dies für inter- und transdis-ziplinäre Forschung aus?

- In wissenschaftssoziologischer Perspektive wurde gefragt, wie sich die empirische For-schungspraxis im inter- und transdiziplinären Bereich darstellt, welche forschungsorgani-satorischen und institutionellen Erfahrungen vorliegen und welche Qualitätsstandards in der Praxis implizite Anwendung finden.

Das Ziel des Workshops bestand darin zu er-kunden, inwieweit das Thema der in inter- und trandisziplinärer Forschung verwendeten Me-thoden und Verfahren einer eigenen Methodolo-gie bedarf oder wenigstens eine solche zulässt.

2 Referate

Jürgen Mittelstraß (Universität Konstanz; Vor-tragstitel „Methodische Transdisziplinarität“) setzte bei der Diagnose einer neuen Unüber-sichtlichkeit des Wissenschaftssystems an. Die-se sei zum einen dem raschen Wachstum, aber auch der institutionellen und fachlichen Partiku-larisierung geschuldet. Sie liegt nicht in der Natur der Sache, sondern ist historisch kontin-gent. Fachübergreifende transdiziplinäre Struk-turen (wie z.B. themenorientierte Zentren an Universitäten) seien punktuell erforderlich, um die Problemlösekapazität der Wissenschaften zu erhalten oder zu vergrößern sowie die Einheit der wissenschaftlichen Rationalität wiederher-zustellen. Charakteristisch hierfür müsste sein, dass die Themen dieser Forschungsrichtungen wissenschaftsextern definiert sein müssten. Dis-ziplinarität und Transdisziplinarität seien hierbei Idealformen, während die Forschungsrealität zumeist aus Mischformen bestehe. Disziplinen sind nach Mittelstraß notwendig, aber nicht

Seite 130 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 131: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

hinreichend zur Aufgabenerfüllung der Wissen-schaften. Transdisziplinarität sei eine „For-schungsform“, das Problemwahrnehmung und Problemlösung anleitet und weit reichende insti-tutionelle Folgen hat, jedoch keine eigene Me-thodologie und keine „Theorieform“. Methodi-sche Transdisziplinarität zerfalle in praktische Transdisziplinarität (in der es auf kluge und effiziente Koordination von Forschung ankom-me) und theoretische Transdisziplinarität, wenn es um die interne Weiterentwicklung der Diszip-linen geht, z. B. an ihren Rändern. Das „Metho-dische“ an der Transdisziplinarität sieht Mittel-straß „in der argumentativen Erzeugung des Wissens“ über Disziplingrenzen hinweg. Dies sei schließlich unabdingbar, um Nachvollzieh-barkeit und Transparenz zu ermöglichen.

Gotthard Bechmann (ITAS; Vortragstitel „Gibt es eine interdisziplinäre Methodologie?“) deutete die Disziplinbildung als Konstitution einer Innen/Außen-Differenz, d. h. als eine funk-tionale Differenzierung gegenüber einer Diszip-linumwelt. Der Behauptung, interdisziplinäre Forschung habe eine größere Realitätsnähe als disziplinäre, setzte er entgegen, dass interdiszi-plinäre Forschung wie die disziplinäre neben Wissen auch Nichtwissen produziert, allerdings ein anderes Wissen und Nichtwissen. Es komme darauf an, welche Wissen/Nichtwissen-Kombi-nationen für eine bestimmte Art der Problembe-arbeitung adäquat seien. Um dies zu beurteilen, müssten Problemkonstitution, Wissensprodukti-on, Handlungsorientierung, Wissenstransfer und die Folgenbeobachtung als Gesamtkomplex gesehen werden. Dabei seien methodologische Fragen nachrangig neben Fragen der Organisa-tion und des Transfers von wissenschaftlich produziertem Wissen in praktische Handlungs-kontexte.

Günter Ropohl (Universität Frankfurt, Vor-tragstitel „Allgemeine Systemtheorie als trans-disziplinäre Integrationsmethode“) begann mit der Diagnose, in wissenschaftsphilosophischen und wissenschaftspolitischen Debatten sei bis-lang vernachlässigt worden, dass „Transdis-ziplin-Wissenschaften“ einem anderen Paradig-ma unterliegen als die Disziplin-Wissenschaf-ten. Dies betreffe gleichermaßen die Definition der Probleme, die Sprache und Begrifflichkeit, die Denkmodelle, die Methoden und die Quali-tätskriterien. Da nach Ropohl die Probleme in einer transdisziplinären Wissenschaft nicht ana-

lytisch, sondern synthetisch verstanden werden, seien dementsprechend statt der analytischen vor allem synthetische Methoden angezeigt. Hierzu nannte Ropohl einige Methoden, die abseits der klassischen disziplinären Methoden stehen wie z. B. die Szenario-Methode. Als synthetische Methoden seien die pragmatische Situationsmodellierung der Allgemeinen Sys-temtheorie und ihre zahlreichen Konkretisierun-gen – wie etwa die Modelle soziotechnischer Systeme – hervorragende Ansätze zur syntheti-schen Bewältigung der komplexen Probleme in Weltdeutung und Weltgestaltung. Transdiszipli-narität finde letztlich ihren theoretischen Ort in einer synthetischen Philosophie. In Gegensatz zu Mittelstraß und Bechmann sah Ropohl damit einen klaren Bedarf an inter- und transdiszipli-närer (vielleicht auch a-disziplinärer) Methodik sowie erste Ansätze der wissenschaftlichen Ent-sprechung dieses Bedeafs.

Peter Euler (TU Darmstadt, Vortragstitel „Interdisziplinarität als ‚Bildungsprinzip’ der Forschung: methodologische Konsequenzen“) begriff Interdisziplinarität in der Tradition kri-tischer Bildungstheorie als Reaktion auf die Zerrissenheit der Wissenschaften sowie die negativen Folgen von Wissenschaft und Tech-nik, die im 20. Jahrhundert unübersehbar und auch zum Politikon wurden. Interdisziplinarität in dieser Perspektive sei der Ort kritischer Auseinandersetzung um die den gegenwärtigen gesellschaftlichen und zivilisatorischen Ver-hältnissen angemessene Form der Forschung. Interdisziplinarität werde damit sowohl zur Wundstelle als auch zum Ansatzpunkt der Re-Vision unserer Wissenschaftsverfassung. Euler sieht methodologische Konsequenzen dieses kritischen Verständnisses von Interdisziplinari-tät deshalb, weil die Generierung von Metho-den entscheidend ist, wenn interdisziplinäre Forschung bewusst disziplinäre Engführungen überwinden will. Im Sinne einer „Resozialisie-rung der Wissenschaften“ gehe es um „reflek-tierte Sachkompetenz“ statt um isoliertes Ex-pertentum und enggeführte „Fachkompetenz“. Interdisziplinarität sei, in reflexiver Wendung, entscheidend zur Erreichung einer „guten“ Disziplinarität und zum Verstehen des eigenen Faches, was dann auch entsprechenden Refle-xionsbedarf hinsichtlich der disziplinären Me-thodologie nach sich ziehe.

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 131

Page 132: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

Paul Burger (Universität Basel, Vortragsti-tel „Kognitive Aufgaben in transdisziplinären Wissenschaftspraktiken und ihre methodologi-schen Implikationen“) fokussierte auf transdis-ziplinäre Wissenschaftspraktiken im Bereich der sustainability science. Nachhaltige Entwicklung ist ein neues, internationales Entwicklungsleit-bild und benennt eine gesellschaftliche wie auch wissenschaftliche Querschnittsaufgabe. Von Forschung werde in diesem Bereich mehr er-wartet als das Beschreiben und Erklären des Ist-Zustands. Gefragt seien darüber hinaus Diagno-sen (z. B. im Hinblick auf Nachhaltigkeitsdefizi-te), Zielevaluationen (z. B. Prioritätensetzungen) und die Erarbeitung und Bewertung von Maß-nahmen (z. B. durch Effizienzanalyse) mit Blick auf rationale Entscheidungsgrundlagen. Ausge-hend von einer handlungstheoretischen Grund-struktur argumentierte Burger, dass die Errei-chung dieser Ziele aus systematischen Gründen sowohl eine Zusammenarbeit von Natur- und Sozialwissenschaften als auch den Einbezug gesellschaftlicher Akteure verlangt. Methodisch klares Vorgehen sei unverzichtbar, um Nach-vollziehbarkeit und Transparenz wissenschaft-lich zu sichern und nach außen dokumentieren zu können. Z. B. mittels der Szenariotechnik könnten Teilergebnisse systematisch und pro-duktiv integriert werden. Die Weiterentwicklung und Ausweisung interdisziplinärer Methodolo-gien sei dringend erforderlich, um interdiszipli-näre Institutionen in ihren wissenschaftlichen Handlungen zu stärken. Burger betonte, dass in der Praxis der inter- und transdisziplinären For-schung vieles bereits etabliert sei bzw. getestet werde, so dass theoretische Reflexion sich stär-ker auf bereits vorliegende Erfahrungen stützen könnte, als dies zumeist geschieht.

Rudolf Wille (TU Darmstadt, Vortragstitel „Allgemeine Wissenschaft als transdisziplinäre Methodologie?“) fokussierte auf die Disziplinen und ihre jeweilige Disziplinarität. Es sind die Defizite der Disziplinen, ihre Isolierung unter-einander und von der Gesellschaft, die zu einem wissenschaftlichen wie auch gleichermaßen gesellschaftlichen Problem geworden sind. Un-ter Rekurs auf den Pädagogen Hartmut v. Hentig führte Wille den Topos der Allgemeinen Wis-senschaft und der „guten Disziplinarität“ in die Diskussion ein. Zu dieser, die „allgemeiner Teil“ jeder einzelwissenschaftlichen Disziplin sein sollte, gehören alle Bemühungen, Wissen-

schaft offen zu legen und allgemein zugänglich zu machen, damit sich die Allgemeinheit insbe-sondere mit möglichen Bedingungen, Folgen und Auswirkungen wissenschaftlichen Tuns auseinandersetzen kann. Für eine Disziplin heißt das, ihre jeweiligen Zwecke, Mittel (d. h. eben auch Methoden), Erkenntnisse und Folgen transdisziplinär zu vermitteln und damit den öffentlichen Diskurs über die Disziplin zu för-dern. Am Beispiel der von Wille entwickelten mathematischen Methode der formalen Beg-riffsanalyse erläuterte Wille sein Konzept der „guten Disziplinarität“ sowie die Probleme der allgemeinen, d. h. der inter- und transdisziplinä-ren Verständigung über unterschiedliche Begrif-fe und Semantiken bis hin zu disziplinär ver-schiedenen Weltverständnissen und die Mög-lichkeiten ihrer Überwindung. „Gute Disziplina-rität“ umfasst einen allgemeinen, nicht abzieh-baren Anteil transdisziplinärer Methodologien.

Gertrude Hirsch Hadorn (ETH Zürich, Vortragstitel „Anforderungen an eine Metho-dologie problemorientierter Forschung“) setzte an dem gängigen Verständnis an, dass wissen-schaftliche Forschung an Methoden gebunden ist, um den Geltungsanspruch ihres Wissens begründen und für andere einsichtig machen zu können. Sie stellte dann die zentrale Frage, ob es in der transdisziplinären Forschung, die häu-fig als „problemorientierte Forschung“ be-zeichnet wird, analoge Referenzsysteme für methodische Anforderungen wie die Disziplin oder scientific community gibt, welche auf ent-sprechende Standards in einer Fachsprache zurückgreifen können. Sie zeigte, dass sich interdisziplinäre Projekte auf mehreren Sprach-ebenen bewegen und dass die häufig erhobene Forderung nach einer gemeinsamen Sprache nicht den Kern der Sache trifft. Vielmehr be-stehe die Anforderung darin, die Kompetenz zu erwerben, die anderen im Projekt relevanten Sprachen zu verstehen und ineinander zu über-setzen. Dabei können sich Sprachen verändern und neue Fachsprachen entstehen.

Mathias Gutmann (Universität Marburg, Vortragstitel „Methoden und Gegenstandskon-stitution – Zum Problem der Disziplinarität“) konstatierte, dass derjenige, der von „Interdis-ziplinarität“ spricht, zunächst „Disziplinarität“ in den Blick nehmen müsse. Die Rede von der „Disziplin“ bleibt jedoch eigentümlich unbe-stimmt. In der methodischen Ordnung bedürften

Seite 132 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 133: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

die Geltungskriterien des inter- oder transdis-ziplinären Wissens vorgängig einer Rekonstruk-tion von Geltungsbedingungen disziplinären Wissens. Er stellte die Frage, ob denn Diszipli-nen „existieren“ oder ob sie nicht nur Resultate einer bestimmten Beschreibung wissenschaftli-chen Arbeitens seien. Am Beispiel der Biologie demonstrierte Gutmann, dass man von einer spezifisch biologischen Methodik kaum reden könne. Vielmehr nutze der Biologe zum großen Teil chemische oder physikalische Methoden, ohne dabei zum Chemiker oder zum Physiker zu werden. Die Beschreibung biologischer For-schung als Biologie verdanke sich daher nicht einfach dem Einsatz von Methodik, sondern Disziplinarität sei als Reflexionsbegriff zu ver-stehen und Disziplinen seien das Ergebnis von spezifischen Betrachtungsperspektiven. Die Unterscheidung disziplinär/interdisziplinär sei eine Unterscheidung entlang der Forschungs-praxis, wie sie sich historisch entwickelt habe.

3 Perspektiven

Diese Vorträge und die ausgesprochen anregen-den Diskussionen konnten selbstverständlich die aufgeworfenen Fragen nicht abschließend klä-ren. Dennoch können eine Reihe von konver-genten Einschätzungen gewonnen werden:

1.

2.

3.

4.

Das Methodenverständnis der Wissenschaf-ten muss erweitert werden, wenn man auch in inter- und transdiziplinärer Forschung von Methodologie sprechen will. Als Ausgangs-punkt unbestritten ist, dass methodische Transdisziplinarität (Mittelstraß) ihren Kern-punkt darin hat, dass sie argumentativ er-zeugtes Wissen ist. Dies ist unverzichtbar, wenn der Anspruch erhalten bleibt, auch im interdisziplinären Bereich Wissen von blo-ßem Meinen unterscheiden zu können – und alles andere wäre eine Selbstaufgabe der Wissenschaften. Das enge Methodenver-ständnis klassischer Disziplinen (z. B. eine Unterscheidung wahr/falsch zu erlauben) greift aber nicht mehr unbedingt. „Weichere“ argumentative Einschätzungen müssen Be-rücksichtigung finden können. Für die Durchführung von Argumentationen sind nun aber Effizienzstrategien (wie Regeln, prädeliberative Einverständnisse, etc.) erfor-derlich, denn es kann nicht immer alles in Frage stehen. Zielgerichtete Argumentation

benötigt eine Ausgangsbasis und Regeln zur Abkürzung von Kommunikation. Inter- und transdisziplinäre Methoden könnten – und so wäre der Widerspruch zwischen den Positio-nen „es gibt keine interdisziplinäre Methodo-logie“ (Mittelstraß, Bechmann, Gutmann) und „es gibt eine oder sollte eine geben“ (Ropohl, Euler, Burger, Hirsch) aufzulösen – gerade darin bestehen, dass sie zur Effizienz-steigerung der inter- und transdisziplinären Kommunikation und Forschung dienen (Bei-spiel Szenariotechnik). Man kann dann nicht mehr über wahr/falsch oder über beste Me-thoden sprechen, wohl aber Leistungen und Grenzen betrachten. Inter- und transdisziplinäre Forschung lässt die Disziplinen nicht unberührt. Methodi-sche Rückwirkungen auf die Disziplinen und auf das Disziplinverständnis treten her-vor. Der Ort der Transdiziplinarität liegt (auch) innerhalb der Disziplinen. Dort sind – methodisch, inhaltlich und organisatorisch – bestimmte Voraussetzungen zu schaffen, um transdisziplinäre Forschung zu ermögli-chen. Interdisziplinarität ist als Teil einer „guten“ Disziplinarität zu verstehen (Euler, Wille, Gutmann). Die entscheidende Frage nach den Bedin-gungen der Möglichkeit von interdis-ziplinären Methodologien ist diejenige nach der jeweiligen (disziplinären) Sprache. Spra-chen prägen Weltzugänge, Problemkonstitu-tionen und Wirklichkeitskonstruktionen. An-forderungen an interdisziplinäre Forschungs-praxen liegt in der adäquaten „Übersetzung“, nicht nur einzelner Begriffe, sondern auch der Semantiken und der damit verbundenen Weltkonstruktionen (Hirsch, Gutmann). In-terdisziplinarität erscheint aus dieser Per-spektive auch als ein Kommunikations- und Sozialisationsproblem (Euler, Wille), das ei-ne emanzipatorische Funktion aufweist. Ausgangspunkt und Motiv, über interdiszi-plinäre Methodologien nachzudenken, liegen in einer Wahrnehmung einer Diskrepanz, nämlich dass vielfach Forschung betrieben wird, die sich einerseits als „interdisziplinär“ bezeichnet. Andererseits vermag sie nicht auszuweisen, was das Spezifikum an Inter-disziplinarität ist. Hieran schließt sich wis-senschaftstheoretischer Systematisierungs-bedarf an. Auch wenn unterschiedliche Ant-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 133

Page 134: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

worten gegeben worden, waren sich alle Vortragen in dieser Analyse einig.

5. Ein weiterer Workshop sollte: - die Klärungsziele konkreter festlegen und

insbesondere die Frage in den Blick neh-men, was unter einer „Methodologie“ verstanden werden kann und welche Leis-tungsanforderungen an sie zu stellen ist

- den empirischen Hintergrund deutlicher machen und Fallbeispiele mit berück-sichtigen (vorhandene Erfahrungen stär-ker aufnehmen)

- die Traditionen der theoretischen und praktischen Befassung mit Inter- und Transdisziplinarität aufarbeiten

- die Mischung aus (normativer) Theorie und (empirischer) Praxis rekonstruieren.

Mittelfristiges Ziel ist die Etablierung eines Kompetenzzentrums zur „Interdisziplinari-tätsforschung“ bzw. zur „Methodologie von Interdisziplinarität“. Ein erstes Netzwerk, das durch eine Art „verlängerte Rheinschiene“ (Zürich, Basel, Karlsruhe, Darmstadt, Mar-burg) dargestellt wird, befindet sich im Auf-bau. Es ist offen für alle interessierte Wissen-schaftlerinnen und Wissenschaftler, insbe-sondere jene der Interdisziplinären Technik-forschung, der Technikfolgenabschätzung sowie der Wissenschafts- und Technikphilo-sophie. Ein Kern liegt darin, die Erfahrungen in Theorie und Praxis zu vermitteln und hin-sichtlich möglicher zukünftiger Evaluierun-gen interdisziplinärer Forschungsprojekte auszuloten. Eine zukünftige Aufgabe einer „Interdisziplinaritätsforschung“ liegt in der Entwicklung einer Methodologie erfolgrei-cher interdisziplinärer Forschungsprojekte.

»

nanoDE – Factors for Success Wiesbaden, 21. - 24. Juni 2004

Tagungsbericht von Gerd Bachmann, Zu-künftige Technologien Consulting der VDI TZ GmbH, Düsseldorf

Von 21. bis 24. Juni 2004 fand im Kurhaus in Wiesbaden die Internationale Konferenz zu nanostrukturierten Materialien „Nano2004“ statt. Sie wurde von ca. 1100 Teilnehmern be-

sucht, mehr als 230 Vorträge und 450 Poster wurden präsentiert sowie 30 Aussteller waren anwesend. Die Nachricht von den Möglichkei-ten, die die Nanotechnologie bietet, unser Le-ben künftig angenehmer, gesünder und sicherer zu machen und ebenso die Innovationskraft, die aus dem Nanokosmos kommt und Arbeits-plätze schaffen wird, hat in vielen Anwen-dungsbereichen bereits die Universitäten und Institute verlassen und die Öffentlichkeit er-reicht. Die Teilnehmer der „Nano2004“ waren deshalb neben weltbedeutenden Wissenschaft-lern auf diesem Gebiet hochrangige Vertreter der Industrie, der Venture Capital-Firmen, der Start-ups wie auch die allgemeine Öffentlich-keit, welche den ebenfalls bereitstehenden NanoTruck besuchen konnte. Erstmals gab es auch einen Gemeinschaftsstand der 9 BMBF Kompetenzzentren und der VDI Technologie-zentrum GmbH, welcher die internationale Community zur Situation der Nanotechnologie in Deutschland auf der ganzen technologischen und infrastrukturellen Breite informierte.

In das Programm integriert war die BMBF-Veranstaltung „nanoDE“, die in diesem Jahr den Untertitel „Factors for Success“ trug. Gemeint war damit letztlich die Transformation der Na-nowissenschaft in Nanotechnologie und deren Transformation in neue Produkte, neue Arbeits-plätze, schließlich in Geld. Die Inhalte der „nanoDE“ waren darum vornehmlich auf dies-bezügliche strategische Fragestellungen ausge-richtet, wohingegen die Vorträge der „Na-no2004“ den wissenschaftlichen Teil der beiden sich ergänzenden Veranstaltungen bildeten.

Ziel der „nanoDE“ war es, die für eine er-folgreiche Umsetzung von Ideen in Produkte wichtigen Faktoren herauszuarbeiten und zu diskutieren. So wurden verschiedene Förderan-sätze zur Generierung von Erkenntnissen für kommerzielle Produkte und die damit verbun-denen Interessen der diversen Förderorganisa-tionen, die Bedeutung von regionalen Netz-werken und innovativen Geschäftsmodellen von Start-ups sowie die notwendige Zusam-menarbeit der Akteure entlang der Wertschöp-fungskette diskutiert. Hinzu kamen zwei Podi-umsdiskussionen zum internationalen Ver-gleich von Förder- und Umsetzungsstrategien sowie zu Chancen und Risiken verschiedener Nanotechnologie-Linien. Dem letzten Thema war auch ein ganzer Vortragsteil der Nano2004

Seite 134 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 135: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

gewidmet, welcher toxikologische Effekte, arbeitsmedizinische Fragen und Umweltaspek-te explizit ansprach.

Auf der Podiumsdiskussion zu Chancen und Risiken verschiedener Nanotechnologie-Linien wurden die Standpunkte von den Refe-renten sachlich vertreten. Der Vertreter von Greenpeace (D. Parr) forderte nicht – wie ande-re NGO an anderer Stelle – ein generelles Mo-ratorium für die Herstellung nanotechnologi-scher Produkte, sondern empfahl verstärkte Untersuchungen in solchen Bereichen, welche dispergierende Nanomaterialien nutzen. Diese zukünftig notwendige Begleitforschung wurde ebenfalls von den anwesenden Vertretern aus Industrie und Politik angeregt. M.C. Roco (NSF) führte an, dass kurzfristig ein hype-artiges Verhalten der Investoren und auch der Presse zu erkennen sei, aber langfristig die Nanotechnologie doch eine immense technolo-gische Chance darstelle. „Overhyping“ wurde speziell von A. Gutsch (Degussa) als gefährlich für die letztendliche Verwertung der Ergebnis-se eingeschätzt. Daher sei eine offene Informa-tionspolitik aller Beteiligten anzuraten. Abseh-bare Risiken müssten adressiert werden, wobei nicht nur die direkten der Toxizität von Parti-keln, sondern auch die möglichen gesellschaft-lichen Veränderungen, welche sich evolutionär einschleichen könnten, eine Rolle spielen soll-ten. Bei der Diskussion der möglichen Implika-tionen sollte vom Problem kommend diskutiert werden, nicht generell von den technologischen Möglichkeiten aus. Auch die Frage des Risi-kos, falls man etwaige Risiken als Nation nicht auf sich nehmen wollte, wurde gestellt.

Beim Vergleich der verschiedenen interna-tionalen Förder- und Umsetzungsstrategien konnten nur im Bereich Öffentlichkeitsarbeit und bzgl. erforderlicher Reaktionen auf Interes-sensgemeinschaften zum Stopp nanotechnologi-scher Arbeiten erhebliche Unterschiede festge-stellt werden. Im asiatischen Raum sind derzeit kaum ethisch und soziologisch begründete Hin-dernisse für die Nanotechnologie festzustellen. Ansonsten werden weltweit wohl ähnliche Fra-gestellungen (Erkenntnisgewinn, Umsetzungs-geschwindigkeit für die Produktgenerierung, Ausbildungsfragen, Langfristmärkte, Infrastruk-turen, Kooperationsformen) bei der F&E-För-derung im Nanotechnologiebereich adressiert, jedoch mit unterschiedlicher Gewichtung und

Strategie. Ob die Grundlagenerarbeitung in den USA, die Industriekooperation in Europa oder die firmeninterne Forschung in Japan die erfolg-reichere Strategie darstellen, wird sich wohl erst in der Zukunft zeigen.

Insgesamt hat sich die strategische Dis-kussion von Wertschöpfungsketten bei der nanoDE als eine wichtige Informationsplatt-form neben den wissenschaftlichen Präsentati-onen erwiesen.

Für weitere Informationen siehe http://www.nanoDE.de sowie http://www.nano2004.org.

«

Raum für Nachhaltigkeit. Zur Kontextualisierung des Leitbilds Leipzig, 17. - 18. Juni 2004

Tagungsbericht von Dieter Rink, Umwelt-forschungszentrum Leipzig-Halle

Nachhaltigkeit hat Konjunktur, möchte man angesichts der Allgegenwart des Leitbilds in Politik und Gesellschaft meinen. Fragt man die jeweiligen Akteure jedoch nach ihrem Ver-ständnis von Nachhaltigkeit, dann ergibt sich ein reichlich dissonantes Bild. Und soll das Leitbild gar als Richtschnur für politisches Handeln dienen, dann wird klar, dass dieses „hehre Ziel“ erst einmal für den jeweiligen Anwendungszusammenhang ausbuchstabiert und übersetzt werden muss, ehe an eine Nach-haltigkeits-orientierte Politik auch nur zu den-ken ist. Eine bedeutende Rolle bei der Anpas-sung des Leitbilds an konkrete räumliche, zeit-liche, soziale und politische Gegebenheiten kann die Entwicklung und Anwendung regio-naler und kommunaler Berichtssysteme spie-len: Die Fokussierung auf einen bestimmten Analyseraum und die Kooperation von Wis-senschaft mit Politik und Verwaltung erzwin-gen förmlich die Konkretisierung und Kontex-tualisierung von Nachhaltigkeitszielen.

Das BMBF hat vor drei Jahren einen För-derschwerpunkt eingerichtet, der die Erarbei-tung und Implementierung von Berichtssyste-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 135

Page 136: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

men unter dem Leitbild der Nachhaltigkeit für die regionale und kommunale Ebene zum Ziel hat. Die Tagung „Raum für Nachhaltigkeit. Zur Kontextualisierung des Leitbilds“ vom 17. - 18. Juni 2004 am Umweltforschungszentrum Leip-zig-Halle (UFZ) widmete sich den Erfahrungen, die bei der Kontextualisierung von Nachhaltig-keit im Förderschwerpunkt „Konzeption und Erprobung problemorientierter regionale Be-richtssysteme für eine nachhaltige Entwicklung“ (RBS) des BMBF bislang gesammelt wurden. Mit der Implementierung in Politik und Verwal-tung und der Frage nach möglichen Steue-rungswirkungen thematisierte sie zudem die politische Relevanz von Berichtssystemen. Ein weiteres Ziel der Tagung war die Einbettung der Projekte des Förderschwerpunktes in den deut-schen Nachhaltigkeitsdiskurs.

1 Konzepte und Verständnisse von Nach-haltigkeit

Die Tagung gliederte sich in drei thematische Blöcke, die jeweils durch Impulsreferate von eingeladenen Experten eröffnet wurden. Im ersten Block ging es um Konzepte und Ver-ständnisse von Nachhaltigkeit. Hier wurden die dominanten Konzepte der deutschen Nachhal-tigkeitsdebatte mit den Nachhaltigkeitsver-ständnissen der RBS-Projekte und denen kom-munaler Akteure kontrastiert.

Juliane Jörissen (Forschungszentrum Karlsruhe, ITAS) widmete sich in ihrem Impuls-referat den bekannten deutschen „Konzepten von Nachhaltigkeit“ und versuchte, Grundlinien der Debatte nachzuzeichnen. Die deutsche De-batte zeige im Zeitverlauf den Trend zu zuneh-mender Komplexität. Dabei ließe sich folgende Entwicklung erkennen: Ausgangspunkt seien Ein-Säulen-Modelle gewesen (wie sie den Stu-dien des Wuppertal-Instituts oder des Umwelt-bundesamtes zugrunde lagen), die den Vorrang von ökologischen Belangen postulierten. Dann seien Drei-Säulen-Modelle entwickelt worden, die eine Gleichrangigkeit von ökologischen, sozialen und ökonomischen Belangen vertreten (wie z. B. der Bericht der Enquete-Kommission „Schutz des Menschen und der Umwelt“ sowie die Studie „Arbeit und Ökologie“). Schließlich seien komplexe Konzepte ausgearbeitet worden, die dimensionsübergreifende Ziele formulierten und diesen Mindestanforderungen zuordneten.

Beispiele dafür seien die Nationale Nachhaltig-keitsstrategie der Bundesregierung und das Inte-grative Nachhaltigkeitskonzept der Helmholtz-Gemeinschaft (HGF). Man müsse jedoch sagen, so Jörissen, dass sich das Drei-Säulen-Modell in der deutschen Öffentlichkeit durchgesetzt habe und es schwer sei, andersartige Konzepte zu platzieren. In der Kritik an Nachhaltigkeits-konzepten würden folgende Punkte dominie-ren: deren Hyperkomplexität, die Verwässe-rung klarer Positionen, die Unterteilung in Di-mensionen bzw. Säulen und die Ausrichtung an einzelnen Wissenschaftsdisziplinen (z. B. Öko-logie, Ökonomie). Juliane Jörissen betonte, dass Nachhaltigkeit kein mehrdimensionaler Wunschzettel sei, sondern ein normatives Leit-bild. Die Verbindung zwischen den globalen Normen und den jeweiligen örtlichen Verhält-nissen müsse hergestellt werden, denn erst durch die Einbindung eines Teilraumes bzw. einer Region in den globalen Kontext werde ein Kon-zept zu einem Nachhaltigkeitskonzept.

Katja Huber und Dieter Rink (beide Um-weltforschungszentrum Leipzig-Halle) stellten sodann in ihren Beiträgen die Nachhaltigkeits-verständnisse der RBS-Projekte sowie die ihrer Praxispartner vor, wobei sie sich auf eine Um-frage unter den Projekten des Förderschwer-punkts im Jahr 2003 bezogen. Hier zeige sich zwar auch das Bild der deutschen Debatte (wie von Jörissen skizziert), aber auch andere Kon-zepte. Überwiegend beziehe man sich auf ge-bräuchliche Nachhaltigkeitskonzepte, am ehes-ten Säulenkonzepte oder Kombinationen ver-schiedener Ansätze, führte Katja Huber aus, integrative Konzepte seien dagegen sehr selten. Bei der Rezeption des Leitbilds der Nachhal-tigkeit bei den kommunalen Praxispartnern würden Skepsis und Ablehnung sowie Unbe-stimmtheit und Unsicherheit überwiegen, so Dieter Rink. Hinzu kämen Fragen nach dem Nutzen bzw. der Funktion des Leitbilds für die kommunale Praxis und es würden Schwierig-keiten gesehen, dies in den kommunalen Kon-text einzuordnen. Auch bei den Praxispartnern dominierten Drei- bzw. Vier-Säulen-Konzepte. Auf der kommunalpolitischen Ebene werde Nachhaltigkeit dezidiert wirtschafts- bzw. ar-beitsmarktpolitisch interpretiert und häufig recht plakativ verwendet: Als nachhaltig werde hier alles angesehen, was dauerhaft Arbeits-plätze schaffe. Daneben gebe es auf der Ver-

Seite 136 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 137: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

waltungsebene ressortspezifische Zugänge, die zum Teil in Widerspruch zum kommunalpoliti-schen Verständnis stünden. Das entscheidende Defizit verortete Rink in der fehlenden Einbin-dung des Leitbilds Nachhaltigkeit in kommu-nale Leitbilder, Pläne und Beschlüsse. Hier sah er auch eine Aufgabe für die weitere wissen-schaftliche Bearbeitung des Themas: es müsste geklärt werden, wie die Kommune Nachhaltig-keit in ihr Handeln implementieren könne.

2 Kontextualisierung von Nachhaltigkeit

Im zweiten Block „Kontextualisierung von Nachhaltigkeit“ sollten die Möglichkeiten der Kontextualisierung von Nachhaltigkeit mit den Strategien konfrontiert werden, die in den Pro-jekten des Förderschwerpunkts zur Anwendung kommen.

Thomas Döring (Universität Kassel) und Stefan Heiland (Institut für Ökologische Raum-entwicklung Dresden) gingen in ihrem Impuls-referat „Strategien der Kontextualisierung von Nachhaltigkeit“ auf die Potenziale von Nachhal-tigkeitsindikatorensystemen ein. Dabei wiesen sie eingangs auf die Vielzahl von Kontextuali-sierungsdimensionen hin, wie z. B. Probleme, Themen, Ziele, Akteursgruppen oder Instrumen-te. Den Hintergrund ihrer Präsentation bildete eine eigene, im Auftrag des Umweltbundesam-tes durchgeführte Studie zur vergleichenden Analyse von Nachhaltigkeitsindikatorensyste-men auf kommunaler und regionaler Ebene. Ein wesentliches Ergebnis des Vergleichs sei, dass es viele Gemeinsamkeiten zwischen den Syste-men gebe: Die Systeme seien häufig am Nach-haltigkeitsverständnis der Lokalen Agenda 21 ausgerichtet, die praktische Anwendbarkeit werde betont und die gleichen bzw. ähnliche Zielgruppen angesprochen (Politik, Verwaltung und Öffentlichkeit). Ziel sei meist nicht die kon-sequente bzw. konsistente Umsetzung eines Konzepts, sondern Information und Bewusst-seinsbildung. Zudem sei die Indikatorenauswahl weitgehend an der Datenverfügbarkeit orientiert. Unterschiede bestünden in der Gliederung der Systeme, in den behandelten Themenbereichen und der Zahl der Indikatoren, aber auch im Um-fang der Partizipation von Bürgern und gesell-schaftlichen Gruppen sowie der inhaltlichen Verknüpfung der Daten. Dessen ungeachtet gebe es eine große Heterogenität der lokalen

Nachhaltigkeitsindikatorensysteme, was die beiden Autoren als Zeichen für eine starke Kon-textualisierung deuteten. Der lokale Bezug wer-de bei der Entwicklung und beim Einsatz der Systeme betont, was auch zur Vernachlässigung konzeptioneller zugunsten pragmatischer Über-legungen führe. Die Auswertung der Themen-felder zeige, dass die Themen „Ökologie“ und „Soziales“ weit vor dem Thema „Wirtschaft“ rangierten und es insbesondere eine Ökologie-lastigkeit der Indikatoren gebe, die die ersten zehn Plätze belegen. Kommunale Nachhaltig-keitsindikatorensysteme würden – so ihr Fazit – kaum genutzt. Wenn dann erfüllten sie in erster Linie eine Informationsfunktion und auch diese vorrangig für die Lokale Agenda. Die Nutzung für die politische Steuerung sei dagegen äußerst selten und sei vor allem nicht institutionalisiert. Die Ursachen für die geringe Nutzung lägen generell im Desinteresse am Thema Nachhaltig-keit und Nachhaltigkeitsindikatorensystemen, an ressortbezogenen Denk- und Verhaltensweisen, aber auch an Kapazitäts- und Finanzproblemen. Hinzu komme der umfassende Anspruch des Nachhaltigkeitspostulats, der mit dem fehlenden Bezug zum kommunalen Kontext kontrastiere. Die Indikatorensysteme seien zu unspezifisch für bestimmte Akteure und Funktionen. Außer-dem sei auch die Frage der Anschlussfähigkeit der lokalen/regionalen Ebene an die übergeord-nete (nationale) Ebene nicht geklärt.

Im Anschluss stellte Wibke Glismann (Uni-versität Hamburg) das Projekt „Gesundheit als integrierendes Leitziel in der Konzeption und Erprobung eines regionalen Berichtssystems nachhaltiger Entwicklung“ vor. Hier werden in Kooperation mit 10 Städten in Ostdeutschland Berichtssysteme für die Bereiche Gesundheit, Soziales und Umwelt entwickelt. In Orientie-rung am Nachhaltigkeitspostulat des Brundt-land-Berichts sollen unter Einbeziehung lokaler Agenda-Aktivitäten die genannten Themenbe-reiche vor einem gesundheitswissenschaftlichen Hintergrund integriert werden. Das Projekt folge dabei, so Glismann, einer pragmatischen Vorge-hensweise im Hinblick auf die Auswahl von Indikatoren. Unter Rückgriff auf bereits vorhan-dene Indikatorensätze würde in einem Diskussi-onsprozess mit den beteiligten Städten ein Kern-indikatorensatz von 35 Indikatoren nebst ent-sprechenden Zielbestimmungen benannt. Wibke Glismann zeigte sich optimistisch, dass es mit

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 137

Page 138: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

dem Projekt gelingen werde, das Thema „Ge-sundheit“ erfolgreich mit der Nachhaltigkeitsbe-richterstattung zu verknüpfen.

Antonina Bieszcz-Kaiser und Erhard Schreiber (Institut für Wirtschafts- und Sozial-forschung Chemnitz e.V.) bezogen sich in ihrem Beitrag auf das Projekt „Konzeption und Erpro-bung eines Berichtssystems zur Beobachtung und Beschreibung von neuartigen Entwicklun-gen bei Beschäftigungsmaßnahmen auf der kommunalen Ebene unter dem Leitbild einer nachhaltigen Entwicklung“. Sie gingen der Fra-ge nach, welchen Beitrag öffentlich geförderte Beschäftigung zu nachhaltiger kommunaler Entwicklung leistet. Ziel des Projekts sei die Erarbeitung eines Beobachtungs- und Berichts-systems als ein Instrument für die kommunalen Akteure, das ihnen hilft, „eine sowohl der regio-nalen Arbeitsmarktlage noch adäquatere als auch nachhaltige kommunale Entwicklung be-fördernde Struktur der zum Einsatz kommenden arbeitsmarktpolitischen Instrumente zu bestim-men“. Es ginge darum, die Effektivität von Be-schäftigungsmaßnahmen in diesem Sinne we-sentlich zu erhöhen. Beschäftigungsmaßnahmen sollten nachhaltig dazu beitragen, das Arbeits-platzdefizit zu verringern, die Beschäftigungsfä-higkeit zu erhöhen und Zukunftsperspektiven zu eröffnen. Über die Reaktivierung brachliegen-den Arbeitskräftepotenzials sollten wichtige kommunale bzw. regionale Aufgaben bearbeitet werden. Hierbei gelte es, ökologische, ökonomi-sche und soziale Aspekte integrativ zu behan-deln. Die Kommunen sollten mit dem Berichts-system ein Instrument erhalten, das es ihnen gestatte, die Nachhaltigkeit von Beschäfti-gungsmaßnahmen zu bewerten.

In seinem Vortrag „Kommunale Problem-felder als Nachhaltigkeits-Kontext“ umriss Gerhard Hartmuth (Umweltforschungszentrum Leipzig-Halle) die Kontextualisierungsstrategie des Projekts. Er charakterisierte die Ausgangs-lage bei der Entwicklung eines kommunalen Nachhaltigkeitsindikatorensystems als Akzep-tanz- und Vermittlungsproblem. Die Haltung in der Verwaltung lasse sich pointiert in dem Satz zusammenfassen: „Wir haben hier eigentlich andere Probleme“. Daher seien die Operationa-lisierung und Kontextualisierung des Leitbilds im Sinne einer Anpassung an die lokalen Be-dingungen zentrale Anforderungen. Im Projekt werde die Kontextualisierung über die Formu-

lierung der vordringlichsten kommunalen Prob-lemfelder geleistet. Diese würden mit den Nachhaltigkeitszielen eines integrativen Nach-haltigkeitskonzepts (des HGF-Konzepts; vgl. den Beitrag von Juliane Jörissen) verknüpft, bevor an der Schnittstelle von Problemfeldern und Nachhaltigkeitszielen Indikatoren identifi-ziert werden. Das integrative Nachhaltigkeits-konzept habe sich als Erfassungsraster und Bewertungsmaßstab für kommunale Probleme geeignet und so die Relevanz des Leitbilds für kommunale Problemfelder aufgezeigt. Dies habe zu einem umfassenderen Verständnis für Nachhaltigkeit bei den beteiligten kommunalen Akteuren geführt und die Akzeptanz des Leit-bilds gestärkt. Eine Schwachstelle des Projekts sei die mangelnde Berücksichtigung aller kom-munalen Handlungsfelder. Da die Methode zwangsläufig die Partizipation kommunaler Praxispartner beschränke, spiegelten sich die spezifischen Problemsichten einzelner Ämter bzw. Verwaltungsbereiche stärker wider als die anderer. Unterschiedliche Vorstellungen gäbe es bei der Gewichtung der Problemfelder. Die Praxispartner forderten die Priorisierung der Problemfelder entsprechend ihrer politischen Relevanz, die Wissenschaftler favorisierten dagegen deren Gleichbehandlung.

Am Beispiel der Region Mecklenburgische Seenplatte stellte Johann Käther (Fachhoch-schule Neubrandenburg) in seinem Vortrag „Nachhaltigkeitsindikatoren von unten“ die Frage, ob diese einen Beitrag zur regionalen Kontextualisierung von Nachhaltigkeit leisten können. Der Aufbau und die Etablierung von regionalen bzw. lokalen Nachhaltigkeitsbe-richtssystemen sei insbesondere mit dem Prob-lem konfrontiert, was nachhaltige Entwicklung auf dieser Ebene bedeuten könne. Es mangele an der Anpassung des Leitbilds an die regionale Ebene und der Implementierung von Nachhal-tigkeitsindikatorensystemen als Monitoring- und Steuerungsinstrument. Im Projekt „Freiwillige Selbstkontrolle Nachhaltigkeit“ werde Kontex-tualisierung durch die Problemorientierung (Einbeziehung lokaler bzw. regionaler Aspekte), die Akteursorientierung (Einbeziehung von Praxispartnern) sowie die Verknüpfung von Politik- bzw. Handlungsfeldern erreicht. Die Probleme der Kontextualisierung lägen etwa in den unterschiedlichen Nachhaltigkeitsverständ-nissen der Akteure, der Begrenztheit des Indika-

Seite 138 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 139: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

torensatzes sowie den Defiziten bei der Verfüg-barkeit. Außerdem gebe es unterschiedliche Bewertungsmaßstäbe und die Indikatoren seien das Ergebnis politischer Aushandlungsprozesse. Dadurch würden nur geringe Steuerungswir-kungen entfaltet, die möglicherweise nicht über-zeugend sind für eine dauerhafte Implementie-rung und Nutzung von Berichtssystemen.

Pamela Dorsch und Frauke Hoffmann (Technische Universität Berlin) präsentierten das Projekt „Nachhaltiger Tourismus in der Prignitz – Ein Informationssystem“. Im Projekt werde mit einem „projektbezogenen Grundver-ständnis“ von Nachhaltigkeit gearbeitet, das sich auf die drei Dimensionen „Ökologie“, „Ökono-mie“ und „Soziales“ (plus „Institutionelles“) beziehe. Die Kontextualisierung erfolge durch die Beteiligung der Akteure an allen Entwick-lungsschritten: an der Stärken-Schwächen-Analyse des regionalen Tourismus und an der Analyse von Akteurskonstellationen. Daraus werde ein Zielsystem für nachhaltigen Touris-mus entwickelt, das den Dimensionen zugeord-net sei und zu den Zielthemen jeweils Teilziele enthalte. Das Berichtssystem habe drei Funktio-nen: es biete Orientierungswissen, mache ein Kommunikationsangebot und beinhalte das eigentliche Monitoring mit einem regionalen Ziel- und Indikatorensystem. Kern des Projekts sei die Regionalisierung des Leitbilds mit dem Ziel der Steuerung der regionalen Entwicklung.

3 Politische Implikationen von Nachhaltig-keits-Berichtssystemen

Der dritte Block „Politische Implikationen von Nachhaltigkeits-Berichtssystemen“ wurde mit einem Impulsreferat zum derzeitigen Stand in Deutschland eingeleitet, an den sich Berichte aus der kommunalen Praxis anschlossen.

Ulrich Gehrlein (Institut für ländliche Strukturentwicklung Frankfurt/Main) gab in seinem Impulsreferat einen Überblick über die „Implementierung und Steuerungswirkungen von Nachhaltigkeitsberichtssystemen“. Es gebe etwa 250 Kommunen, in denen derartige Syste-me angewendet würden – allerdings in ganz unterschiedlicher Form. Die Zielsetzung bestehe überwiegend in der Bestandsaufnahme bzw. Berichterstattung, der Bestimmung von Hand-lungsbedarf und der Öffentlichkeitsarbeit. Weit weniger jedoch würden damit Ziele wie die

politische Entscheidungsunterstützung, die Steuerung des Verwaltungshandelns oder die Erfolgskontrolle der Zielumsetzung verfolgt. Infolgedessen hätten die Systeme zwar zur Be-wusstseinsbildung in Politik und Verwaltung beigetragen, aber kaum zur Steuerung kommu-naler Entwicklung. Die Ursachen dafür sah Gehrlein auch in der schwachen Kontextualisie-rung und mangelnden Implementierung von Berichtssystemen: Sie seien kaum in Arbeitsab-läufe und Entscheidungsprozesse integriert, schlecht in das institutionelle Setting eingebettet und kaum mit Planungs- und Managementin-strumenten verknüpft. Aber auch auf der inhalt-lich-konzeptionellen Ebene machte er Defizite aus: Die Indikatoren besäßen bislang nur eine eingeschränkte Handlungsrelevanz für die kommunale Praxis. Bisherige Nachhaltigkeits-indikatorensysteme würden überwiegend einem übergeordneten, querschnittsorientierten Kern-indikatorenmodell entsprechen, aber wenig spe-zifisch für einzelne Steuerungsebenen sein. Hier stelle sich aber die Frage, ob die Gesamtent-wicklung langfristig gesteuert werden solle oder konkrete Projekte? Wünschenswert seien aus dieser Perspektive funktionsspezifische Konzep-te mit einer höheren Handlungsrelevanz. Dabei müssten insbesondere kommunale bzw. regiona-le Politikziele Aufnahme finden. Gehrlein mein-te, dass sich die Berichtssysteme nur dann um-fassend in die Kommunalpolitik bzw. -verwal-tung implementieren ließen, wenn sie in das Neue Steuerungsmodell integriert würden. Nachhaltigkeitsindikatorensysteme hätten dann nämlich zentrale koordinierende Funktionen und würden als Controlling-Instrumente eines diffe-renzierten Berichtssystems in Politik und Ver-waltung eingesetzt. Daher seien die Systeme in diese Richtung zu entwickeln und Aspekten der Implementierung müsste in Zukunft viel mehr Aufmerksamkeit gewidmet werden.

Der nachfolgende Vortrag von Erwin Rothgang (Stadt Wuppertal) zeichnete den Pro-zess der Implementierung eines Nachhaltigkeits-berichtssystems in der Stadt Wuppertal nach. An diesem Beispiel werde sinnfällig, dass dieser Prozess (viel) Zeit brauche und von den Akteu-ren großes Durchhaltevermögen erfordere. In Wuppertal sei 1995 mit dem Agenda-Beschluss des Stadtrats der Startschuss gefallen und erst 2004 die strategische Steuerung unter dem Leit-bild der Nachhaltigkeit mit Zielvereinbarungen,

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 139

Page 140: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

Kennzahlen und Indikatoren eingeführt worden. Rothgang wies in seiner engagierten Präsentati-on nachdrücklich darauf hin, dass der Imple-mentierung viel Aufmerksamkeit gewidmet werde müsse und Politiker von Anfang an ein-zubinden seien.

Ein weiteres Beispiel für die „Dauerhafte Implementierung eines Nachhaltigkeitsberichts-systems“ wurde von Annett Zimmermann (Stadt Güstrow) am Beispiel der Stadt Güstrow de-monstriert. Ausgangspunkt für die Entwicklung eines Nachhaltigkeitsberichtssystems sei auch hier der Agenda-Prozess gewesen, der mit kommunalen Aktivitäten verknüpft worden sei. Es sei von Anfang an ein ganzheitlicher Pro-jektansatz verfolgt worden, der die Vernetzung ökonomischer, ökologischer, sozialer und kultu-reller Aspekte vorsah. Innerhalb der Stadtver-waltung, so Zimmermann, sei der Umgang mit den Indikatoren inzwischen zum Alltagsgeschäft geworden und habe sich professionalisiert. Dies habe ein Bewusstsein für das Controlling der Stadt- und Wirtschaftsentwicklung geschaffen und diene der Kontrolle der eingesetzten Strate-gien und Maßnahmen. Allerdings seien die In-dikatoren dadurch vorrangig Planungswerkzeu-ge geworden. Auf der politischen Ebene würde demgegenüber eher mit qualitativen Zielen und Strategien operiert als mit quantitativen Größen. Ungeachtet dieser Differenzen schätzte die Güstrower Planerin den Implementierungspro-zess als erfolgreich ein.

4 Nachhaltigkeitsberichtssysteme: Von der Kontextualisierung zur Implementierung?

Die Tagung machte die breite Palette an For-schungsaktivitäten zum Thema sichtbar und gestattete eine Verortung der Projekte des RBS-Förderschwerpunktes in diesem Feld. In Bezug auf das Thema der Tagung, die Kontextualisie-rung, wurde die Vielfalt der Strategien sichtbar, die von akteursbezogenen über thematische bis hin zu räumlichen und funktionsbezogenen Stra-tegien reichen. In den Diskussionen wurde deut-lich, dass für eine erfolgreiche Implementierung in der Verwaltung eine Kontextualisierung im Hinblick auf institutionelle Abläufe erforderlich ist. Dazu taugen die vorliegenden Indikatoren-systeme nur bedingt, da sie in erster Linie für die (öffentliche) Information und Kommunikati-on entwickelt wurden und infolgedessen vor

allem zur Bewusstseinsbildung beigetragen haben. Um sie aber in der kommunalen Praxis als Steuerungsinstrument nutzen zu können, bedarf es der Ausrichtung auf spezifische Be-richtspflichten sowie kommunale Ziele und Beschlüsse. Selbst wenn das Leitbild der Nach-haltigkeit akzeptiert und ein kommunaler Zu-gang dazu entwickelt ist, so muss ein entspre-chendes Berichtssystem nicht unbedingt schon allein deshalb anschlussfähig an die kommunale Steuerungsphilosophie sein.

Neben dem breiten Überblick über die vor-handenen und die in den RBS-Projekten in Ent-wicklung befindlichen Berichtssysteme machte die Tagung auch Fortschritte sichtbar. Diese bestehen etwa in der mittlerweile erreichten Vielfalt der entwickelten Indikatorensysteme, in der Varianz der verwendeten Konzepte, in der Heterogenität der angewandten partizipativen Verfahren sowie in der stärkeren Ausrichtung auf spezifische Funktionen und Ziele. Es wurde aber auch deutlich, dass viele der entwickelten Systeme einmalige (Kraft)Akte darstellen, die in dieser Form nicht wiederholbar sind. Die betei-ligten Akteure, gerade aus dem Umfeld der Lo-kalen Agenden, verfügen in der Regel nicht über die nötigen Ressourcen, um Berichtssysteme auf Dauer stellen zu können. Zugleich wurde deut-lich, dass sich die bislang entwickelten Berichts-systeme innerhalb eines Rahmens bewegen: Es werden keine grundsätzlich neuen Systeme mehr entwickelt, sondern es werden überwie-gend bekannte Konzepte herangezogen und vorliegende Indikatorensets werden nur noch wenig verändert. Die RBS-Projekte selbst bauen im Wesentlichen auf dem erreichten Stand der Indikatorenentwicklung auf und haben ihm nur partiell Neues hinzugefügt. Dafür sind sie stär-ker kontextualisiert, etwa durch ihre Ausrich-tung auf die Bedürfnisse und Erwartungen der kommunalen Verwaltungspraxis oder die Ein-bettung in Formen der ämterübergreifenden Zusammenarbeit.

Abschließend wurde die Frage diskutiert, ob im Prozess der Implementierung in die kommunale Praxis schon der „Point of no re-turn“ erreicht sei. Eine Reihe von Teilnehmern bezweifelte dies mit Blick auf die bisher geringe Zahl an erfolgreichen Beispielen. Es blieb dabei offen, inwiefern die Implementierung an grund-sätzlichen Hindernissen scheitert. Deutlich wur-de, dass künftig die Beschäftigung – auch die

Seite 140 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 141: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

wissenschaftliche Untersuchung – der Voraus-setzungen, Bedingungen und Schritte bei der Implementierung der Berichtssysteme in das kommunale Verwaltungshandeln von zentraler Bedeutung für Fortschritte auf diesem Gebiet sein wird. Es sind auch weitere Anstrengungen nötig, um die Zugänglichkeit der Systeme für die Öffentlichkeit zu erhöhen. Die Anwendung bzw. Umsetzung der Berichtssysteme mittels elektronischer Software und ihre Einspeisung in kommunale Intra- bzw. Internetsysteme steht erst am Anfang. Die Diskussion endete eher mit offenen Fragen als mit Antworten – was beim derzeitigen Forschungsstand in diesem Feld auch nicht überraschend ist. Auf welche Ebene zielen kommunale Berichtssysteme, auf die der strategischen Kommunalpolitik, die des Verwal-tungshandelns – auch einzelner Ressorts – oder die einzelner Projekte? Welche spezifischen Steuerungs- und Controlling-Funktionen können kontextualisierte Nachhaltigkeitsberichtssyste-me haben? Usw. Engagiert wurde dafür gestrit-ten, sich mit derartigen Berichtssystemen „nicht in die Historie schieben (zu) lassen“.

Die Beiträge der Tagung sollen in einem Band in der von Armin Grunwald und Bernd Hansjürgens herausgegebenen Reihe „Global zukunftsfähige Entwicklung – Perspektiven für Deutschland“ (edition sigma) publiziert werden.

»

Ökologische Ökonomie: eine neue Wissenschaft? Heidelberg, 6. - 8. Mai 2004

Tagungsbericht von Fred Luks, Hamburger Universität für Wirtschaft und Politik, Pro-jekt NEDS – Nachhaltige Entwicklung zwi-schen Durchsatz und Symbolik

Welche Funktion kann die Wissenschaft in einer sich wandelnden Welt haben, wenn das Ziel eine nachhaltige Entwicklung ist? Welche Rolle kann die Ökologische Ökonomie in die-sem Zusammenhang spielen? Inwieweit ist sie eine „neue Wissenschaft“, die zur Lösung wichtiger Gegenwarts- und Zukunftsprobleme Beiträge leisten kann? Diese und andere durch das Leitbild „Nachhaltige Entwicklung“ provo-

zierte Fragen an die Wissenschaft im Allge-meinen und die Ökologische Ökonomie im Besonderen waren Gegenstand der kleinen, thematisch breit angelegten und inhaltsreichen Tagung „Ökologische Ökonomie: eine neue Wissenschaft?“, die von der Vereinigung Öko-logische Ökonomie (VÖÖ) vom 6.-8. Mai 2004 in Heidelberg ausgerichtet wurde.

Die Ökologische Ökonomie befasst sich mit Ganzheiten ebenso wie mit spezifischen wirtschaftlichen, sozialen und ökologischen Problemen. Sie sieht sich selbst als offenen Suchprozess, der zum Suchprozess „Nachhaltige Entwicklung“ praktikable Lösungen beitragen will. Diese normativ und im Hinblick auf die Vision einer nachhaltigen Entwicklung moti-vierten Charakteristika der Ökologischen Öko-nomie als „neuer Wissenschaft“ erwiesen sich als guter Ausgangspunkt für einen drei Tage langen Diskussionsprozess, an dem sich über 30 WissenschaftlerInnen unterschiedlicher Diszip-linen und unterschiedlicher Generationen inten-siv beteiligten. Einmal mehr war der „Heidel-berg-Spirit“ der Jahrestagung zu spüren – der intensive Gedanken- und Erfahrungsaustausch zwischen den Sitzungen war ebenso wichtig wie die „offziellen“ Plena und Arbeitsgruppen.

Eine zentrale Scharnierstelle für die Ver-bindung von Wissenschaft und Nachhaltigkeit ist die disziplinäre Organisation von Forschung und Lehre. Wenn die Wissenschaft nicht nur Teil der Probleme, sondern Teil der Lösungen sein will, muss sie eben diese Disziplinarität hinterfragen und sich auf Debatten zum Status von Mono-, Multi-, Inter- und Transdiziplinari-tät einlassen. Die Tatsache, dass ein analytisch, partikularisierend und disziplinär ausgerichteter Wissenschaftsbetrieb vor dem Hintergrund von Nachhaltigkeitsproblemen an Überzeugungs-kraft verliert, war ein wiederkehrendes Thema. Es gehört zu den Grundannahmen der Ökologi-schen Ökonomie, dass eine an Nachhaltigkeit orientierte Reform von Gesellschaft und Wirt-schaft mit einer Reform der Art und Weise ein-hergehen muss, mit der Wissenschaft betrieben wird. Zu thematisieren ist in diesem Zusam-menhang mithin „Kultur“ als Ganzes, und auch dies wurde auf der Tagung versucht. Zu fragen war also, wie eine neue Wissenschaft und eine neue Wissenschaftskultur aussehen können, und welche Bedeutung der Ökologischen Ökonomie in diesem Zusammenhang zukommt. Gegen-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 141

Page 142: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAGUNGSBERICHTE

stand dieser Tagung war mithin nicht das Klein-teilige und Detaillierte, sondern das Große und Ganze. Mit seinem Vortrag „Auf dem Weg zu einer neuen Ökonomie – Auf dem Weg zu einer neuen Wissenschaft?“ führte Peter Plöger (Bie-lefeld) in das Tagungsthema ein und spannte dabei einen weiten Bogen von der historischen Entwicklung der Wissenschaft als einem diszi-plinär organisierten Gebilde bis zu aktuellen Problemen. Zwei weitere Plenumsbeiträge kon-kretisierten Themen und Fragestellungen. Peter Finke (Bielefeld) stellte die Frage „Was heißt ‚neue Wissenschaft’“ und gab Antworten aus Sicht der Wissenschaftsforschung, während Christiane Busch-Lüty (Ebenhausen) „Heraus-forderungen einer Ökologischen Ökonomie an die Wissenschaft“ thematisierte.

Am Abend des ersten Konferenztages wur-de erstmals der nach dem Ökonomen Karl Wil-liam Kapp benannte „Kapp-Forschungspreis für Ökologische Ökonomie“ vergeben. Dieser Preis wird im zweijährigen Turnus gemeinsam von der Vereinigung für Ökologische Ökonomie (VÖÖ), der Kapp-Stiftung, der Hatzfeldt-Stif-tung sowie der Forschungsgesellschaft anstif-tung vergeben und dient der wissenschaftlichen Nachwuchsförderung. Aus zahlreichen zum Thema „Gerechtigkeit und nachhaltige Entwick-lung“ eingereichten Studien wurden zwei prä-miert: Der Geograph Michael Flitner wurde für seine von der Universität Freiburg angenomme-ne Habilitationsschrift „Lärm an der Grenze. Eine Studie über Fluglärm und Umweltgerech-tigkeit am Beispiel des Flughafens Basel-Mulhouse“ ausgezeichnet. Die Politikwissen-schaftlerin Dagmar Vinz erhielt die Auszeich-nung für die im Rahmen ihrer Promotion an der Freien Universität Berlin erstellte Studie „‚Ver-zehrte Zeiten’ – Ubiquität und Temporalität des Ernährungssystems aus der Perspektive der Umwelt- und Geschlechterforschung“. Die Jury des Preises ist interdisziplinär besetzt und be-steht aus Fachleuten der Ökonomie, Ökologie, Soziologie, Wissenschaftstheorie und Kultur-wissenschaft. Das Auswahlverfahren steht mit dem Tagungsthema „Neue Wissenschaft“ also ebenso in Bezug wie die beiden ausgezeichneten Arbeiten, die nicht zuletzt durch einen problem-orientierten, Disziplinen übergreifenden Ansatz geprägt sind.

Im Zentrum des zweiten Konferenztages standen die Arbeitsgruppen, in denen vier The-

menblöcke vertieft diskutiert wurden. Die AG „Weltbilder reflektieren“ tat genau dies – sie überdachte unterschiedliche wissenschaftliche Weltbilder und ihre „Brauchbarkeit“ für eine am Nachhaltigkeitsleitbild orientierte Wissenschaft. Die AG „Ökologische Ökonomie kommunizie-ren“ wandte sich dem Problem zu, wie wissen-schaftliche (vor allem: ökologisch-ökonomi-sche) Fragestellungen und Konzepte erfolgreich in der Öffentlichkeit kommuniziert werden kön-nen. Im ökologisch-ökonomischen Diskurs ist es ein Gemeinplatz, dass man „Institutionen verän-dern“ muss – die gleichnamige Arbeitsgruppe thematisierte institutionellen Reformbedarf ebenso wie die Frage nach der Definition und theoretischen und praktischen „Bearbeitbarkeit“ von Institutionen. „Transdisziplinarität prakti-zieren“ schließlich war ein AG-Thema, in dem vor allem Fragen transdisziplinärer Forschung und Qualifikation in disziplinären Strukturen thematisiert wurden. Hier kamen nicht zuletzt NachwuchswissenschaftlerInnen zu Wort, die sich mit Disziplinen übergreifenden und praxis-orientierten Forschungsarbeiten qualifizieren wollen und dabei bemerkenswerte Erfahrungen mit (Hochschul-)Institutionen machen konnten. Wichtiges Thema dieser AG waren auch die Grenz-Ziehung zwischen verschiedenen Diszip-linen übergreifenden Herangehensweisen und die Pluralität von Vorstellungen darüber, was genau Transdisziplinarität bedeutet.

Der bei VÖÖ-Tagungen stets stattfindende Empfang im Heidelberger Rathaus stand eben-falls im Zeichen eines grundsätzlichen Nach-denkens über Wissenschaft und die Grenzzie-hungen, die sie funktionieren lassen, aber auch zu Problemen führen. Walther Zimmerli, Grün-dungspräsident der VW AutoUni in Wolfsburg, verkörpert schon in seiner Person einiges, das das Verhältnis von Nachhaltigkeit und Wissen-schaft charakterisiert oder charakterisieren sollte: Er ist nicht nur ein philosophischer Grenzgänger, der sich mit einem breiten Spekt-rum gesellschaftlicher Probleme befasst hat, sondern auch ein erfolgreicher Wissenschafts-manager. Sein launiger Festvortrag „Parado-xien der Nachhaltigkeit – Wissenschaft jenseits ihrer eigenen Grenzen“ thematisierte die Span-nung zwischen Nachhaltigkeitszielen und Wis-senschaft. Zimmerlis gedankenreiche Ausfüh-rungen waren für alle Teilnehmenden anre-gend, für einige auch sehr provokativ.

Seite 142 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 143: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ANKÜNDIGUNGEN / EVENTS

Der letzte Konferenztag begann mit einigen Überlegungen von Beate Weber, Oberbürger-meisterin der Stadt Heidelberg, zur praktischen Nachhaltigkeitspolitik auf regionaler Ebene. Daran anschließend wurden die Ergebnisse aus den Arbeitsgruppen präsentiert und diskutiert. Der letzte Plenumsbeitrag war ein „Praxisbe-richt“ von Sabine Höhler und Fred Luks (beide Hamburg) zum Thema „Transdisziplinarität als neues Weltbild?“. Die Praxis, aus der Höhler und Luks berichteten, ist die vom Bundesminis-terium für Bildung und Forschung geförderte sozial-ökologische Forschung (SÖF), in deren Rahmen beide über „Nachhaltige Entwicklung zwischen Durchsatz und Symbolik“ forschen. Der Vortrag stellte Bezüge her zwischen den Diskussionspunkten der Tagung und dem Alltag interdisziplinären Forschens in einer nach wie vor disziplinär strukturierten Umgebung. Dieses Spannungsfeld sei anstrengend, biete aber auch ein überaus interessantes Betätigungsfeld. Da-rüber hinaus wurden in diesem Vortrag die Vor-züge und Tücken einer konstruktivistischen Perspektive herausgearbeitet.

Die Plenarvorträge und die Ergebnisse der Arbeitsgruppen werden in Kürze von der VÖÖ in der Reihe „Beiträge und Berichte der Verei-nigung für Ökologische Ökonomie“ publiziert werden (http://www.voeoe.de). Was die Ta-gung sehr deutlich gemacht hat: Der „Quer-schnittscharakter“ des Leitbildes einer nachhal-tigen Entwicklung stellt nicht nur die Politik vor große Herausforderungen, sondern eben auch die Wissenschaft. Und ebenso wie der politische Bereich sind Forschung und Lehre durch die Nachhaltigkeitsdebatte mit Proble-men konfrontiert, die ihr Selbstverständnis auf fundamentale Weise berühren. Das Programm der „sozial-ökologischen Forschung“ des Bun-desforschungsministeriums ist hier ebenso zu nennen wie das Aufkommen neuer Paradigmen wie der Ökologischen Ökonomik. Die Not-wendigkeit, auch jenseits technischer Entwick-lung innovativ sein zu müssen, ist eine blei-bende Herausforderung für alle Anstrengungen im Hinblick auf Zukunftsfähigkeit. Dass die Wissenschaft hier wichtige Beiträge leisten kann, wenn sie sich auf inter- und transdis-ziplinäre Debatten einlässt, hat die Tagung auf beeindruckende Weise gezeigt.

« »

ANKÜNDIGUNGEN / EVENTS Adapting to Climate Change – Developing Local Strategies London, United Kingdom, December 2, 2004

This conference will address both likely impacts and adaptation responses, in the context of an integrated approach which includes local emis-sions mitigation responses under schemes such as the Nottingham Declaration on Climate Change. It takes place in the run-up to the Tenth Conference of the Parties to the UN Framework Convention on Climate Change in Buenos Aires in December 2004, which is set to focus for the first time primarily on adaptation measures.

Drawing upon contributions from a wide range of experts and practitioners, it will assess the threats and costs arising from climate chan-ge and their impacts, particularly in fluvial and coastal regions, urban areas, air quality man-agement areas, low-lying facilities such as toxic waste and nuclear sites presenting poten-tial health risks. Presentations will cover the implications for planning, insurance, invest-ment, sustainable construction and future pro-vision of emergency services, particularly in growth areas. Progress on improved local pre-diction, regional and local adaptation strategies will be reviewed, with a wide range of exam-ples of best practice presented.

The conference will be of interest to a wide range of stakeholders in climate change adapta-tion, particularly: regulatory bodies, regional partnerships, local authorities, planners, water, gas and electricity utilities, the nuclear and waste industry, insurers, lenders, lawyers, con-sultants, engineers, architects, the residential and commercial property sectors, the construction industry, the transport sector, the emergency services, academics, the tourism industry, amen-ity managers, and public health experts.

For more information go to: http://www.newzeye.com/conferences_education/conferences_display.cfm?item_ID=64or contact [email protected] phone +44 (0)20 8969 1008

«

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 143

Page 144: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ANKÜNDIGUNGEN / EVENTS

Konkrete Utopien der Arbeit (III) Mobilität und Mensch im Zei-chen flexibler Arbeitskulturen Ludwigshafen, 3. Dezember 2004

Gemeinsam lädt ein engagiertes Netzwerk* zur dritten Veranstaltung „Konkrete Utopien der Arbeit“ ein. In diesem Jahr trägt sie den Titel: „Mobilität und Mensch im Zeichen flexibler Arbeitskulturen“.

Wie werden wir morgen arbeiten? Wie flexibel müssen wir bleiben, um beschäfti-gungsfähig zu sein? Wie mobil gestaltet sich die zukünftige Arbeitswelt? Mit welchen An-forderungen wird der erwerbstätige Mensch konfrontiert? Ist er ein Objekt und ein Getrie-bener des technischen Fortschritts oder gelingt es ihm, endlich „die Geschicke selbst in die Hand zu nehmen“, wie es Karola Bloch einmal ausdrückte? – Die Referentinnen und Referen-ten der Tagung „Mobilität und Mensch im Zei-chen flexibler Arbeitskulturen“ geben erste Antworten. Die Positionen sind kontrovers und doch einem gemeinsamen Ziel verbunden: Frauen und Männer sollen mit Hilfe von Orien-tierungswissen einen leichteren (Wieder-)Ein-stieg in die Arbeitswelt erhalten.

Mit der Veranstaltung wird die Themen-reihe „Philosophie trifft Arbeitswelt – Arbeits-welt trifft Philosophie“ fortgesetzt. Ziel der Initiative ist es, einen kritischen Dialog zwi-schen Wissenschaft, Gewerkschaft, Wirtschaft, Forschung, Politik und Kultur über den Wandel der Arbeit auf dem Weg in die Informations- und Wissensgesellschaft anzustoßen.

„Die Philosophie hat uns in der Neuzeit die Frage nach der Arbeit, ineins die nach dem Sinn von Arbeit, als zentrale Frage unserer Selbstbe-stimmung präsentiert und zudem aufgezeigt, dass sie notwendig nur über die Gesellschaft zu beantworten sei. Der Sinn der Arbeit ist nur vom gesellschaftlichen Kontext ausgehend zu begrei-fen. Wandelt sich dieser, so verändert sich auch die Arbeit und verändert sich die Arbeitswelt, so entsteht gesellschaftlicher Wandel, denn wir bestimmen unsere gesamten Lebensbereiche vom Arbeitsplatz her. Globalisierung, Digitali-sierung und Rationalisierung sind Stichworte, die immer dann fallen, wenn es darum geht, die gegenwärtigen in kaum vorstellbarer Geschwin-digkeit sich vollziehenden Veränderungen der Arbeitswelt zu benennen. Aufgabe der philoso-

phischen Reflexion wäre es, das in den Wand-lungen entstehende gesellschaftliche Potenzial an seinen Möglichkeiten zu messen. Dabei sol-len insbesondere Prozesse der Ungleichzeitig-keit der Arbeitskulturen betrachtet und die Aus-gestaltung konkreter Utopien der Arbeit beför-dert werden. Im Zentrum steht dabei die gesell-schaftliche Emanzipation des Menschen im Umbruch der industriellen Erwerbsarbeit hin zu ‚Neuen Infrastrukturen der Arbeit‘ der IT-gestützten globalen Ökonomie.“ (Aus dem Vor-wort des Bloch-Jahrbuches 2003)

Der Eintritt ist frei. Es wird um eine frei-willige Eintrittsspende in Höhe von 5.00 € gebeten. * Gemeinsame Tagung des Ernst-Bloch-Zentrums

und der „Virtuellen Bloch-Akademie“ des Tal-heimer Verlages in Zusammenarbeit mit dem „Forum Soziale Technikgestaltung“, der Gewerk-schaft ver.di Landesbezirk Baden-Württemberg Abteilung Bildung und der Ernst-Bloch-Gesell-schaft e.V. – unterstützt von ZIRP Zukunftsinitia-tive Rheinland-Pfalz und der Stiftung Ernst-Bloch-Zentrum

Anmeldung Anmeldung erbeten über Mail an [email protected]

«

Greening of Policies – Inter-linkages and Policy Integration Berlin Conference on the Human Dimen-sions of Global Environmental Change

Berlin, Germany, December 3 - 4, 2004

The Environmental Policy and Global Change section of the German Political Science Asso-ciation (DVPW) and its partners will organise the 2004 Berlin Conference on the Human Dimensions of Global Environmental Change, to be held in Berlin on 3-4 December 2004. This year’s discussions will address the theme “Greening of Policies – Interlinkages and Policy Integration”. The 2004 Berlin Confer-ence has been endorsed by the International Human Dimensions Programme (IHDP) core projects “Institutional Dimensions of Global Environmental Change (IDGEC)” and “Indus-

Seite 144 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 145: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ANKÜNDIGUNGEN / EVENTS

trial Transformation” (IHDP-IT), and is or-ganised by the Environmental Policy Research Centre of the Freie Universität Berlin. Addi-tional support is provided by the Global Gov-ernance Project (glogov.org). The 2004 Berlin Conference on the Human Dimensions of Global Environmental Change is the fourth of its kind in Germany.

The Berlin Conferences aim at:

• establishing and developing a renowned institution for international exchange among social scientists dealing with Global Change

• supporting exchange especially with scien-tists from developing countries

• transferring international research agendas to Germany and Europe

• stimulating problem-oriented and interdis-ciplinary research by organising communi-cation between political science and its neighbour disciplines as well as between scientists and decision makers

• creating internationally recognised publica-tions.

The Policy Problem

Problems of Global and Regional Environ-mental Change are by their very nature sector-related problems. Insofar, their solution re-quires sector-integrated approaches of policy-making that abandon the parallel pursuit of contradictory policies. Thirty years of envi-ronmental policy-making at the national and international level reveal, however, striking problems to establish interlinkages that lead to an integration of regimes and joined-up policy-making, both horizontally on each level of political decision-making and vertically be-tween the different layers of the multi-level system of international governance.

One crucial factor in explaining this path of development is the traditional organization model of bureaucracy that is based upon spe-cialization and division of work. It has proven to be successful in a number of ways. It fails, however, in addressing the needs of cross-cutting problems such as environmental protec-tion. The challenge, both at the national and international level, is to establish institutional provisions that allow actors to pursue a more

coordinated approach. Special attention has to be paid to mutual interaction between regimes and policies on the international and national level, such as trade and environment.

The conference should bring about a stock-taking of both the institutional basis of policy integration on the different levels of policy mak-ing as well as an improvement of the knowledge basis for a furthering of integration.

Core Questions

Given the obstacles for a more far reaching consideration of environmental concerns in sectoral policy making processes on both the national and the international level there is a need for an analysis of instruments and strate-gies, and the institutional setting in which they are implemented. Which approaches have pro-ven to be successful, what are the impedi-ments? Against this background contributions will particularly deal with the following issues: 1.

2.

Analysis of policy integration in practice: What kinds of institutions are successful in strengthening policy integration? Which ac-tors, which instruments and strategies were the driving forces of a greening of policies? We are interested in case studies from dif-ferent policy fields and from different levels of policy making. What are the implications of policy integration for environmental pol-icy? Is there evidence for a diluting of envi-ronmental concerns by building up an over-complexity of integration requirements and a loss of advantages gained by specializa-tion? What is the role of law in codifying integration requirements? In how far are major trends, e.g. economic and political globalization, from government to govern-ance, from environmental protection to sus-tainable development affecting integration efforts? Instruments and knowledge basis for policy integration: What methods are available or currently under development that allow for an ex ante evaluation of the effects of poli-cies on the different dimensions of sustain-ability? What indicators are available that allow an assessment in how far a policies are integrated? What experiences are avail-able in integrating the different domains of knowledge for such an assessment?

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 145

Page 146: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ANKÜNDIGUNGEN / EVENTS

3. Multi-level aspects: To what extent are inter-national regimes affecting the capacities at the national level for a greening of policies and vice versa? What efforts have been un-dertaken to ensure also a vertical integration among the different levels of policy making? In how far are impacts in other countries considered in approaches of policy integra-tion, in particular in respect of developing countries? What mechanisms proved to be successful in ensuring the coherence of the different international regimes, in particular between environmental and trade regimes?

Special panel Teaching

This years Berlin Conference will host a spe-cial panel on academic environmental teaching programs. Complex environmental problems as climate change, loss in biodiversity, ground water pollution, degradation of soil caused by human activities ranging from global to local level challenge academia in many respects.

To tackle these problems an interdiscipli-nary perspective are required.

Hence academic training has to adapt new forms of systematic interdisciplinary coopera-tion. Professional training needs to integrate elements such as interdisciplinary communica-tion, methods of problem-oriented approaches and teambuilding. Moreover the ground has to be paved for communication between academia and non-university experts and practitioners from the state, industry and non-government organisations. How can academic programs respond to these challenges? The papers in this section will present experiences in teaching environmental sciences.

Contact Daniel Pentzlin Manager, 2004 Berlin Conference Environmental Policy Research Centre Tel.: +49 (0) 30 / 838 - 570 31 Fax: +49 (0) 30 / 838 - 566 85 E-Mail: [email protected] Website: http://www.fu-berlin.de/ffu/ akumwelt/bc2004/

»

Nachhaltiges Wirtschaften 2010: Towards A Balanced Economy Berlin, 16. - 17. Dezember 2004

Das Deutsche Kompetenzzentrum für Nachhal-tiges Wirtschaften (dknw) an der Universität Witten/Herdecke, gefördert durch die Deutsche Bundesstiftung Umwelt, veranstaltet am 16. und 17. Dezember 2004 unter der Schirmherrschaft des Bundesumweltministeriums den Kongress „Nachhaltiges Wirtschaften 2010“ mit dem Trendsetting-Forum „Nachhaltigkeit für alle“.

Als Referenten konnten hochrangige Ex-perten und Persönlichkeiten aus Politik, Ver-bänden, Wissenschaft und Unternehmenspraxis gewonnen werden.

Am ersten Tag des Kongresses lädt das dknw dazu ein, aufbauend auf Impulsreferaten die Zukunft Nachhaltigen Wirtschaftens zu diskutieren. Themen sind u.a. aktuelle Frage-stellungen wie Klimaschutz und Emissions-handel, Kommunikation von Nachhaltigkeit und die Umsetzung Nachhaltigen Wirtschaf-tens in der Unternehmenspraxis.

Am zweiten Tag des Kongresses bietet das Trendsetting-Forum „Nachhaltigkeit für alle“ die Möglichkeit, im Rahmen von Workshops aktuelle Themenstellungen des Nachhaltigen Wirtschaftens zusammen mit Fachexperten zu diskutieren.

Eine kongressbegleitende Posterausstel-lung informiert über Arbeiten und Projekte, die am dknw bearbeitet werden bzw. wurden.

Anmeldung Deutsches Kompetenzzentrum für Nachhaltiges Wirtschaften (dknw) Wirtschaftsfakultät, Universität Witten/Herdecke Alfred-Herrhausen-Straße 50, 58448 Witten Tel.: +49 (0) 23 02 / 926 - 505 Fax: +49 (0) 23 02 / 926 - 539 E-Mail: [email protected]: http://www.nachhaltigeswirtschaften2010.de

«

Seite 146 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 147: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ANKÜNDIGUNGEN / EVENTS

Climate Change Risks & Oppor-tunities: Learning from the Leaders New York, USA, January 13 - 14, 2005

Conference Objectives

The leading conference objectives are:

- to bring the leaders of the corporate, financial and legal sectors together with some of the world’s foremost experts on climate change policy to discuss the legal and practical im-plications of the problem for U.S. businesses;

- to consider the experience of the major companies that have taken early action to reduce greenhouse gas emissions; and

- to discuss pragmatic steps companies can take to develop an effective and profitable strategy for contributing to climate change mitigation.

Conference Agenda

The conference will run from 12:30 pm on Thursday, January 13th through 5:30 pm on Friday, January 14th, 2005.

The conference will be divided into three blocks:

- Session 1: Expert Briefings on the scientific basis for climate change mitigation and emerging policy frameworks;

- Session 2: Corporate Spotlight on the busi-ness case for action on climate change and how leading companies have responded;

- Session 3: Interactive Workshops with in-dustry leaders and policymakers to assist companies with integrating climate change into their strategic planning.

Who Should Attend

• Companies interested in addressing climate change risks & opportunities in a strategic way, based on practical experiences;

• Corporate legal and management advisors, who need to integrate climate change con-siderations into their advisory services;

• Regulators who want to learn about corpo-rate best practice and innovative approaches of leading companies;

• Anyone wanting to remain updated on the latest climate policy development in the USA.

Contact

Robyn Stewart Center for Economic and Environmental Partner-ship, Inc. New York Tel.: +1 518 432 6400 E-Mail: [email protected]

«

Europapolitischer Workshop Vorsorgende Chemikalienpolitik in der erweiterten EU: Wie viel Fortschritt bringt die REACh-Verordnung?

Loccum, 21. - 23. Januar 2005

Mit der Implementierung des REACh-Verfah-rens (Registration, Evaluation and Authorisation of Chemicals) will die EU-Kommission dafür sorgen, dass in Zukunft alle Chemikalien vor ihrer Markteinführung registriert, evaluiert und besonders gefährliche Substanzen nur noch für bestimmte Anwendungen zugelassen werden. Auch die bereits auf dem Markt befindlichen rund 30.000 Altstoffe sollen nach und nach ent-sprechenden Prüfungen unterzogen werden.

Wie aber kann es gelingen, REACh als ein hinreichend flexibles, lernendes System zu etab-lieren, das so effektiv wie möglich der Errei-chung der erklärten politischen Ziele der EU auf dem Feld der Gesundheits- und Umweltpolitik dient und zu diesem Zweck auch den bestehen-den Informationsrechten bzw. Partizipationsinte-ressen der Bevölkerung (insbesondere als Kon-sumenten von Erzeugnissen der chemischen Industrie) gerecht wird, ohne dabei inakzeptable Beeinträchtigungen der Wettbewerbsfähigkeit europäischer Chemikalienproduzenten im EU-überschreitenden Handel in Kauf zu nehmen?

Dies ist die Frage, auf die im Dialog mit politischen Entscheidungsträgern und ausge-suchten Fachleuten auf dem Workshop Ant-worten gesucht werden sollen.

Der Workshop wird gefördert durch die Deutsche Bundesstiftung Umwelt (BDU) in Zusammenarbeit mit dem Lehrstuhl für Pro-duktionswirtschaft und Umwelt der Universität Oldenburg und mit dem Arbeitskreis Umwelt-chemikalien/Toxikologie im BUND e.V.

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 147

Page 148: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ANKÜNDIGUNGEN / EVENTS

Anmeldung Evangelische Akademie Loccum Postfach 2158, 31545 Rehburg-Loccum Tel.: +49 (0) 57 66 / 81-0 Fax: +49 (0) 57 66 / 81-9 00 Internet: http://www.loccum.de

»

ENTER 2005 12th International Conference on infor-mation Technology and Travel & Tourism Innsbruck, Austria, January 26 - 28, 2005

Now in its twelfth year, ENTER is the ONLY travel and tourism e-business conference that successfully brings together top ranking practi-tioners, researchers, destination managers and consultants to debate all aspects of e-business in Travel and Tourism.

The theme for 2005 is “E-business is here – What’s Next?”, reflecting the tremendous impact of new technologies on the travel and tourism sector. Delegates will be able to “look behind the curtain” and discuss and debate new developments and new business practices that are being or about to be implemented by lead-ing businesses and destinations worldwide.

Regularly attracting over 400 international delegates, the ENTER series of conferences are well known for their lively debates, leading-edge research and, most importantly, for the opportunity they provide for delegates to ex-change information and experiences in what is still a brave new world of tourism e-business. The involvement of leading academics and researchers has always been an integral feature of ENTER conferences and the 2005 event will be no exception. An extensive research track is planned which will complement the highly-focused business sessions.

The conference is organised by ifitt – the International Federation for IT and Travel & Tourism (http://www.ifitt.org).

Registration and Hotel Accommodation PCO Tyrol Congress – Congress Innsbruck GmbH Rennweg 3, A-6020 Innsbruck, Austria Tel.: +43 - 512 - 57 56 00 Fax: +43 - 512 - 57 56 07 E-Mail: [email protected]: http://www.pco-tyrolcongress.at

»

Informatisierung der Arbeit – Gesellschaft im Umbruch Darmstadt, 27. - 28. Januar 2005

Ziel der Tagung

Dass digitale Informations- und Kommunikati-onstechnologien heute enorme Auswirkungen auf Wirtschaft und Gesellschaft haben, ist un-bestritten. Das gilt speziell für die Arbeitswelt, die einem Strukturwandel im globalen Maßstab unterworfen ist: Produktions- und Verwer-tungsketten werden neu zusammengesetzt; neue Medien schaffen neue Möglichkeiten der globalen Steuerung und Kontrolle von Arbeits- und Produktionsprozessen; mit dem Internet entsteht ein global verfügbarer Informations-raum, der dem arbeitenden Subjekt als virtuel-ler sozialer Handlungsraum gegenübertritt.

Wie lässt sich diese informatisierte Ar-beitswelt begreifen, erklären und gestalten? Diese Frage stellt sich gleichermaßen Wissen-schaftlerInnen wie den Akteuren der Arbeits-welt. Traditionelle Erklärungsmuster und Ge-staltungsmittel, die für die Analyse der fordisti-schen Industriegesellschaft entwickelt wurden, sind heute sicherlich in manchen Punkten nicht mehr angemessen. Aber worin besteht denn tatsächlich das Neue informatisierter Arbeit? Das Ziel dieser Tagung ist es, den Fragen nachzugehen, die für das Verständnis und die Gestaltung der modernen Arbeitswelt von Be-deutung sind:

• In welchem Verhältnis stehen Informatisie-rung und Industrialisierung?

• Was kennzeichnet die neuen Organisations-formen der Arbeit und welche Chancen und Risiken bergen sie?

• Was sind die prägenden Merkmale der “neuen Technologien”? Welche Trends in der informationstechnischen Entwicklung zeichnen sich ab?

• Welche Folgen hat die informatisierte Ar-beitswelt für das Subjekt und seine Lebens-welt?

• Welche Folgen für soziale Gerechtigkeit und Bildung zeichnen sich ab? Welche An-forderungen entstehen insbesondere an die betriebliche Aus- und Weiterbildung?

• Wie entwickelt sich die internationale Ar-beitsteilung und welche Gestaltungsnotwen-digkeiten ergeben sich in Zukunft daraus?

Seite 148 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 149: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ANKÜNDIGUNGEN / EVENTS

Die Tagung richtet sich an WissenschaftlerInnen aus allen Disziplinen, die sich mit dem Wandel von Arbeit und Gesellschaft befassen – und zugleich an betriebliche Akteure, die den Pro-zess der Informatisierung mitgestalten, sowie an VertreterInnen aus Verbänden und Gewerk-schaften. Wir wollen aufmerksam machen auf Gefahren und Chancen dieser Entwicklung und uns auf die Suche begeben nach neuen Erklä-rungs- und Lösungsansätzen, die den Wandel verständlich und die Zukunft gestaltbar machen.

Die Tagung findet statt im Rahmen des Forschungsvorhabens „Kooperationsnetz pro-spektive Arbeitsforschung“ (KoprA) – gefördert mit Mitteln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 01HN0122 und betreut vom Projektträger „DLR – Innovative Arbeitsgestaltung und Dienstleis-tungen“ im Rahmenkonzept „Innovative Ar-beitsgestaltung – Zukunft der Arbeit“.

Tagungsablauf

Nach einer Einführung in die Tagung sind die folgenden vier Themenblöcke vorgesehen:

1. 2.

3.

4.

Die Praxis der Informatisierung Informatisierung – Industrialisierung – Sub-jekt (Diskussionsforen – parallel in zwei Staffeln) Informatisierung in gesellschaftstheoreti-scher Perspektive Informatisierung der Arbeit – Gesellschaft im Umbruch (Podiumsdiskussion mit hoch-rangigen Vertretern von IG Metall und ver.di sowie aus Politik, Wirtschaft und Wissenschaft)

Anmeldung

Anmeldung per Fax oder E-Mail erbeten an: Kooperationsstelle Wissenschaft und Arbeitswelt Rheinstr. 50, 64289 Darmstadt Tel.: +49 (0) 61 51 / 30 73 16 Fax: +49 (0) 61 51 / 30 73 22 E-Mail: [email protected]

Ein Anmeldeformular steht zur Verfügung unter http://www.informatisierung-der-arbeit.de

Aktuelle Informationen finden Sie im Internet: http://www.informatisierung-der-arbeit.de

»

Call for papers DGS-Sektion Wissenschafts- und Techniksoziologie

Pervasive Computing – Totale Vernetzung Visionen eines neuen Verhältnisses von Technik und Gesellschaft Dortmund, 22. - 23. April 2005

Unter Pervasive Computing (PvC) und – nahe-zu synonym dazu „Ubiquitous Computing“ (UC) – werden Visionen der Durchdringung von Lebenswelt und gesellschaftlichen Struktu-ren durch miniaturisierte, drahtlos miteinander vernetzte Rechner subsumiert. Während Groß-rechner nur von wenigen Experten benutzt wurden und der PC nach dem Konzept „one man, one computer“ funktioniert, sollen in Zukunft Rechner die Dinge in „smarte“ Arte-fakte verwandeln, um so Handlungsabläufe zu informatisieren. Protagonisten eines PvC/UC wie z. B. Mark Weiser antizipieren damit ver-knüpfte neue Formen der Bedürfnisbefriedi-gung („intelligente“ Kleidung „kommuniziert“ bei Eintritt in das „smart home“ mit der ver-netzten Haustechnik und regelt nach individu-ellen Nutzerprofilen Heizung, Licht, Unterhal-tungselektronik, E-Mail-Abruf etc.) und der Rationalisierung („smart labels“ ermöglichen das Scannen von Waren, Gepäck oder Men-schen schnell und berührungslos).

Allerdings sind noch viele technische Probleme von der Energieversorgung bis zur funktionierenden Vernetzung ungelöst, die Frage nach der Nützlichkeit und sozialen Ak-zeptanz von Anwendung bleibt ungeklärt; und eine Diskussion um PvC/UC und Fragen der informationellen Selbstbestimmung, des Da-tenschutzes oder der Risiken komplexer ver-netzter Systeme, die reale physische Vorgänge automatisiert steuern, hat erst begonnen.

Die einzureichenden Papers sollten mög-lichst einem der folgenden Gliederungspunkte zuzuordnen sein: • Die Genese der PvC-Vision: Von der Idee

Mark Weisers bis zu aktuellen Konzepten ökonomischer Nutzung

• PvC: technische Möglichkeiten und Restrik-tionen

• Anwendungsfelder des PvC (Verkehr, Haus, Unterhaltung, Dienstleistung, Produktion etc.)

• PvC als Gegenstand der TA

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 149

Page 150: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ANKÜNDIGUNGEN / EVENTS

• PvC: ein technisches Mittel zur Lösung so-zialer Probleme?

• PvC als riskante Technik: automatisierte Komplexität als Problem

• PvC, „Agency“ und verteiltes Handeln • Der PvC-Diskurs oder die Frage danach, wie

Vision und „Wirklichkeit“ voneinander ge-schieden werden können.

Einsendeschluss für Abstracts (max. 1 Seite) ist der 15. Januar 2005.

Kontakt Dr. Stephan Cramer Universität Dortmund WiSo-Fakultät 44221 Dortmund Tel.: +49 (0) 231 / 755 - 37 17 E-Mail: [email protected]

«

NanoBusiness 2005

New York, USA, May 23 - 25, 2005

The NanoBusiness Alliance*, in conjunction with Penton Media, announces the 4th annual NanoBusiness 2005, to be held May 23, 24, and 25, 2005 at the New York Marriott Finan-cial Center Hotel in New York City.

NanoBusiness 2005 is Nanotechnology’s foremost business conference, intended for key stakeholders in the business of small technol-ogy, and will once again gather hundreds of scientists, engineers, business leaders and in-vestors for three intensive days of seminars, presentations, keynotes and networking events.

NanoBusiness 2005 is designed to provide the information required to move research and application development to commercialization, as well as to showcase the ongoing integration of small tech products into the global economy.

Whether you are a scientist, engineer, business executive or investor, NanoBusiness 2005 is your very best opportunity to learn about the latest applications, opportunities, breakthroughs, challenges and issues within the rapidly evolving world of nanotechnology. This is the only event that brings together so many of the industry’s luminaries and stake-holders. It is the premiere nano education, in-formation and networking event in 2005.

Contact

Vincent Caprio Event Director Tel: +1 – 203 - 559 - 28 11 E-Mail: mailto:[email protected]

Further information on the conference is available at: http://www.nanoevent.com

* About The NanoBusiness Alliance

The NanoBusiness Alliance is the first industry association founded to advance the emerging business of nanotechnology. The NanoBusiness Alliance creates a collective voice for the emerging small tech industry and is developing a range of initiatives to support and strengthen the nanotechnology business community, in-cluding research and education, public policy and awareness, public relations and promo-tion, networking, industry support and mentor-ing programs.

The Alliance was founded by F. Mark Modzelewski, Nathan Tinker and Josh Wolfe of Lux Capital in 2001. The Advisory Board of the Alliance is headed by the leaders of the nanotechnology community and is headed by former House Speaker Newt Gingrich, famed venture capitalist Steve Jurvetson of Draper Fisher Jurvetson, and Herb Goronkin, the noted nanotechnology visionary who recently retired Motorola.

For more information about the Nano-Business Alliance, please visit: http://www.nanobusiness.org

»

Erstankündigung TA’5: Technikfolgenabschät-zung und Politik – Rückblick in die Zukunft 5. österreichische TA-Konferenz Wien, Österreich, 30. Mai 2005

Als Termin für die nächste große TA-Konfe-renz des Instituts für Technikfolgen-Abschät-zung der Österreichischen Akademie der Wis-senschaften ist der 30. Mai 2005 vorgesehen. Interessenten werden gebeten, sich diesen Termin vorzumerken.

Seite 150 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 151: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ANKÜNDIGUNGEN / EVENTS

Die Website wird sein: http://www.oeaw.ac.at/ita/ta05/

Kontakt Univ.-Doz. Dr. Michael Nentwich Institut für Technikfolgen-Abschätzung Österreichische Akademie der Wissenschaften Strohgasse 45/5, A-1030 Wien Tel.: +43 - 1 - 515 81 65 83 Fax. +43 - 1 - 710 89 83 Internet: http://www.oeaw.ac.at/ita; http://eiop.or.at/mn/

»

Call for papers / 1st Bi-annual European Conference ICT, the Knowledge Society and Changes in Work The Hague, The Netherlands, June 9-10, 2005

The 1st Bi-annual European Conference on ICT, the Knowledge Society and Changes in Work will be held in The Hague, The Netherlands, 9 & 10 June 2005. The conference is organized by SISWO / Social Policy Research in close co-operation with (and funded by) NWO-MES / The Dutch “Society and the Electronic High-way” research funding programme and the Dutch Cultural Planning Office (SCP).

Conference theme

Changes in ICT and work offer the framework for the conference. First and foremost among those changes is the emergence of the informa-tion society, in which production and employ-ment are increasingly geared to the develop-ment of information and the creation of knowl-edge. Secondly there is the growing importance of ICT-tools at the workplace. As a conse-quence, the work process and the organization of work are also undergoing major changes. Of course, not only does ICT have an impact on work, but also the other way around: social forces (the social dialogue, institutional shap-ing, transitional labour markets) influence technological developments. The relationship between ICT and work is reciprocal.

The focus of the conference is on the im-pact of ICT and the knowledge society on work, the quality of work and new forms of

work organization (networks, virtual teams). Special attention will be paid to the develop-ment of skill and competencies, the role of institutions, social actors and regulation and on new groups at risk (see also the preliminary programme and the subthemes).

Call for papers

Participants are invited to send their abstract (at least three A4-pages) to one of the convenors of the five thematic workshops, listed here below, before January 17th 2005. Information about acceptance will be send before March 1, 2005.

Thematic Workshops

- ICT and skill change: opening the black box? Convenor: Bram Steijn (E-Mail: [email protected])

- Virtual teams and virtual organizations Convenor: Erik Andriessen (E-Mail: [email protected])

- ICT, work and social inequality Convenor: Jos de Haan (E-Mail: [email protected])

- ICT and Public Sector Reform Convenor: Willem Trommel (E-Mail: [email protected])

- ICT and Globalization Convenor: Monique Ramioul (E-Mail: [email protected])

For further information and Registration please contact Drs. Otto Nuys SISWO/Social Policy Research Plantage Muidergracht 4, NL-1018 TV Amsterdam, The Netherlands Phone: +31 - 20 - 527 06 21 Fax: +31 - 20 - 622 94 30 E-Mail: [email protected] website: http://www.nwo.nl/nwohome.nsf/pages/NWOP_64PB8P

« »

Ausführlichere Informationen zu diesen Veran-staltungen sowie Hinweise zu weiteren Tagun-gen sind dem ständig aktualisierten “Konferenz-kalender” auf dem ITAS-Server zu entnehmen (http://www.itas.fzk.de/veranstaltung/inhalt.htm)

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 151

Page 152: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ITAS-NEWS

ITAS-NEWS

„Technik in einer fragilen Welt – Perspektiven der Technik-folgenabschätzung“ Bericht über die erste Konferenz des „Netzwerks TA“ (NTA1)

1 Hintergrund

Seit einiger Zeit laufen Bemühungen zu einer besseren Vernetzung und Selbstorganisation der Technikfolgenabschätzung (TA) in ihren verschiedenen Orientierungen, institutionellen Implementierungen, methodischen Orientie-rungen und fachlichen Schwerpunkten. Vor diesem Hintergrund ist der Aufruf zur Grün-dung eines „Netzwerks TA“ vom Mai dieses Jahres von Alfons Bora (Universität Bielefeld), Armin Grunwald (ITAS/TAB) und Ortwin Renn (Universität Stuttgart) zu sehen, der un-terstützt durch eine Reihe von Kolleginnen und Kollegen am 24.11.2004 zur Gründung des „Netzwerk TA“ führte. Im Anschluss fand die Konferenz „Technik in einer fragilen Welt – Perspektiven der Technikfolgenabschätzung“ statt, die erste Konferenz des „Netzwerks TA“ (NTA1). Sie wurde veranstaltet von den oben genannten Einrichtungen, unterstützt vom BMBF, und fand statt im neuen Glashaus des Botanischen Gartens in Berlin-Steglitz.

TA-Konferenzen in Deutschland (und da-rüber hinaus) fanden bislang nur zu speziellen Themen oder Ereignissen und insgesamt eher selten statt (mit Ausnahme der 2005 bereits im fünften Jahr stattfindenden österreichischen TA-Tagungen). Beispiele sind das TA-Kolloquium in Bonn anlässlich des 65. Geburtstages von Herbert Paschen 1998 (Petermann, Coenen 1999) und der e-Society-Kongress in Berlin 2001 (Banse, Grunwald, Rader 2002). Auf europäischer Ebene versandete der Ansatz ei-ner Konferenzserie „European Congress on Technology Assessment“ (ECTA) nach der dritten Veranstaltung 1992. Die TA-Commu-nity hat bislang keine regelmäßig stattfindende Form des Austauschs in Bezug auf Forschung und Beratungspraxis ausgebildet (ganz im Ge-

gensatz z. B. zum Health Technology Assess-ment (HTA) mit regelmäßigen internationalen Konferenzen). Diese, der internen Kommuni-kation und der externen Sichtbarkeit entgegen stehende Situation soll durch das „Netzwerk TA“, das auch selbst Konferenzen organisieren wird, behoben werden. In diesem Sinne ist die Konferenz „Technik in einer fragilen Welt – Perspektiven der Technikfolgenabschätzung“ als Auftakt einer Reihe gedacht.

2 Zum Konferenzthema

Die Welt wird heute als hoch differenziert, aber auch als fragil und zerbrechlich wahrgenommen (Stehr 2003). Zu den wesentlichen Gründen gehören die ökonomische Globalisierung, die Auflösung kultureller Traditionen, das Denken in Netzwerken statt in Hierarchien und die He-rausforderung des menschlichen Selbstverständ-nisses durch die Lebenswissenschaften. Wissen-schaft und Technik haben an diesen Entwick-lungen einen erheblichen Anteil. So sind die modernen Informations- und Kommunikations-techniken eine unverzichtbare Begleiterschei-nung der Globalisierung. Vernetzte, dezentrale und „kleine“ Technologien bilden die Speerspit-ze der technischen Innovationen. Ihr Netzwerk-charakter steigert Komplexität und Unvorher-sehbarkeit „systemischer“ Effekte. Neue Fragen an das Selbstverständnis des Menschen kommen aus aktuellen Entwicklungen in Bio-, Gen-, Nano- und Medizintechnik wie auch aus der Hirnforschung. Wissenschaft und Technik brin-gen bislang ungeahnte neue Möglichkeiten her-vor, machen die moderne Gesellschaft aber auch verletzlich und angreifbar.

Diese Fragilität der heutigen Welt ist ei-nerseits die Folge wissenschaftlich-technischer und damit verbundener sozialer Innovationen. Andererseits stellt sie eine wesentliche Rand-bedingung für die Gestaltung der Technik für die Welt von morgen dar. Aus diesen Gründen kommt der Analyse von Innovationsprozessen und der Erarbeitung und Bewertung von Hand-lungsoptionen für Politik und Gesellschaft eine weiter wachsende Bedeutung zu, um Felder des wünschenswerten wissenschaftlich-technischen Fortschritts zu identifizieren. Angesichts vieler Diskussionen um neue Formen politischer Go-vernance in der „fragilen Welt“ steigen die

Seite 152 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 153: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ITAS-NEWS

Erwartungen an Technikfolgenabschätzung und benachbarte Felder, durch Politikberatung und Begleitung gesellschaftlicher Diskurse zur Meinungsbildung und Entscheidungsfindung in Zukunftsfragen aktiv beizutragen.

Auf der Konferenz wurden diese thesenar-tigen Diagnosen durch Analyse der geschilder-ten Entwicklungen und der Rollen und Folgen des wissenschaftlich-technischen Fortschritts genauer unter die Lupe genommen. Es wurden, vielfach basierend auf Erkenntnissen aus TA-Projekten, Strategien der Technikgestaltung unter den Rahmenbedingungen der „fragilen Welt“ aufgezeigt.

3 Die Konferenz

Die Konferenz begann mit einer öffentlichen Podiumsdiskussion zum Thema „Neuer schöner Mensch? Möglichkeiten und Grenzen der Men-schengestaltung durch Gentechnik und Künstli-che Intelligenz“ am Abend des 24. November 2004. Das Eröffnungsplenum am 25.11. war der Nachfrageseite nach TA gewidmet. Daran schloss sich der wissenschaftliche Teil der Kon-ferenz in drei Parallelsektionen mit insgesamt über 30 Vorträgen an, die auf der Basis eines Call for Papers und eines anschließenden Begut-achtungsverfahrens ausgewählt worden waren:

1.

2.

3.

Fragilität des Individuums: die Herausforde-rungen der „life sciences“ und der „life technologies“ für die Identität des Men-schen. Inwieweit wird der Begriff der menschlichen Person selbst fragil, was be-deutet dies für die Gesellschaft und wie kann darauf reagiert werden? Fragilität der Gesellschaft: auf welche Weise führt Technik direkt oder indirekt zu neuarti-gen gesellschaftlichen Gefährdungen und steigert die Verletzlichkeit der Gesellschaft? Wie lassen sich frühzeitig Risiken abschät-zen und Gegenmaßnahmen ergreifen? Technikgestaltung in einer fragilen Welt: auf welche Weise beeinflusst die Diagnose einer fragilen Welt die Möglichkeiten der Technikreflexion und der Technikgestaltung heute? Wie ändern sich Risikokommunika-tion, das Verhältnis zu Wissenschaft und Technik sowie technikbezogene Entschei-dungsprozesse?

Am Abend des 25.11. fand eine Postersession mit insgesamt 16 Teilnehmern statt, in der vor allem der wissenschaftliche Nachwuchs in der TA die Gelegenheit zur Darstellung eigener Forschungsergebnisse hatte. Den Abschluss bildete am Freitag wiederum ein Plenum, in dem der Bogen zurück zum „Netzwerk TA“ und seinen zukünftigen Aktivitäten gespannt wurde.

Die Bedeutung der TA für die Politik ver-deutlichten die Vorträge von Staatssekretär Wolf-Michael Catenhusen (BMBF), der die Netzwerkgründung begrüßte und dem „Netz-werk TA“ seine Unterstützung zusagte, und Dr. Gerhard Schmid (bis vor kurzem Vizepräsident des Europäischen Parlamentes), der über die Erfahrungen am Europäischen Parlament mit TA berichtete, sowie die Beteiligung von Frau Ulrike Flach (Vorsitzende des Ausschusses für Bildung, Forschung und Technikfolgenab-schätzung des Deutschen Bundestages) an der Podiumsdiskussion. Der Direktor des VDI, Dr. Willi Fuchs, riet dazu, stärker die Wirtschaft einzubeziehen. Dr. Matthias Weber (ARC sys-tems research, Österreich) analysierte Verände-rungen der Technologiepolitik im Hinblick auf die Konsequenzen für TA.

Zur Konferenz ist eine Buchpublikation bereits in Vorbereitung, die 2005 in der ITAS-Buchreihe „Gesellschaft – Technik – Umwelt“ bei der edition sigma erscheinen wird.

4 Resonanz und Deutung

Die Resonanz auf die Ankündigung der Konfe-renz übertraf die kühnsten Erwartungen. Be-reits der Call for Papers führte zu einer uner-wartet hohen Zahl an Einreichungen, so dass trotz der Nutzung der maximal möglichen Zahl von drei Parallelsektionen über je zwei Halbta-ge hinweg nur ein Teil der Einreichungen – nach einem Begutachtungsverfahren – ange-nommen werden konnte.

Analog verhielt es sich mit dem Teilneh-merkreis. War zunächst die Veranstaltung or-ganisatorisch auf ca. 80 Personen konzipiert, so nahmen mit ca. 150 Teilnehmern dann fast doppelt so viele teil (was auch, das sei nicht verschwiegen, zu einigen räumlichen und kuli-narischen „Engpässen“ führte). Diesem in Zah-len ausgedrückten Interesse entsprach eine hoch motivierte Stimmung der Teilnehmer, die

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 153

Page 154: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ITAS-NEWS

von der Netzwerkgründung bis zum Ab-schlussplenum durchhielt.

In den Reaktionen vieler Teilnehmer wur-de häufig die große Zahl der anwesenden jün-geren Kolleginnen und Kollegen als bemer-kenswert erwähnt. Auch die Vielfalt der kon-zeptionellen und methodischen Ansätze und die hohe Bereitschaft zum gegenseitigen Zuhö-ren wurden als nicht selbstverständlich gewür-digt. Mehrfach wurde die Meinung geäußert, dass mit dieser Konferenz „TA“ erheblich an Fahrt gewinnen werde.

„Altlasten“ der TA-Diskussion wie Fragen „TA oder Technikgeneseforschung?“, „Chan-cen- oder Risikoorientierung“, „TA als Politik- oder Wirtschaftsberatung?“, „Praktische Ethik oder Sozialforschung“ wurden zwar gelegent-lich diskutiert, aber ohne die entzweiende Wir-kung früherer Tage zu entfalten. Der Wunsch und die Bereitschaft, mit dem „Netzwerk TA“ an einem gemeinsamen Dach zu arbeiten, unter dem sich alle Ansätze der technologiebezoge-nen und auf wissenschaftliche (Gesellschafts-, Wirtschafts- und Politik-)Beratung angelegten Forschung zusammenfinden können, waren deutlich stärker als alle Abgrenzungstendenzen.

5 Perspektiven

So erfolgreich und motivierend Netzwerkgrün-dung und Konferenz verliefen, so stehen die „Mühen der Ebene“ erst noch an. Es gilt, den gesetzten Impuls zu nutzen, um daraus eine dauerhafte Stärkung von TA und verwandten Aktivitäten zu gewinnen.

Das „Netzwerk TA“ wird von einer Reihe engagierter Kolleginnen und Kollegen in Kürze mit einer erforderlichen Mindestinfrastruktur versehen. Hierzu gehören möglichst rasch der Aufbau eines Internetportals und die Etablie-rung einer Mailing-List. Eine weitere Arbeits-form des Netzwerks werden thematische Ar-beitskreise darstellen. Weiterhin gibt es bereits Überlegungen zu Netzwerk-Workshops und zu einer nächsten Konferenz.

Die Integration so heterogener Forschungs-richtungen wie Praktische Ethik, Systemanaly-se, sozialwissenschaftliche Wissenschafts- und Technikforschung, Innovationsforschung, Risi-koforschung, Innovations- und Technikanalyse, der Governance-Forschung und weiterer Felder

unter dem Dach des „Netzwerks TA“ wird dann erfolgreich sein, wenn es gelingt

a) trotz dieser Diversität gegenseitige An-knüpfungspunkte und Gemeinsamkeiten zu finden, und wenn

b) die Diversität als Quelle der gegenseitigen Inspiration und der Kooperation gesehen wird.

Hierfür stehen die Chancen nach der Konferenz „Technik in einer fragilen Welt – Perspektiven der Technikfolgenabschätzung“ ausgezeichnet.

Literatur

Petermann, Th.; Coenen, R. (Hrsg.), 1999: Technik-folgen-Abschätzung in Deutschland – Bilanz und Perspektiven. Frankfurt u. a.: Campus (Veröffentli-chungen des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS), Bd. 6) Banse, G.; Grunwald, A.; Rader, M. (Hrsg.), 2002: Innovations for an e-Society. Challenges for Tech-nology Assessment. Berlin: edition sigma (Gesell-schaft – Technik – Umwelt, Neue Folge 2) Stehr, N., 2003: Die Zerbrechlichkeit der Gesell-schaft. Frankfurt a. M.: Suhrkamp

(Armin Grunwald, Michael Decker und Ulrich Riehm)

«

New EU Project: The Institutionalisation of Eth-ics in Science Policy; practices and impact (INES)

Debates on technological developments touch fundamental ethical considerations and uncover wide mistrust in public authorities and scientific establishments. Policy makers have reacted by incorporating ethics into the decision making processes of S&T policy. Different nations have different ways of doing this, ranging from advi-sory expert committees to open debates with relevant stakeholders. The form and method in which ethics is incorporated in S&T varies greatly throughout Europe and its actual impact in decision making is still unclear.

Seite 154 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 155: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ITAS-NEWS

INES brings together a group of European experts in the area of S&T ethics and the rele-vant policy making community, to analyse comparatively the manner by which ethics is incorporated into the official decision making structures. The analysis is done in terms of representations of the “ethical problem”; un-derstanding of the concepts “ethics vs moral-ity”, “ethics vs bioethics”; the notion of ethical “expert”; and consideration of lay values in the decision making process.

Informed by public perceptions research on “ethics” and paying particular attention to gender differences, the project will explore case studies presenting particular challenges for the incorporation of ethics in decision making (medical genetics, genetic databases and food technologies). The differences in the under-standing of the ethical issues and the incorpora-tion approaches chosen will provide the basis for the creation of a “European map” which will be critically examined in terms of impact assessment and best practices.

The ultimate goal of INES is to create a pan-European platform where ethics experts, policy makers and relevant stakeholders can debate, exchange information, identify ”best practices” and devise ways to improve the in-put and impact of ethics in the actual decision making process.

The project is carried out on behalf of the European Commission and has a duration of three years (Febr. 2004 - Febr. 2006). It is conducted in cooperation with the following partners:

- CESAGen – ESRC Centre for the Economic and Social Aspects of Genomics, Lancaster University; UK (Project-Coordination)

- Uob – Centre for the Study of Global Eth-ics, The University of Birmingham; UK

- KUN – University of Nijmegen, Centre for Society and Genomics; The Netherlands

- CSSC – Centre for Science, Society and Citizenship; Italy

- fBBVA – Fundación BBVA; Spain - STS Centre – Centre of Science, Technol-

ogy, Society Studies at the Institute of Phi-losophy, Academy of Sciences of the Czech Republic; Czech Republic

- IS – Academy of Sciences of Bulgaria, In-stitute of Sociology; Bulgaria

- RATHENAU – Rathenau Institute; The Netherlands

- POST – Parliamentary Office of Science & Technology; UK

- viWTA – Flemish Institute for Science and Technology Assessment; Belgium

- TA SWISS – Centre for Technology As-sessment at the Swiss Science and Technol-ogy Council; Switzerland

Project Team at ITAS/TAB: Prof. Dr. Armin Grunwald, Dr. Leonhard Hennen

(Leonhard Hennen, TAB)

«

ITAS-Workshop zur Endlage-rung nuklearer Abfälle in Deutschland

Fragen zum Profil einer zukünftigen sozialwis-senschaftlichen Endlagerforschung standen im Mittelpunkt eines zweitägigen interdisziplinären Workshops, den ITAS am 28. und 29. Oktober 2004 in Karlsruhe veranstaltete. Diskutiert wur-den Chancen und Risiken deliberativer Politik, die in der aktuellen deutschen Entsorgungsde-batte eine besondere Rolle spielen. Durch Ein-zelvorträge und ein Round Table-Gespräch wurde zugleich die natur- und ingenieurwissen-schaftliche Kompetenz des Forschungszentrums Karlsruhe in die Überlegungen einbezogen.

Eingeleitet wurde der Workshop mit dem Titel „Zur Endlagerung radioaktiver Abfälle in Deutschland: Perspektiven für eine sozialwis-senschaftliche Begleitforschung“ durch zwei Impulsvorträge. Während Lutz Mez (Freie Universität Berlin) die politisch und gesell-schaftlich umstrittene Frage nach der Entsor-gung radioaktiver Abfälle in Deutschland in den Kontext der Energiepolitik stellte, wählte Manfred Popp (Vorstandsvorsitzender des For-schungszentrum Karlsruhe) einen anderen An-satzpunkt. Ausgehend von seinem Engagement für die Bundesregierung in den 1970er Jahren im Rahmen der damaligen Überlegungen zur Nutzung der Kernenergie und der nuklearen Entsorgung beschrieb er Eckpunkte der End-lagerpolitik im zeitlichen Ablauf und ging da-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 155

Page 156: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ITAS-NEWS

ran anschließend auf die paradoxe Entschei-dungslage in der aktuellen Endlagerpolitik ein.

Strukturiert wurde der Workshop durch vier Themenblöcke: (1) Endlager-Politik in Deutschland, (2) Stand der natur- und ingeni-eurwissenschaftlichen Endlagerforschung, (3) Kontextstrukturen der Endlager-Debatte und deliberative Verfahren als Handlungschance, (4) Chancen und Risiken einer problemorientierten sozialwissenschaftlichen Endlagerforschung. Im Rahmen des natur- und ingenieurwissenschaftli-chen Themenblocks moderierte Ortwin Renn (Universität Stuttgart) einen Round Table zu den Leistungen und Defiziten der naturwissenschaft-lichen Endlagerforschung, an dem Reinhard Odoj (Forschungszentrum Jülich), Wernt Bre-witz (Gesellschaft für Anlagen- und Reaktorsi-cherheit), Georg Arens (Bundesamt für Strah-lenschutz), Detlef Appel (PanGeo Hannover) und Thomas Fanghänel (Forschungszentrum Karlsruhe) teilnahmen. ITAS präsentierte auf dem Workshop Ergebnisse aus seiner Evaluati-onsstudie über den Arbeitskreis Auswahlverfah-ren Endlagerstandorte (AkEnd).* Hervorzuhe-ben sind weiterhin die Vorträge von Detlev Ipsen (Gesamthochschule Kassel) und Frank Fischer (Rutgers University/USA). Während Ipsen für einen schrittweisen politischen Ent-scheidungsprozess bei der Errichtung eines End-lagers plädierte und die dabei auftretenden Vor-teile am Verfahrensvorschlag des AkEnd für einen Neuanlauf der Endlagersuche verdeutlich-te, skizzierte Fischer die Erfahrungen, die in den USA und Kanada mit Verfahren des „participa-tory risk assessment“ gemacht wurden.

Die Ergebnisse des Workshops werden Anfang 2005 in Form eines Tagungsbandes veröffentlicht. Die TA-TuP wird zu gegebener Zeit darauf hinweisen.

* Der ITAS-Endbericht zu diesem Projekt ist über die Homepage des AkEnd zugänglich: http://www.akend.de/projekte/pdf/berichtsband.pdf.

(Peter Hocke-Bergler, Crimmitschau/Karlsruhe)

»

Präsentation der ITAS-Projekte auf der Tagung „Nachwachsen-de Rohstoffe – Forschungspro-jekte für den Ländlichen Raum“ Universität Hohenheim, 14. Oktober 2004

Auf der Tagung wurden erste Forschungsergeb-nisse des Forschungsprogramms „Forschungs-projekte für den Ländlichen Raum“ des Ministe-riums für Ernährung und Ländlichen Raum (MLR) Baden-Württemberg vorgestellt. Das Forschungsprogramm hat einen Umfang von insgesamt 5,1 Millionen Euro und wurde durch das MLR Baden-Württemberg im Jahr 2002 mit Hilfe der Landesstiftung Baden-Württemberg GmbH aufgelegt. Das Programm umfasst insge-samt 16 Projekte, die sich mit der stofflichen und energetischen Nutzung nachwachsender Rohstoffe beschäftigen. In einer Presseerklärung hierzu heißt es:

“An den Projekten sind Forschungseinrichtun-gen der Universitäten Stuttgart und Hohen-heim, das Forschungszentrum in Karlsruhe so-wie die Fachhochschulen Biberach, Konstanz und Reutlingen beteiligt. `Neben theoretischen Grundlagen werden insbesondere Ansätze für neue Nutzungs- und Verarbeitungsmöglichkei-ten erforscht`, so der baden-württembergische Minister für Ernährung und Ländlichen Raum, Willi Stächele MdL. Daneben bilden Fragen der biochemischen Umwandlung und deren technische Umsetzung nachwachsender Roh-stoffe einen Schwerpunkt.“

Schätzungen für Baden-Württemberg gehen von einer Steigerung der Bioenergie von der-zeit 1,5 % auf rund 10 % des Primärenergie-verbrauchs aus.

In seinem Impulsvortrag wies Prof. Dr. Bastian Kaiser, Rektor der Fachhochschule Rot-tenburg, darauf hin, dass die Prognose für Ba-den-Württemberg auf einen Anteil von 11 % der Primärenergie durch regenerative Energie zielt. Bei Einbezug bestimmter Altholzanteile könne man für Baden-Württemberg davon ausgehen, dass alleine aus Holz mit einem nutzbaren Po-tenzial von ca. 16 bis 30 Mrd. kWh jährlich nutzbarer Energie gerechnet werden kann.

Die Vortragsreihe konzentrierte sich auf drei thematisch zusammenhängende Blöcke.

Im Block 1: Grundlagen und Rahmenbe-dingungen wurde zunächst anhand von drei Vorträgen ein Überblick präsentiert, der von

Seite 156 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 157: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ITAS-NEWS

Perspektiven der Holzenergienutzung in Ba-den-Württemberg über die stoffliche Nutzung von Nachwachsenden Rohstoffen anhand der Nutzung von Fasern bis zur Energienutzung vom Grünland reichte. Die Potenziale und der Nutzen von Holz in Baden-Württemberg wur-den wie folgt aufgezeigt: Die technischen Po-tenziale zur energetischen Nutzung naturbelas-senen Holzes liegen mit 2,8 Mio. t/a (ca. 48 PJ/a) bei etwa 3 % des Primärenergiebedarfs von Baden-Württemberg. Hiervon werden etwa 48 % als freies Potenzial betrachtet. Die spezi-fischen Anwendungen, Einsatzgebiete und Produkteigenschaften von Naturfasern wurden in einem weiteren Vortrag ausgeführt.

Das ITAS war in diesem Block mit dem Vortrag „Energie aus dem Grünland – eine nachhaltige Entwicklung“ vertreten. Konrad Raab und Volker Stelzer stellten die Chancen der Verwertung überschüssigen Grünlandes für energetische Zwecke heraus. Dabei wurden Flächen- und Energiepotenziale angeführt und Nachhaltigkeitsaspekte der Energiegewinnung aus dem Grünland – in Anlehnung an das inte-grative Konzept nachhaltiger Entwicklung der Helmholtz-Gemeinschaft (HGF) – bewertet (weitere Informationen zum ITAS-Projekt sind zu finden unter http://www.itas.fzk.de/deu/ projekt/roes0343.htm).

Im Block 2: Bioenergie und rationelle Energienutzung wurden Vorträge präsentiert, die von der Verbrennung von Holz sowie von Heu und Getreide bis zur solargestützten Säge-holztrocknung reichten. Dabei befasste sich ein Vortrag mit Feuerungstechniken und den Emis-sionen bei der Verbrennung verschiedener Holz-brennstoffqualitäten, wobei das Ziel eine „sau-bere Holzverbrennung“ war. In einem weiteren Beitrag wurden Untersuchungsergebnisse zu Emissionen bei Verbrennungsversuchen in einer Biomassefeuerungsanlage (Heu, Getreide) prä-sentiert. Versuche zur Trocknung von Fichten-bohlen mittels Biomasseverfeuerung und Solar-unterstützung waren ein weiteres Vortragsthe-ma. Der Anteil der Solarenergie betrug im Jah-resmittel 20 - 30 %. Abschätzungen zeigen, dass die Investitionskosten für einen konventionellen Hochtemperaturtrockner etwa 15 % höher liegen als für den Solartrockner.

Im Block 3: Perspektiven für Biokraftstoffe wurden Möglichkeiten zur Gewinnung flüssi-ger Energieträger aus Biomasse aufgezeigt.

Hierbei konzentrierte sich ein Vortrag auf die dezentrale Ethanolproduktion; hierzu wurden Abschätzungen zu Massen- und Energiebilan-zen sowie Kosten vorgestellt.

Zum Schluss dieses Blocks berichtete Lo-thar Malcher vom Forschungszentrum Karlsru-he über das FZK-BTL-Verfahren (BTL – Bio-mass To Liquid), dessen systemanalytischer Teil vom ITAS bearbeitet wird. Aufgezeigt wurde im Vortrag unter dem Titel „Slurry- und Synthesegaserzeugung aus trockener Biomasse – zentral oder dezentral?“ die gesamte Prozess-kette von der Biomasseaufarbeitung über die Schnellpyrolyse zur Gewinnung von Slurries, deren Vergasung bis hin zur Kraftstoffsynthe-se. Erste Schätzungen zeigen, dass die Kosten pro Liter Kraftstoff bei 0,8-0,9 € liegen könn-ten. Zu diesem Themenkomplex war das ITAS außerdem noch mit einem Poster vertreten, das die systemanalytische Begleitforschung des ITAS zu dem Vorhaben der Gaserzeugung aus Biomasse erläuterte (weitere Informationen zu dem ITAS-Projekt sind zu finden unter http://www.itas.fzk.de/deu/projekt/leib0218.htm).

Insgesamt gesehen wurde die Veranstal-tung von den 160 Teilnehmern als gut gelun-gen betrachtet. Als Ausblick gab Minister Stä-chele an, dass geplant sei, die Vortragenden zu weiteren Gesprächen zur Abstimmung über das weitere Vorgehen einzuladen.

Alle Referate und Poster sind abrufbar unter: http://www.laendlicher-raum.de/

(Peter Proplesch)

«

Neue Dissertationsprojekte „Zielkonflikte im integrativen Nach-haltigkeitskonzept der HGF – Auftre-ten und Lösungsmöglichkeiten am Beispiel der nationalen Bioenergie-ziele Deutschlands“

Dissertationsprojekt (2004-2007) von Marc Dusseldorp

Der Begriff der Nachhaltigkeit spielt in der umwelt- und entwicklungspolitischen Diskus-sion eine herausragende Rolle. In den vergan-genen Jahrzehnten entwickelte sich ein breiter

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 157

Page 158: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ITAS-NEWS

gesellschaftlicher und politischer Konsens da-rüber, dass sich Politik am Leitbild einer nach-haltigen Entwicklung orientieren müsse. Dieser Konsens weicht jedoch einer kontroversen Diskussion, wenn es um die Beantwortung der Frage geht, was unter Nachhaltigkeit konkret zu verstehen und wie das Leitbild für politische Entscheidungen zu operationalisieren sei.

So wurden in den vergangenen Jahren ver-schiedene Konzepte zur Konkretisierung des Leitbildes entwickelt, die sich bereits in ihrer Grundkonzeption unterscheiden, etwa hinsicht-lich der „Dimensionen“, die zu einer Erfassung von Nachhaltigkeit einbezogen werden (z. B. Ökonomie, Ökologie, Soziales), sowie in Bezug auf das Verhältnis der Dimensionen untereinan-der. Im Mittelpunkt des vorliegenden Dissertati-onsvorhabens steht das für die Nachhaltigkeits-debatte richtungsweisende integrative Nachhal-tigkeitskonzept der Helmholtz-Gemeinschaft Deutscher Forschungszentren (HGF).

Als besonders wichtig und zugleich schwierig wird im Zusammenhang mit der In-tegration der Dimensionen die Frage bezeichnet, wie mit Konfliktfällen umgegangen und welche Abwägungen vorgenommen werden sollen. Stellt sich nämlich in der Praxis heraus, dass nicht alle Forderungen gleichzeitig zu erfüllen sind, müssten entweder alle Zielkomponenten gleichermaßen Abstriche hinnehmen oder aber es müssten Prioritäten festgelegt werden, die klarstellen, welcher Aspekt von Nachhaltigkeit im Konfliktfall Vorrang haben soll. Dieses Problem des Umgangs mit Zielkonflikten ist in Nachhaltigkeitskonzepten generell nicht befrie-digend gelöst. Ziel des Dissertationsvorhabens ist es daher, einen Beitrag zur Lösung von Ziel-konflikten im Rahmen des integrativen Konzep-tes der HGF zu erarbeiten.

Dies soll beispielhaft für den Bereich der Bioenergienutzung geschehen. Energie spielt eine zentrale Rolle im Kontext einer nachhalti-gen Entwicklung, da sich die Art ihrer Verfüg-barkeit in den verschiedensten sozialen, öko-nomischen und ökologischen Bereichen aus-wirkt. So hat auch die deutsche Bundesregie-rung in ihrer nationalen Nachhaltigkeitsstrate-gie von 2002 das Ziel formuliert, im Sinne einer nachhaltigen Energieversorgung den An-teil der erneuerbaren Energien künftig stark zu erhöhen. Der Energiegewinnung aus Biomasse wird dabei eine große Bedeutung zugemessen.

Damit verbunden wäre nicht zuletzt eine starke Ausdehnung des Anbaus von Energie-pflanzen. An dieser Stelle wird deutlich, dass die Ausdehnung der Bioenergienutzung Gefahr läuft, mit anderen Zielen der Nachhaltigkeit in Konflikt zu geraten. Neben den erwünschten Effekten – etwa einer Schonung nicht erneuer-barer Ressourcen und der Reduktion von CO2-Emissionen – ist auch mit Entwicklungen zu rechnen, die der angestrebten Extensivierung und „Ökologisierung“ der Landwirtschaft und Naturschutzbelangen entgegenstehen.

Zunächst soll untersucht werden, welche nachhaltigkeitsrelevanten Implikationen mit dem Ausbau der Bioenergienutzung zum Errei-chen der nationalen Bioenergieziele verbunden sind. In einem nächsten Schritt sollen die Ziel-konflikte, die dabei im Rahmen des integrati-ven Nachhaltigkeitskonzepts auftreten, ausge-macht und charakterisiert werden. Auf Grund-lage von bestehenden Ansätzen zum Umgang mit Zielkonflikten sowie des gerechtigkeitsthe-oretischen Diskurses soll schließlich der Ver-such unternommen werden, eine Methodik zur Lösung von Zielkonflikten im integrativen Nachhaltigkeitskonzept zu entwickeln. Betreuung am ITAS: Dr. Christine Rösch, Jürgen Kopfmüller Betreuung an der Universität Karlsruhe: Prof. Dr. Manfred Meurer, Fakultät für Bauin-genieur-, Geo- und Umweltwissenschaften, Institut für Geographie und Geoökologie

(Marc Dusseldorp)

«

Identität und Gemeinschaft in der netzbasierten Kommunikation – Eine Vergleichsanalyse unter kulturellen Aspekten

Dissertationsprojekt (2004-2007) von Robert Hauser

Robert Hauser hat an der Universität Leipzig Kulturwissenschaften, Kommunikations- und Medienwissenschaften sowie Religionswissen-schaften studiert. Abschluss mit Magister Arti-um (2003)

Seite 158 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 159: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ITAS-NEWS

Betreuung: Gotthard Bechmann (ITAS); Prof. Dr. Gerhard Banse, Fraunhofer-Anwen-dungszentrum Logistiksystemplanung und In-formationssysteme.

«

Personalia

Neuer Mitarbeiter

Konrad Raab hat an der Universität Hohen-heim Biologie (Diplom) studiert. Anschließend war er als freiberuflicher Wissenschaftler in den Bereichen Landwirtschaft, Naturschutz, Bodenschutz und Abfallwirtschaft tätig. Von 1999 bis August 2004 war er wissenschaftli-cher Mitarbeiter am Institut für Energiewirt-schaft und Rationelle Energieanwendung der Universität Stuttgart, Abteilung Systemanalyse und Erneuerbare Energien. Sein Arbeits-schwerpunkt war die energetische Nutzung von Biomasse, insbesondere in der mehrjährigen Mitarbeit im Biomasse Info-Zentrum.

Am ITAS wird Herr Raab im Projekt „Energie aus dem Grünland – eine nachhaltige Entwicklung?“ mitarbeiten. In Baden-Württem-berg sind 39 % der landwirtschaftlich genutzten Fläche als Dauergrünland ausgewiesen. Trotz der allgemein hohen Wertschätzung des Grün-lands scheint jedoch insbesondere in benachtei-ligten Gebieten der Rückgang der traditionellen Grünlandnutzung unaufhaltsam. In einigen Regionen gibt es bereits heute Grünlandflä-chen, die nicht mehr für die Rindviehhaltung verwendet werden. Für die Zukunft wird ange-nommen, dass die „dauergrüne“ Futterflächen-nutzung weiter zurückgehen wird und Wiesen und Mähweiden mit erheblichem Flächenum-fang aus der Nutzung genommen werden. Grund hierfür sind die fortschreitenden produk-tionstechnischen Entwicklungen und agrar-strukturellen Veränderungen.

Für diese „überschüssigen“ Grünlandflä-chen könnte die Verwendung des Aufwuchses zur Energiegewinnung eine alternative Nut-zungsoption darstellen.

In dem im November 2003 begonnenen Projekt des ITAS wird analysiert, welche Ver-

fahren zur energetischen Nutzung von Biomas-se aus dem Grünland zur Verfügung stehen und wie nachhaltig diese Verfahren sind. Herr Raab wird sich v. a. mit der Ermittlung und Be-schreibung der technischen, ökonomischen und ökologischen Kenngrößen dieser Verfahren beschäftigen. In Abhängigkeit von den Sub-strateigenschaften kommen die Verfeuerung, die Vergärung und die Vergasung in Frage. Für den Einsatz von Gras müssen diese Nutzungs-wege allerdings noch weiterentwickelt bzw. angepasst werden. Im weiteren Verlauf des Projektes sollen in zwei besonders von der „Grünlandfreisetzung“ betroffenen Gebieten Baden-Württembergs die erarbeiteten Ergeb-nisse abgesichert und Entscheidungswissen für eine nachhaltige Entwicklung des Grünlands erarbeitet werden.

Das Projekt im Internet: http://www.itas.fzk.de/deu/projekt/roes0343.htm

Kontakt

Konrad Raab Forschungszentrum Karlsruhe Institut für Technikfolgenabschätzung und System-analyse (ITAS) Postfach 36 40, 76021 Karlsruhe Tel.: +49 (0) 72 47 / 82 - 64 85 Fax: +49 (0) 72 47 / 82 - 48 06 E-Mail: [email protected]: http://www.itas.fzk.de

«

Habilitation

Dr. Rolf Meyer, Mitarbeiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und zurzeit beurlaubt zum Scientific and Technological Options Assess-ment (STOA) Programm des Europäischen Parlaments, hat sich am Fachbereich 09 – Ag-rarwissenschaften, Ökotrophologie und Um-weltmanagement der Justus-Liebig-Universität Gießen für das Fachgebiet „Agrar- und Res-sourcenökonomie“ habilitiert. Nach der Habili-tationsschrift zum Thema „Technikfolgen-Abschätzung im Bereich Landwirtschaft und Ernährung“ und einem Vortrag mit anschlie-

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 159

Page 160: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

ITAS-NEWS

ßendem Kolloquium zum Thema „Nahrungs-mittelqualität als Fragestellung der Technikfol-gen-Abschätzung“ wurde sein Habilitationsver-fahren am 19. November 2004 mit der An-trittsvorlesung zum Thema „Gentechnisch ver-änderte Nutzpflanzen – technische Entwick-lungen, gesellschaftliche Kontroversen und politische Gestaltung“ abgeschlossen.

»

Neue Veröffentlichung

“Bridges between Science, Society and Policy” – TAMI results published

This book summarises the results of the project TAMI (Technology Assessment in Europe – between Method and Impact). This was a two-year thematic network, funded by the STRATA programme of the European Commission, that brought together the main institutes of technol-ogy assessment in Europe, both parliamentary and non-parliamentary. ITAS together with the Europäische Akademie Bad Neuenahr-Ahr-weiler and POST – the Parliamentary Office of Science and Technology (UK) formed the core group of the network. TAMI created a structured dialogue between technology assessment experts and policymakers on current methodologies and their impact on policymaking. The TAMI team explored and assessed the whole spectrum of methodologies from the “classical” to the “interactive/participatory” and “communica-tive”, identified good practices in project im-plementation and set the stage for impact evaluation based on objective criteria. Finally this book offers a series of policy recommenda-tions based on the findings of the project. Sci-ence, Society and Policy, are three areas that technology assessment functions within and works for; this book is an attempt to improve the interaction amongst them for a more socially and economically sustainable Science and Tech-nology policy in Europe.

Bibliography

Decker, Michael; Ladikas, Miltos (Eds.): Bridges between Science, Society and Policy. Technology Assessment – Methods and Impacts. Berlin, Heidel-berg, New York: Springer 2004 (Wissenschaftsethik und Technikfolgenbeurteilung, Band 22) XIV, 250 S., Geb., ISBN 3-540-21283-3, Euro 53,45

[see also the article by Michael Decker, ITAS, and Miltos Ladikas, Europäische Akademie GmbH, in this journal, vol. 13, no. 1 (March), 2004, pp. 71-80; only in German; http://www.itas.fzk.de/tatup/041/dela04a.htm]

« »

Seite 160 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004

Page 161: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAB-NEWS

TAB-NEWS

TAB-Berichte im Deutschen Bundestag

Sieben TAB-Berichte werden zurzeit in den Gremien des Deutschen Bundestages beraten:

- Der Bericht des TAB zu Nanotechnologie (Drs. 15/2713) durchläuft augenblicklich in mehreren Fachausschüssen die Phase der so genannten „2. Lesung“ – beispielsweise im mitberatenden Gesundheitsausschuss. Im federführenden Ausschuss für Bildung, For-schung und Technikfolgenabschätzung (ABFTA) liegen bereits Anträge der Frakti-onen im Zusammenhang mit dem TAB-Bericht vor.

- Die abschließende Beratung des TAB-Be-richtes Kernfusion (Drs. 14/8959) ist ver-schoben worden. Nachdem die Fraktionen der Opposition ihre Anträge bereits vorge-legt haben, soll nun gewartet werden, bis die Koalitionsfraktionen ihren gemeinsamen Antrag abgestimmt haben.

- Die drei Berichte des TAB zur Zukunft der Nahrungsmittel (Drs. 15/1673, 15/1674, 15/1675) sind zunächst im federführenden Verbraucherausschuss anberaten worden.

- Der Bericht zur Präimplantationsdiagnostik (Drs. 15/3500) wird augenblicklich zur Überweisung vorbereitet, ebenso der 2. Sachstandsbericht „Biometrie und Aus-weisdokumente“, der zusammen mit dem 1. Sachstandsbericht (Drs. 14/1005) beraten werden soll. Der TAB-Bericht „Maßnah-men für eine nachhaltige Energieversorgung im Bereich Mobilität“ (Drs. 15/851) ist noch in der Warteschleife.

« »

Neue TAB-Themen

Seit September dieses Jahres ist ein neues Themenfindungsverfahren eingeleitet worden. Aus insgesamt siebzehn Vorschlägen aus der Mitte des Deutschen Bundestages ist zunächst

das Thema „Pharmakogenetik“ gewählt und bereits vom zuständigen Ausschuss für Bil-dung, Forschung und Technikfolgenabschät-zung beschlossen worden.

Nach intensiver Diskussion zwischen Be-richterstattern und TAB sind zudem drei weite-re Themen bestimmt worden, die dem Aus-schuss zur Beschlussfassung vorgelegt werden sollen:

- Biobanken - Perspektiven eines CO2- und emissionsar-

men Verkehrs – Kraftstoffe und Antriebe im Überblick

- Individuelle Medizin und Gesundheitssys-tem (Zukunftsreport)

« »

Neue Veröffentlichungen

TAB-Hintergrundpapier Nr. 10 „Instrumente zur Steuerung der Flächennutzung – Auswer-tung einer Befragung der interessierten und betroffenen Akteure“ (Verfasser: Juliane Jöris-sen, Reinhard Coenen), April 2004 Im Rahmen seines Projektes „Reduzierung der Flächeninanspruchnahme – Ziele, Maßnahmen, Wirkungen“ hat das TAB eine schriftliche Be-fragung von ausgewählten interessierten und betroffenen Akteuren durchgeführt. Zweck der Befragung war es, die Vor- und Nachteile der verschiedenen Instrumente zur Steuerung der Flächennutzung aus der Sicht unterschiedlicher Interessenstandpunkte zu beleuchten und wich-tige Konfliktlinien aufzuzeigen. Die Auswer-tung von Stellungnahmen und Positionspapie-ren ergab ein aktuelles Meinungsbild der zent-ralen Interessengruppen und Verbände zu den Zielen und Instrumenten einer nachhaltigen Flächennutzungspolitik in Deutschland.

„Begrenzte Auswahl? Praxis und Regulierung der Präimplantationsdiagnostik im Länderver-gleich“ (Autoren: Leonhard Hennen, Arnold Sauter), edition sigma, Berlin, 176 S., € 18,90, Studien des Büros für Technikfolgen-Abschätzung, Bd. 17, ISBN 3-89404-826-3 Die Präimplantationsdiagnostik (PID) ist ein höchst umstrittenes Verfahren. Nach augen-blicklicher Rechtslage ist es in Deutschland

Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 161

Page 162: TECHNIKFOLGENABSCHÄTZUNG - tatup-journal.de · Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgen- abschätzung und Systemanalyse Fortsetzung Seite

TAB-NEWS

verboten. Bei der PID werden menschliche Embryonen auf Anlagen für eine genetisch be-dingte Erkrankung im Rahmen der künstlichen Befruchtung daraufhin untersucht, ob sie für eine Einpflanzung in die Gebärmutter geeignet sind. Ihre Nutzung hat in den vergangenen Jah-ren zu intensiven Diskussionen in Öffentlichkeit und Politik geführt, ohne dass bisher eine Ent-scheidung des Gesetzgebers über die Zulässig-keit des Verfahrens getroffenen worden ist.

Zu der zentralen Frage, ob durch geeignete rechtliche Maßnahmen die Anwendung der PID wirksam auf ein eng definiertes Spektrum von Fällen (z.B. besonders schwere erbliche Erkran-kungen) eingeschränkt werden kann, stehen mit dem Bericht des TAB erstmals umfassende und belastbare Informationen zur Verfügung. Das TAB hat die unterschiedlichen Formen der Re-gulierung des Einsatzes der PID sowie die Ent-wicklung der jeweiligen medizinischen Praxis in sieben ausgewählten Ländern untersucht.

Das Buch zeigt die Reichweite und Gren-zen verschiedener Regulierungsmodelle auf (Selbstregulierung von Angebot und Nachfra-ge, gesetzliche Einschränkung der Nutzung, Steuerung durch eine Kontrollbehörde, gesetz-liches Verbot). Dabei werden die Schwierigkei-ten einer Eingrenzung der Praxis der PID ange-sichts der Nutzungsansprüche von Betroffenen und den sich ständig weiter entwickelnden gendiagnostischen Möglichkeiten deutlich.

Die Veröffentlichungen des TAB können schriftlich per E-Mail oder Fax beim Sekreta-riat des TAB bestellt werden: Büro für Tech-nikfolgen-Abschätzung beim Deutschen Bundestag, Neue Schönhauser Straße 10, 10178 Berlin, E-Mail: [email protected], Fax: +49 (0) 30 / 28 49 11 19.

(Thomas Petermann)

« »

Seite 162 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004