technikfolgenabschätzung

Transcription

technikfolgenabschätzung
Forschungszentrum Karlsruhe
in der Helmholtz-Gemeinschaft
Institut für Technikfolgenabschätzung und Systemanalyse
TECHNIKFOLGENABSCHÄTZUNG
Theorie und Praxis
Nr. 3, 13. Jahrgang – Dezember 2004
Schwerpunktthema
Wissenspolitik – ein neues Forschungs- und
Handlungsfeld?
G. Bechmann, N. Stehr: Einführung in den Schwerpunkt
5
G. Böhme: Die Moralisierung der Wissenschaftspolitik
15
S. Fuller: The University as a Creative Destroyer of Social Capital
21
W. Leiss: Policing Science: Genetics, Nanotechnology, Robotics
32
T. Duster: Feedback Loops in the Politics of Knowledge Production
40
J. Lezaun: Genetically Modified Foods and Consumer Mobilization
in the UK
49
S. Turner: Speaking Truth to Bureaucratic Power: Three National
Responses to Cholera
57
P. Wehling: Reflexive Wissenspolitik: Öffnung und Erweiterung
eines neuen Politikfeldes
63
„Small technology – Big Consequences“: Building up the Dutch
debate on nanotechnology from the bottom
(R. van Est, I. van Keulen)
72
Bundesweiter Diskurs: Momentaufnahme Nachhaltigkeit und
Gesellschaft (Chr. Averbeck, K. Crome, A. Lüth, A. Nick)
80
BioMedical Technology Assessment: modulare Folgenerfassung und
perspektivensensitive Bewertung biomedizinischer Innovationen
(R. Kollek)
85
Ergebnisse von TA-Projekten Biologisch-dialogisch: Risikokommunikation zu Grüner Gentechnik
(M. Hertlein, E. Klotmann, Chr. Rohloff)
– Neue TA-Projekte
89
TA-Institutionen und
-programme
TA-Konzepte und -Methoden
Fortsetzung Seite 2
Technikfolgenabschätzung • Technology Assessment
Fortsetzung des Inhaltsverzeichnisses
Rezensionen und Kurzvorstellungen von Büchern
U. Dolata, 2003: Unternehmen Technik. Akteure, Interaktionsmuster
und strukturelle Kontexte der Technikentwicklung.
(Rezension von F. Gloede)
94
U. Albertshauser, N. Malanowski, 2004: Innovations- und
Technikanalyse im Management – Perspektiven für die strategische
Unternehmensführung. (Rezension von O.F. Bode)
98
W. Bender, J.C. Schmidt (Hrsg.), 2003: Zukunftsorientierte
Wissenschaft. Prospektive Wissenschafts- und Technikbewertung.
(Rezension von F. Vogelsang)
100
N.C. Karafyllis, T. Haar (Hrsg.), 2004: Technikphilosophie im
Aufbruch. Festschrift für Günter Ropohl.
(Rezension von A. Grunwald)
102
St. Bannas, 2003: Faire Marktwirtschaft. Ein Modell zu ‚No Logo’.
(Rezension von J. Kopfmüller)
106
Transport Research Knowledge Centre: Launch of the revamped
website
112
Bibliographie zu Fragen der Inter- und Transdisziplinarität
112
Diskussionsforum
Innovationspolitische Aspekte der geplanten Einführung eines
elektronischen Maut-Systems in Deutschland
(G. Halbritter, T. Fleischer, Ch. Kupsch)
113
Tagungsberichte und
-ankündigungen
Conference: Converging Technologies for a diverse Europe
(Brussels, 14.-15. September 2004)
118
Zukunftsforum Mobiles Internet 2010
(Petersberg, 14.-15. September 2004)
125
Workshop: Auf dem Weg zu interdisziplinären Methodologien.
Forschungsstand und offene Fragen (Karlsruhe, 24.-25. Juni 2004)
129
Internationale Konferenz: nanoDE – Factors for Success
(Wiesbaden, 21.-24. Juni 2004)
134
Tagung: Raum für Nachhaltigkeit. Zur Kontextualisierung des
Leitbilds (Leipzig, 17.-18. Juni 2004)
135
Tagung: Ökologische Ökonomie: eine neue Wissenschaft?
(Heidelberg, 6.-8. Mai 2004)
141
- Tagungsankündigungen / Events -
143
Nachrichten
Fortsetzung Seite 3
Seite 2
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Fortsetzung des Inhaltsverzeichnisses
ITAS-News
“Technik in einer fragilen Welt – Perspektiven der
Technikfolgenabschätzung“
Bericht über die erste Konferenz des „Netzwerks TA“ (NTA1)
152
New EU Project: The Institutionalisation of Ethics in Science Policy;
practices and impact (INES)
154
ITAS-Workshop zur Endlagerung nuklearer Abfälle in Deutschland
155
Präsentation der ITAS-Projekte auf der Tagung „Nachwachsende
Rohstoffe – Forschungsprojekte für den Ländlichen Raum
156
Neue Dissertationsprojekte
157
• Zielkonflikte im integrativen Nachhaltigkeitskonzept der HGF –
Auftreten und Lösungsmöglichkeiten am Beispiel der nationalen
Bioenergieziele Deutschlands
157
• Identität und Gemeinschaft in der netzbasierten Kommunikation – 158
Eine Vergleichsanalyse unter kulturellen Aspekten
Personalia
159
Neue Veröffentlichung
160
- M. Decker, M. Ladikas: Bridges between Science, Society and
Policy. Technology Assessment – Methods und Impacts.
TAB-News
TAB-Berichte im Deutschen Bundestag
161
Neue TAB-Themen
161
Neue Veröffentlichungen
161
- Instrumente zur Steuerung der Flächennutzung – Auswertung
einer Befragung der interessierten und betroffenen Akteure
161
- Begrenzte Auswahl? Praxis und Regulierung der
Präimplantationsdiagnostik im Ländervergleich
161
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 3
SCHWERPUNKTTHEMA
Wissenspolitik – ein neues
Forschungs- und Handlungsfeld?
Eine Einführung in den Schwerpunkt von
Gotthard Bechmann, ITAS, und Nico Stehr,
Zeppelin University, Friedrichshafen
1 Unübersichtliche Ausgangslage
Ängste und Befürchtungen über die sozialen
Folgen neuer wissenschaftlicher Erkenntnisse
und Technologien sind nicht neu. Mit der systematischen Produktion von Handlungswissen
scheinen wir jedoch eine neue Stufe im Verhältnis von Wissenschaft, Politik und Gesellschaft
erreicht zu haben. Die kontroversen Diskussionen über die Rekombination der DNA, die
Stammzellenforschung, das Genetic Engineering oder die neurogenetische Forschung sowie
das reproduktive Klonen verweisen auf den
veränderten gesellschaftlichen Stellenwert wissenschaftlichen Wissens. Wissen eröffnet nicht
nur Handlungschancen, sondern es unterminiert
alte und erzeugt zugleich neue normative Orientierungen und Wertstrukturen und trägt somit
wesentlich zu gesellschaftlichen Regulierungen
bei. Die Produktion, Verteilung und Anwendung
von Wissen in der Gesellschaft unterliegt zunehmend selber einer bewussten Steuerung von
Seiten der Politik und Wirtschaft. Wissenspolitik, oder auch Wissensregime, stellen heute ein
neues Politikfeld dar, bei dem es um die Rolle
der Wissenschaft in der Gesellschaft, neue Regeln der Wissensanwendung und die Sanktion
eines möglichen Wissensmissbrauchs geht.
Das wachsende Gewicht der Wissenspolitik in der Gegenwart lässt sich auf eine Reihe
von gesellschaftlichen Entwicklungen zurückführen, die im Folgenden kurz dargestellt werden sollen.
2 Ursachen
Die gegenwärtigen Entwicklungen hin zu einer
Wissenspolitik lassen sich auf eine Reihe von
Faktoren und Entwicklungen zurückführen:
1. Es sind neue Wissensformen (und damit ein
neuer Typus von Handlungsmöglichkeiten),
die sowohl alarmieren als auch zu umfassenden Versprechungen verleiten. Die Erkenntnisform selbst verändert sich. Der
Weg von der Grundlagenforschung hin zur
angewandten Forschung und kommerziellen
Anwendung ist in einigen Wissenschaftsfeldern, wie zum Beispiel der molekularen
Biologie, besonders kurz und direkt. Die
Differenz von Grundlagenforschung und
angewandter Forschung verringert sich erheblich bis hin zu einer „produktorientierten
Grundlagenforschung“. Die Identifikation
eines Gens ist identisch mit dem Test für
das Gen. Die Grenzen der Unverfügbarkeit
verschieben sich anscheinend radikal (Habermas 2001, S. 41).
2. Der Stellenwert der Wissenspolitik nimmt
nicht nur angesichts der Beschleunigung der
Wissensproduktion neue Formen an, sondern auch als Ergebnis der wachsenden
Möglichkeiten, mit neuem Wissen in Kontakt zu kommen.
3. Mit der rapiden Zunahme der Erkenntnisse
multiplizieren sich unsere Handlungsmöglichkeiten und -optionen, da Wissen Handlungskapazitäten oder Modelle für die Wirklichkeit bereitstellt. Der Stellenwert des Wissens für die Ökonomie, die Politik (als Lieferant öffentlicher Themen und Probleme) und
andere gesellschaftliche Institutionen wächst.
Aus der Einsicht in die „Macht“ der modernen Wissenschaft und Technik erwächst aber
auch eine andere, eine skeptische Einstellung
zur Ertragsrechnung ihrer Anwendung.
4. Obwohl jede technische Erfindung und jeder
wissenschaftliche Erkenntnisfortschritt schon
bisher von ambivalenten Reaktionen der Öffentlichkeit begleitet war, kann man beobachten, dass es in der Bewertung gesellschaftlicher Folgen der Wissenschaft und
Technik eine bemerkenswerte Verschiebung
der Akzente gibt: weg von der Lösung einmal aufgetretener Probleme, die sich aus der
Anwendung von Technik und Wissenschaft
ergeben, hin zur möglichst frühzeitigen Reduktion oder Prävention nicht gewollter, jedenfalls ungeplanter Folgen. Die einst verbreitete Haltung, nachträgliche Entsorgung
der negativen Folgen sei ausreichend, wird
zunehmend skeptisch beurteilt. Fragen wie
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 5
SCHWERPUNKTTHEMA
„Sollen wir diese Erfindung überhaupt anwenden?“, konkurrieren zumindest auf dem
Gebiet medizinischer Entdeckungen fast
zwangsläufig mit der Frage „Können wir es
verantworten, sie nicht anzuwenden?“
5. Versuche, neues Wissen und neue technische Fertigkeiten zu kontrollieren, lassen
sich nicht abkoppeln von den Kontingenzen
von Zeit und Ort. Die Gebundenheit der
Kontrolle des Wissens an bestimmte Kontexte verweist unmittelbar auf ein Dilemma
jeder Wissenspolitik, auch in einer auf
Grund der Globalisierungskräfte angeblich
ständig „schrumpfenden“ Welt, nämlich die
Grenzen der Legitimität, der Herrschaft und
der Kontrollmöglichkeiten über diese Differenzen von Sozialsystemen hinaus.
3 Wissen über Wissen: Wissen als Weltveränderung
Um die Diskussion über den neuen gesellschaftlichen Stellenwert des Wissens voranzubringen, aber auch um mögliche Missverständnisse zu vermeiden, werden im Folgenden einige grundsätzliche Überlegungen zum Wissensbegriff angestellt und es wird dargelegt,
wie dieser Begriff im Kontext unserer Analyse
verwendet wird.
Wir möchten Wissen als Fähigkeit zum sozialen Handeln (Handlungsvermögen) definieren, als die Möglichkeit, etwas „in Gang zu
setzen“. Damit ist die Verbindung von sozialem
Handeln und Wissen, wenn auch nur zeitweise
und vorläufig, unterbrochen. Im Sinne dieser
Definition ist Wissen ein universales Phänomen
oder eine konstante anthropologische Größe.
Unsere Begriffswahl stützt sich unmittelbar auf
Francis Bacons berühmte und faszinierende
These „scientia est potentia“ oder, wie diese
Formulierung häufig, aber irreführend, übersetzt
wurde: Wissen ist Macht. Bacon behauptet, dass
der besondere Nutzen des Wissens sich von
seiner Fähigkeit ableitet, etwas in Gang zu setzen. Der Begriff potentia – Fähigkeit – umschreibt hier die „Macht“ des Wissens.
Wissen erfüllt gewiss nur dort eine „aktive“
Funktion im gesellschaftlichen Handlungsablauf, wo Handeln nicht nach im Wesentlichen
stereotypisierten Mustern (Max Weber) abläuft
oder ansonsten weitgehend reguliert ist, sondern
wo es Entscheidungsspielräume oder -notwen-
Seite 6
digkeiten gibt. Für Karl Mannheim (1929) beginnt soziales Handeln deshalb auch erst dort,
wo der noch nicht rationalisierte Spielraum anfängt, wo nicht regulierte Situationen zu Entscheidungen zwingen.
Darüber hinaus und im Gegensatz zu dem,
was die klassische funktionalistische Differenzierungstheorie nahe legt, gibt es gerade in vielen kritischen Fragen über das Wirken natürlicher und gesellschaftlicher Prozesse keine kognitive Gewissheit. Das heißt, die Wissenschaft
kann keine Wahrheiten (im Sinne von bewiesenen Kausalketten oder gar universellen Gesetzen) liefern, sondern nur mehr oder weniger gut
begründete Vermutungen, Szenarien und Wahrscheinlichkeiten. Statt Quelle von gesichertem
Wissen und Gewissheit zu sein, ist die Wissenschaft damit Quelle von Unsicherheit. Und anders als es rationalistische Wissenschaftstheorien vorschlagen, ist das Problem nicht dadurch
zu erfassen, dass man zwischen „guter“ und
„schlechter“ Wissenschaft (oder zwischen Pseudowissenschaft und richtiger Wissenschaft)
unterscheidet. Wer sollte dies unter Bedingungen der Unsicherheit auch können?
Hebt man die (gedachte) Trennung von
Wissen und Handeln wieder auf, so signalisiert
die Definition von Wissen als Handlungsvermögen zudem, dass die Realisierung oder die
Anwendung von Wissen immer unter bestimmten sozialen und kognitiven Rahmenbedingungen stattfindet. Und insofern die Realisierung
von Wissen von bestimmten Bedingungen abhängig ist, haben wir gleichzeitig einen ersten
wichtigen Verweis auf die Relation von Wissen
und Macht. Die Kontrolle der für die Implementation von Wissen notwendigen sozialen
und kognitiven Bedingungen erfordert einen
bestimmten Grad von Macht. Je größer zum
Beispiel der Umfang des zu realisierenden
praktischen Projektes, desto größer die notwendige Macht, um die sozialen und kognitiven Rahmenbedingungen, die die Realisierung
des Wissens als Handlungsvermögen erlauben,
kontrollieren zu können
4 Die gesellschaftliche Überwachung neuer
Erkenntnisse
Fraglos wirft die Frage nach der Überwachung
neuen Wissens in modernen Gesellschaften
eine Vielzahl von brisanten Problemen auf; wir
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
können an dieser Stelle weder die Themen der
Beziehung von Öffentlichkeit, Politiksystem
und Wissenschaft oder von Experten und Laien, noch die Problematik der Grundlagen der
gesellschaftlichen Kontrolle wissenschaftlicher
Erkenntnisse umfassend darstellen. Wir beschränken uns darauf, eine Reihe von allgemeinen, die Wissenspolitik betreffenden Gesichtspunkten anzuführen.
Diese allgemeinen Fragen nach der gesellschaftlichen Überwachung des Wissens beginnen schon mit dem Begriff der Regulierung. Der
Begriff ist keineswegs eindeutig. Man sollte
zwischen verschiedenen Gründen und Zielen für
regulierende Maßnahmen unterscheiden. Was ist
zum Beispiel der Anlass für Regulierung? Wie
sind zukünftige Resultate neuen Wissens einzustufen? Welche Folgen scheinen diese Resultate
zu haben oder welche Konflikte sind zu erwarten? Welcher Art sind die Vorschläge für eine
Regulierung? Und, was genau soll reguliert
werden? In der Vergangenheit wurden einige
der heftigsten Reaktionen der Öffentlichkeit auf
die Wissenschaft und neue Erkenntnisse nicht
durch die von ihnen erzeugten gesellschaftlichen
Auswirkungen ausgelöst, sondern durch wissenschaftlich geprägte Vorstellungen und Perspektiven, die mit kulturell fest verwurzelten Vorstellungen, wie zum Beispiel der über die Natur
des Menschen, in Konflikt stehen.
Bewusste Versuche, das Wissen zu regulieren, sind nicht neu. Die Aufnahme des ptolemäischen Systems in die Lehren der Katholischen
Kirche oder der heftige Widerstand der geistigen
Führer der Reformation gegen die Ideen Galileos und deren Unterdrückung und Zensur durch
die Katholische Kirche sind herausragende Beispiele aus der Wissenschaftsgeschichte für das
Überwachen von Wissen, genau wie erste staatliche umweltpolitische Regulierungsversuche
ökonomischer Aktivitäten im 18. Jahrhundert in
Frankreich (Reynard 2002). Die Haltung der
damaligen Kirchenführer und die konfliktgeladene Debatte, die sie auslösten, klingen in dem
gegenwärtigen Widerstreit um die „Natur der
menschlichen Natur“ wieder an. Politische Bemühungen, die sich in internationalen Übereinkommen niederschlagen, sind Beispiele moderner Wissenspolitik, die darauf abzielt, den Zugang zu Handlungsmöglichkeiten, die katastrophale Folgen haben könnten, durch juristische
und politische Instrumente und Sanktionen zu
beschränken oder zu verhindern. Natürlich ist
jeder bewusste Versuch, neues Wissen und seine
Verwendung zu regulieren, häufig gleichzeitig
Parteinahme für anscheinend konkurrierende
Wissensformen.
Der berüchtigte und immer noch andauernde Kampf in einigen Teilen der USA, Lehren
der Evolutionstheorie im Schulunterricht zu
verbieten, ist hierfür ein gutes Beispiel. Der
Beschluss der Schulbehörde von Kansas, vom
gegenwärtigen amerikanischen Präsidenten
wohlwollend beobachtet und unterstützt, jeden
Hinweis auf die Evolutionstheorie aus den naturwissenschaftlichen Lehrplänen des Staates zu
streichen, ist ein Beispiel jüngeren Datums für
erfolgreiche Versuche der Anhänger der Schöpfungsgeschichte, nicht nur die evolutionäre Biologie, sondern auch die Theorie des Urknalls aus
den Lehrplänen der US-Schulen zu verbannen.
Jedoch sind derartige Bemühungen, mögliche ideologische und kulturelle Auswirkungen der Wissenschaft zu regulieren und zu
kontrollieren, wie sie in verschiedenen Gesellschaften unternommen werden und wie auch
das Beispiel aus Kansas zu bestätigen scheint,
auf lange Sicht und in unterschiedlichen gesellschaftlichen Kontexten im Grossen und Ganzen erfolglos geblieben.
In den letzten beiden Jahrzehnten zeichnet
sich eine Wende in der Art der in der Öffentlichkeit vorherrschenden Bedenken gegen die
gesellschaftlichen Folgen von Wissenschaft
und Technik ab: Sie kreisen nicht mehr um
Fragen der Sicherheit, sondern zunächst mehr
um solche des Risikos und inzwischen zunehmend um die der Unsicherheit.
Sieht man einmal davon ab, dass die Einsicht in die mit wissenschaftlichen Erkenntnissen verbundenen Risiken und Unsicherheiten
in der Öffentlichkeit und im Politiksystem größer geworden ist, dann gehen die Einstellungen
in der Öffentlichkeit von der einmal vorherrschenden Ansicht ab, dass Wissenschaft und
Technik fast ausnahmslos gesellschaftlichen
Nutzen stiften. Die Veränderungen in der Bewertung von Wissenschaft und Technik in der
Öffentlichkeit sind sicher nicht unabhängig von
der Tatsache, dass bestimmte, in den Labors
der Biotechnologie produzierte Erkenntnisse
und Techniken unmittelbar einsichtige praktische Folgen zu haben scheinen. Es ist anzunehmen, dass neue wissenschaftliche Erkennt-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 7
SCHWERPUNKTTHEMA
nisse im Vergleich zum wissenschaftlichen
Wissen der Vergangenheit unmittelbare Auswirkungen auf den Menschen und die Gesellschaft haben, sofern sie Anwendung finden.
Man kann deshalb auch unterstellen, dass die
Problematik der kognitiven Distanz und der
Verständnisschwierigkeiten zwischen der modernen Wissenschaft und der Öffentlichkeit
unter diesen Umständen weniger relevant ist
(Weingart, Engels, Pansegrau 2002).
Das von uns als Wissenspolitik gekennzeichnete neue Politikfeld steht allerdings in
keinem unmittelbaren Zusammenhang mit dem
jüngst immer wieder konstatierten ambivalenten
Gefühl eines Krisenphänomens moderner Gesellschaften, das durch die Über- bzw. Massenproduktion von Wissen als solchem entstanden
ist. Auf die Spannungen zwischen dem Umfang
der Wissensproduktion in fortgeschrittenen Gesellschaften und der begrenzten Fähigkeit des
einzelnen Menschen, das große Angebot von
Wissen auch zu verarbeiten, hat Georg Simmel
([1907] 1989) schon vor hundert Jahren im
Schlusskapitel seiner Philosophie des Geldes,
einer Theorie des damaligen Zeitalters, hingewiesen. Die „Kulturtragödie“ (Simmel) manifestiert sich in dem Auseinanderfallen von verselbständigter objektiver Kultur und dem Eigensinn
subjektiver Kultur. Die Problematik der Überwachung des Wissens bezieht sich nicht auf die
Produktion von Wissen insgesamt, wie auch
immer man Überproduktion definieren mag,
sondern auf das Angebot von zusätzlichem Wissen, das als realitätsverändernd begriffen wird.
5 Wissenspolitik und ihre Akteure
Das verstärkte öffentliche Interesse an einer
Kontrolle der Anwendung des Wissens und den
antizipierten oder auch nicht antizipierbaren
Externalitäten der Anwendung wissenschaftlichen und technischen Wissens signalisiert eine
grundlegende Verschiebung in der gesellschaftlichen Legitimität der Wissenschaft. Nachdem
die Autorität und der Stellenwert der Wissenschaft als vorrangige Quelle kognitiver Innovation zunehmend angezweifelt wird, lassen intensivierte Bemühungen, das Wissen zu regeln,
erkennen, dass sich die Legitimationsproblematik der Wissenschaft von Konflikten mit
„ideologischen“ oder kulturellen Implikationen
wissenschaftlicher Aussagen auf Auseinander-
Seite 8
setzungen verlagert hat, die sich vorrangig mit
den praktischen Folgen der Anwendung wissenschaftlicher Erkenntnisse befassen.
Die inzwischen öffentlich stattfindende
Demystifizierung von Experten (Barnes 1999)
könnte nicht nur als ein gutes Beispiel für einen
Wandel in der Beziehung zwischen den wissensbasierten Berufen und deren Klienten, Konsumenten, Patienten, Studenten, Auszubildenden, Kunden usw. gewertet werden, sondern
auch als eine tief greifende Transformation des
Öffentlichkeitsbildes vom wissenschaftlichen
Wissen. Durch diese Veränderung gibt es eine
größere Zahl und Bandbreite von Individuen,
die in einer solchen Beziehung als Ratsuchende
nicht länger in der traditionellen, nämlich untergebenen Rolle verbleiben, die sich daraus ergibt,
dass jeder Zweifel a priori ausgeschlossen wird.
Helen Lopata (1976) hat den Prozess, den
wir hier meinen, als Kenntnisverbesserung und
als rebellisches Verhalten der Klienten in Kontexten beschrieben, in denen Expertenwissen
„professionell“ vermittelt wird. Lopata hält
mehrere gesellschaftliche Veränderungen verantwortlich für die Schwierigkeit, Wissen (zum
Beispiel durch die Wissensberufe) zu monopolisieren, und für die Weigerung der Konsumenten
und Klienten, sich dem Expertenratschlag gegenüber passiv und konform zu verhalten (dazu
auch Lezaun in diesem Schwerpunkt).
Zuallererst ist die steigende Anzahl wissensbasierter Berufe zu nennen, die eine strikte
Kontrolle und Einhaltung der Grenzen des
Diskurses und der Art und Weise der Diskursführung erschwert und die Fragmentierung von
Expertenbereichen erhöht (dazu auch Fuller in
diesem Schwerpunkt). Diese Fragmentierung
wird aber publik. Ob ein Konsens in einem
wissenschaftlichen Spezialgebiet jemals vorherrschte und wie er zustande gekommen ist,
steht hier nicht zur Diskussion. Was dagegen
zur Diskussion steht, ist der öffentlich sichtbare
und ausgetragene Dissens etwa unter Biologen
über die sozialen Folgen von Veränderungen
des menschlichen Genoms. Ein öffentlich eindeutig erkennbarer wissenschaftlicher Dissens
ist hier mitbestimmend für nachhaltige Besorgnisse in der Öffentlichkeit. Zweitens entwickelt
die Öffentlichkeit mehr Scharfsinn und sie
verfügt über mehr kognitive Fähigkeiten. Es
entstehen neue Organisationen und Interessengruppen, die zum Autoritätsverlust der Exper-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
ten beitragen. Die einst als eher esoterisch verstandenen Wissensformen, deren Diskurs nicht
minder technisch war, öffnen sich, werden
öffentlich debattiert, kontrolliert und reguliert
(Kaschinski, Spehr 2001).
6 Regulierungsweisen
Vielleicht ist es sinnvoller, die in diesem Kontext interessierende Frage als eine der Regulierung des Wissens zu bezeichnen bzw. als den
Versuch, Wissensansprüche außerhalb der
Grenzen des Wissenschaftssystems unmittelbar
zu kontrollieren. In diesem Sinn unterscheidet
sich die Regulierung des Wissens von Versuchen, die sekundären Folgen von bereits praktisch umgesetztem Wissen zu kontrollieren.
Solche Versuche könnten zum Beispiel konkrete Bemühungen sein, die Ergebnisse einer Studie umzusetzen, aus der hervorgeht, dass Passivrauchen zu erhöhtem Blutdruck führen kann.
Als Ergebnis einer solchen Studie könnte zum
Beispiel die Beschränkung des Rauchens auf
bestimmte Räume oder bestimmte Individuen
angeordnet werden. Nicht zur Disposition oder
Diskussion steht in diesem Fall der Erkenntnisanspruch der Studie selbst.
Wir verwenden den Begriff der Regulierung nicht in dem im gegenwärtigen ökonomischen Diskurs vorherrschenden Sinn. Im ökonomischen Diskurs unterstützt man in der Regel den Abbau von existierenden (staatlichen)
Regulationsmechanismen, um etwa die Handels- oder Kapitalströme regional und global
noch ungehinderter fließen zu lassen. In der
Ökonomie soll das freie Spiel der Marktkräfte
andere soziale Institutionen „disziplinieren“.
Aus marxistischer Warte befassen sich Theorien der gesellschaftlichen Regulierung dagegen mit staatlichen Praktiken, die das vorrangige Ziel haben, den Akkumulationsprozess des
Kapitals zu stützen und zu fördern.
Im Kontext unserer Diskussion der Regulierung neuen Wissens zielen wir auf einen anderen Begriff der Regulierung, nämlich auf Versuche unterschiedlichster Gruppen und Institutionen in der Gesellschaft, Wissen zu disziplinieren. Dieser bewusste Eingriff in die Verwendungsmöglichkeiten neuen Wissens kann auch
heißen, dass man die Möglichkeiten der Anwendung nicht nur restriktiv zu steuern versucht
(Mitnick 1980). Es kann auch heißen, dass die
Regulierung der Wissenspolitik auf eine Erweiterung der Handlungsmöglichkeiten zielt. Der
Staat ist in diesem Zusammenhang ein zwar
wichtiger, aber nicht der primäre oder alleinig
relevante Akteur von Regulierungsmaßnahmen.
Regulierung soll in diesem Zusammenhang
deshalb ganz allgemein auf den bewussten, strategischen Einsatz von politischer und juristischer Herrschaft sowie von ökonomischen Ressourcen und kulturellen Praktiken verweisen, die
dazu dienen können, unabhängig von dem jeweiligen Ziel, die praktische Realisierung von
Wissen zu beeinflussen bzw. zu steuern.
Die Zahl und Reichweite institutionalisierter Standards zur Überwachung des Wissens
sind bisher relativ gering. Es gibt zum Beispiel
nur wenige rechtliche Vorschriften, die sich
mit der Sicherstellung der Natürlichkeit des
Menschen befassen. Regulationsmaßnahmen
beinhalten sowohl informelle als auch formelle
Handlungen unterschiedlichster Art mit dem
Ziel, die Anwendung und weitere Wissensentwicklung zu beschränken, in bestimmte Bahnen zu lenken oder sogar zu verbieten. Anlass
solcher Maßnahmen ist aber immer eine Reaktion auf gedachte Folgen bestimmter Erkenntnisse. Inhalt dieser Handlungen können moralischer Druck sein, die Gründung von Überwachungs- und Prüfungsinstitutionen, der Verweis auf herrschende gesellschaftliche Wertvorstellungen, Gesetzesmaßnahmen, Beschränkungen in der Verbreitung von Wissen, Verbote usw. Das Ziel der Regulierung von Wissen
ist offensichtlich, die Wissensentwicklung und
die Anwendung von Wissen in gewünschte
Bahnen zu lenken, d. h. entweder sie zu belassen oder auszuschließen.
Die Quelle von normativen Konventionen
und rechtlichen Standards, Regulationsmaßnahmen oder auch einfach der Legitimation der
kulturellen Ächtung einer bestimmten Verwendung von wissenschaftlichen Erkenntnissen ist
in der Regel außerhalb des Wissenschaftssystems zu finden, wobei aber nicht auszuschließen
ist, dass Kontrollmaßnahmen aller Art von wissenschaftlichen Experten begleitet und mitformuliert werden und deren Implementation auch
von ihnen überwacht wird. Wenn es zum Beispiel zu Forderungen kommt, die menschliche
Natur angesichts neuer wissenschaftlicher und
technischer Fähigkeiten im status quo menschlicher Reproduktion zu erhalten und zu schützen,
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 9
SCHWERPUNKTTHEMA
stellt das Wissenschaftsverständnis der Natur
keine eindeutige, unstrittige Kategorie der Natürlichkeit bereit, an die man sich – um normative Orientierung bemüht – halten könnte (Lemke
2004). Der Verweis auf unzweideutige wissenschaftliche Konventionen als Grundlage praktisch-politischer Regulierungsmaßnahmen ist
somit nicht möglich. Das wissenschaftliche
Verständnis von Natürlichkeit umfasst eine Anzahl von denkbaren „Naturen” und erlaubt so
die Konstruktion sehr verschiedenartiger Vorstellungen von Natürlichkeit.
7 Wissenspolitik und Wissenschafts- und
Technologiepolitik
Obwohl die Deskription der Maßnahmen der
Überwachung und ihrer Intentionen den Eindruck erweckt, es handele sich bei der Regulierung von Wissen teilweise um nichts anderes als
die herkömmliche Wissenschafts- und Technologiepolitik, soll unterstrichen werden, dass es
hier im Gegenteil um Überwachungsmaßnahmen geht, die in der Regel erst durch bestimmte
Entwicklungen der wissenschaftlichen Erkenntnisse und technischen Möglichkeiten ausgelöst
werden. Das erfolgreiche Klonen eines Tieres
durch schottische Wissenschaftler wäre ein Beispiel. Darüber hinaus zeigt uns die jahrzehntelange Erfahrung mit forschungs- und entwicklungspolitischen Maßnahmen, dass sich die
Entwicklungsdynamik von Technik und Wissenschaft kaum durch politische Standards steuern lässt, wenn überhaupt. Die mangelnde Kontrollierbarkeit bzw. Weichenstellung technischwissenschaftlicher Entwicklungen verstärkt sich
natürlich in einer Welt, in der herkömmliche
Grenzen an Relevanz verlieren.
Die Grenzen von Forschungs- und Wissenspolitik sowie ihre – in ihrer idealtypischen
Trennung – gesonderten strategischen Funktionen in der Gesellschaft nähern sich in Wissensgesellschaften an und verwischen sich (dazu
auch Wehling und Böhme in diesem Schwerpunkt). Politische und sonstige Bemühungen,
Wissen zu regulieren, werden einen Einfluss auf
die Wissenschaftspolitik haben, genau wie die
Wissenschaftspolitik Konsequenzen für die
Wissenspolitik haben wird. Die Wissenschaftspolitik des Tages spiegelt die herrschenden politischen Befindlichkeiten wie etwa ökonomische,
soziale und umweltrelevante Zielsetzungen so-
Seite 10
wie die praxisrelevanten Möglichkeiten des
Wissenschaftssystems wider, effektiv auf solche
Anforderungen aus der Gesellschaft zu reagieren oder sie zurückzudrängen. Der Grad der
Abschottung von Wissenschaft und Gesellschaft
wird sich in Zukunft weiter verringern, die
Grenzen der Wissenschaften werden poröser
und die Häufigkeit und Intensität des gegenseitigen Austausches wird zunehmen.
Dass die Grenzen zwischen Wissenschaft,
Politik und Ökonomie dynamisch und durchlässig geworden sind, zeigt sich besonders
deutlich am Beispiel der Produktion von Erkenntnissen. Und zwar gilt dies insbesondere
für Prozesse der Konsensbildung, der Überwindung von kognitiven Differenzen oder der
Entwicklung von dann nicht weiter kontroversen Fakten in wissenschaftlichen Spezialgebieten, bei denen Außenseitern, Nicht-Wissenschaftlern und systemfremden Gruppen ein
wachsender Einfluss zukommt. Eine mehr oder
weniger unmittelbare Intervention nichtwissenschaftlicher Akteure in das wissenschaftliche Geschehen wird besonders deutlich
in der problemorientierten Forschung wie zum
Beispiel in der Umweltforschung, der Risikoforschung und in den Versuchen, die Folgen
der Technologieentwicklung einzuschätzen.
Bestimmte Felder der Medizinforschung liefern
weitere Beispiele für die durchlässiger werdenden Grenzen der modernen Wissenschaft. In
Frankreich zum Beispiel haben die Aktivitäten
organisierter Gruppen von an Muskelschwund
erkrankten Patienten zu umfangreichen Forschungsinvestitionen in die Molekularbiologie
und die Genomforschung geführt.
8 Perspektiven
Bisherige Formen der Wissenspolitik umfassen
in erster Linie reaktive Strategien und Instrumente gesellschaftlicher Institutionen in Form
von Regulierungsmaßnahmen, Gesetzen, richterlichen Entscheidungen oder sozialer Bewegungen. Die reaktiven Strategien der Einflussnahme durch Regeln und Sanktionen erstrecken sich auf wissenschaftliche Erkenntnisse
und technische Artefakte, die schon weitgehend entwickelt, umgesetzt und am Markt vorhanden sind.
Die zukünftige Wissenspolitik wird dagegen zunehmend auf neue Erkenntnisse und
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
technische Erfindungen reagieren, deren gesellschaftliche Funktionen und Folgen strittig sind.
Die gesellschaftlichen Auswirkungen von neuen Erkenntnissen sind nicht mehr unbedingt
Motor von Veränderungen, sondern müssen
erst antizipiert werden und die Regeln, für die
man sich entscheidet, müssen antizipatorische
Kontrollen sein. Die vorrangige Frage in dem
neuen Politikfeld wird sein, ob wir neue Erkenntnisse überhaupt verwenden sollen und
nicht, wie man sie am besten verwerten kann.
Darüber hinaus ist die grundsätzliche Frage,
wie man wissenspolitische Maßnahmen in einer demokratischen Gesellschaft überhaupt
organisieren kann.
Wie massiv und signifikant die Entwicklung in Umfang und Bandbreite der menschlichen Handlungsmöglichkeiten im Verlauf von
nur einem Jahrhundert sein kann, lässt sich an
Folgendem illustrieren: 1945 war es Menschen
möglich, Leben in umfassender Weise zu zerstören; 2045 wird es wahrscheinlich möglich
sein, Leben in umfassender Form zu schöpfen.
Die Geschwindigkeit, mit der neue und neuartige Handlungsmöglichkeiten geschaffen werden, zwingt uns, so hat es den Anschein, nicht
nur unser Selbstverständnis zu ändern, sondern
auch, was noch weiter reichende Folgen haben
wird, unsere eigene Natur. Die Versprechen
und die Ängste, die mit dieser Entwicklung in
engem Zusammenhang stehen, sind der Motor
des entstehenden Politikfeldes der Wissenspolitik. Die Grenzen dessen, was einmal jenseits
der Kontrolle des Menschen war, verschieben
sich rapide.
Die politische Landschaft wird sich als Resultat wissenschaftlicher und technischer Entdeckungen und Erfindungen ändern. Regierungen
werden gezwungen sein, sich neuen Standards
zu stellen, neue Regeln zu entwickeln und sich
am Erfolg neuer Aufgaben messen zu lassen.
Der Nationalstaat wird für die Wissenspolitik
zwar weiter von Bedeutung sein, aber nicht
mehr hauptsächlich als autonomer Akteur. Vielmehr wird der Nationalstaat zunehmend die
wissenspolitischen Vorgaben und Forderungen
globaler Institutionen, internationaler Vereinbarungen und sozialer Bewegungen umsetzen.
Allerdings, und auch dies ist unschwer zu erkennen, wird das Tempo, mit dem neue Probleme wachsen, weitaus höher sein als das, mit
dem wissenspolitische Lösungen akkumulieren.
Ob es aber in hoch differenzierten modernen Gesellschaften überhaupt eine (effektive)
Wissenspolitik geben mag, wird die Zukunft
zeigen. Möglicherweise muss man daran arbeiten, die Reflexionsleistungen innerhalb der Wissenschaft mit dem Ziel zu stärken, die praktische
Umsetzung neuer Erkenntnisse auf bestimmte
Ziele zu relativieren, d. h. die „Wachstum auslösenden Impulse unter Kontrolle zu bringen und
die Funktion so zu interpretieren, dass Verzichte
auf Funktionserfüllung miteinbezogen sind“
(Luhmann [1981] 1987, S. 62). Und das ist ohne
Zweifel eine Sisyphusarbeit ersten Ranges.
9 Zu den Beiträgen
Die Forderung nach einer Wissenspolitik als ein
eigenständiges Handlungs- und Reflexionsfeld
in der Gesellschaft speist sich aus dem Wandel
der Wissensproduktion und der zunehmenden
Integration wissenschaftlichen Wissens in die
unterschiedlichsten gesellschaftlichen Bereiche. Dabei haben wir mindestens drei Trends
ausgemacht, die dazu beigetragen haben, dass
wir von einer sich herausbildenden Wissensgesellschaft sprechen können.
Zum einen zeigt sich, zum großen Teil bedingt durch die neuen Informations- und
Kommunikationstechnologien, ein ungeheurer
Zuwachs an verfügbarem Wissen. Es entstehen
neue Formen der Wissensproduktion, die nicht
mehr allein auf das Universitäts- und Forschungssystem beschränkt bleiben.
Zum anderen kann man eine zunehmende
Funktionalisierung des Wissens nach Nützlichkeitsgesichtspunkten und Entscheidungsbedarf
beobachten. Wissen soll handlungsrelevant im
weitesten Sinne des Wortes sein.
Drittens wird Wissenschaft und Forschung
moralisch und ethisch unmittelbar relevant,
indem in ihren fortgeschrittensten Erscheinungsformen (Bio- und Gentechnik, Nanotechnologie und Hirnforschung) die Grenze zwischen Mensch und Natur zu verschwimmen
scheint. In den Worten von Habermas: „[Sie]
lösen Grenzziehungen und Zusammenhänge
auf, die uns bisher in unserem Alltagshandeln
als geradezu transzendental notwendig erschienen. Auf der einen Seite verschmilzt organisch
Gewachsenes mit technisch Gemachtem, auf
der anderen Seite wird die Produktivität des
menschlichen Geistes von der erlebenden Sub-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 11
SCHWERPUNKTTHEMA
jektivität abgespalten“ (2003, S.76). Habermas
sieht hier die Gefahr einer Technisierung der
menschlichen Natur, die ein verändertes Selbstverständnis der Gattung erzeugen würde, das
nicht mehr mit unseren Normen und Werten
vereinbar ist, die sich in einem langen evolutionären Prozess herausgebildet haben und denen das frei verantwortlich handelnde Individuum mit seine Freiheitsrechten zugrunde liegt.
Wissenspolitik als eine neue Form der Governance von Wissen hätte diese drei Bezüge:
Institution, Praxisrelevanz und Weltbildfunktion
(moralische Orientierung) des in der Gesellschaft laufend neu produzierten und angewandten Wissens zu reflektierten und im Medium des
öffentlichen Diskurses zu regulieren.
Die in diesem Themenschwerpunkt versammelten Beiträge versuchen von diesen unterschiedlichen Sichtweisen das Thema Wissenspolitik zu erfassen. Das neu entstehende
Feld ist nicht nur durch differierende Ansätze
gekennzeichnet, sondern hier kann man auch
kulturelle Differenzen im Hinblick darauf feststellen, wie das Problem einer zunehmenden
Moralisierung und Regulierung der Wissenspolitik wissenschaftlich behandelt wird. Während
die deutsche Debatte prinzipieller verläuft und
unmittelbar in Richtung einer Ethisierung der
Wissenschaft zielt (Böhme in diesem Schwerpunkt; Habermas 2001) oder Wissenspolitik in
die Perspektive einer zweiten Modernisierung
gerückt wird (Wehling in diesem Schwerpunkt)
verläuft die amerikanische Diskussion pragmatischer, empirischer und stark auf den Einzelfall bezogen. Gleichwohl teilen auch die angelsächsischen Autoren die Ansicht, dass Wissenspolitik Regulationspolitik ist, nur sind sie
bei Fragen der Einriffe in das Wissenschaftssystem offener und vermeiden eine direkte
Moralisierung der Wissenschaft.
Moralisierung der Wissenschaft als gesellschaftliches Unternehmen ist Gernot Böhmes
Vorschlag für eine Erneuerung der Wissenschaftspolitik, worunter er das Errichten von
moralischen Institutionen durch den politischöffentlichen Diskurs versteht, um so der Moral
einen legitimen gesellschaftlichen Ort zu verschaffen. Wissenschaftliche Entwicklung und
technische Innovationen können auf diese Weise
dem moralischen Räsonnement zugänglich gemacht werden. Die öffentliche Debatte der Wissenschaftsentwicklung und deren Wendung ins
Seite 12
Moralische sind für ihn deswegen unabdingbar,
da die Verschmelzung von Alltagsleben und von
Wissenschaft und Technik tief in unser gesellschaftliches Selbstverständnis eingreift und sowohl die Lebensumstände als auch die traditionellen Wertordnung radikal verändert.
Steve Fuller analysiert das Problem der
Wissenspolitik von einer anderen, der institutionellen Seite. Am Beispiel der Universität als
„an institution of knowledge governance“ zeigt
er den widersprüchlichen Zyklus der Produktion und Nutzung des Wissens auf. Sich beziehend auf Schumpeter und Sombart betrachtet er
diesen Prozess als ein laufendes Ineinandergreifen von Produktion und Zerstörung von
„sozialem Kapital“. Die Universität, institutionalisiert durch zwei unterschiedliche Rollensets, die des Forschers und die des Lehrenden,
erzeugt einen endlosen Kreislauf: Als Forschungseinrichtung produziert die Universität
Wissen, innovatives Wissen, das sie aber als
öffentliches Gut (social capital) anbieten muss,
indem es publiziert, gelehrt oder auf sonstige
Weise der Allgemeinheit zugängig gemacht
wird. Damit verliert es aber seine Exklusivität
und seinen Wert. Meist wird auch noch die
Position des Innovators untergraben.
William Leiss versucht nicht wie Böhme
die Produktion und Anwendung neuen Wissens
über Moralisierung zu regulieren. Indem er alte
und neue Risiken mit möglicherweise katastrophalen Folgen unterscheidet, wendet er sich
direkt dem Problem der gesellschaftlichen Beherrschbarkeit dieser Risiken zu. Moralische
Risiken (moral risks), wie er sie bezeichnet,
gehen von neuen Technologien aus, die die ethische Basis der menschlichen Zivilisation bedrohen und deren negative und „böse“ (evil) Aspekte praktisch unbegrenzt sind. Ihre besonderen Gefahren sieht er in der Unmöglichkeit ihre
Kontrolle, ohne dabei die demokratischen
Grundlagen der Gesellschaft zu zerstören. Neue
Technologien werden nicht mehr zentral durch
den Staat produziert, wie Atomwaffen oder die
Kernenergie, sie können auch nicht mehr durch
staatliche Instanzen überwacht und kontrolliert
werden, da sie dezentral, in privaten Firmen und
Unternehmen weltweit entwickelt und auf den
Markt gebracht werden. Gentechnologie aber
auch die Informations- und Kommunikationstechnologien aufgrund ihrer Querschnittsfunktion, Dezentralität und verhältnismäßig leichten
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
Reproduzierbarkeit sind tendenziell gefährliche
und kaum kontrollierbare Techniken.
Die Rede von Risiken bezieht sich zum einen auf die möglicherweise unkontrollierten
Folgen einer Produktion und Freisetzung gentechnisch manipulierter Organismen in die Umwelt. Zum anderen wird damit aber gleichzeitig
– diesmal als Chancen der Gentechnologie formuliert – der Anspruch erhoben, auf gentechnologischem Weg zur Eindämmung und Kontrolle
gesellschaftlicher Gefahren wie Krankheiten
oder Verhaltens- und Normabweichungen beizutragen. Die gentechnologische Praxis ist also
auch in dem Sinne eine Risikotechnologie, als
sie soziale „Risiken“ mit technischen Mitteln zu
bekämpfen sucht. Gene werden für Phänomene
verantwortlich gemacht, von denen bisher angenommen wurde, dass sie soziale, psychologische
oder ökologische Ursachen haben.
An diesem Punkt setzt Troy Duster an. Er
untersucht die kulturelle und politische Bedeutung des genetischen Reduktionismus. Auf der
Grundlage der Molekularbiologie können traditionelle Formen von rassistischer oder sexistischer Herrschaft erneuert werden. Es ist grundsätzlich möglich, mit Hilfe der Erkenntnisse
der Molekularbiologie Menschen von ihrer
strafrechtlichen, moralischen oder politischen
Verantwortung zu entlasten, aber sie kann auch
als Mittel dazu dienen, massive soziale Ausgrenzungen vorzunehmen, da ja hier ein „natürliches Verhalten“ vorliege, dem durch Resozialisierung oder durch Lernprozesse nicht beizukommen sei.
Am Beispiel des Rassenbegriffs zeigt Duster, wie dieser entweder mit Hilfe biologischer
Kategorien oder sozialer Kategorien begründet
wird. Wissenspolitik als Machtstrategie, die
sich jeweils ihre wissenschaftliche Fundierung
von der führenden Leitwissenschaft ausleiht.
Duster nennt das „ Feedback Loops in the Politics of Knowledge Production” und eröffnet der
Wissenssoziologie ein neues Forschungsfeld.
Der Bedarf nach einer Wissenspolitik ist
auch ein Ausdruck der enger werdenden Kopplung der Wissenschaft an die unterschiedlichsten gesellschaftlichen Bereiche: Politik, Wirtschaft, Gesundheitswesen usw. Was unter dem
Schlagwort Verwissenschaftlichung der Gesellschaft abgehandelt wird, stellt sich bei näherem Hinsehen als hochkomplexer dynamischer Prozess dar, in dem ein zunehmender
Distanzverlust von Wissenschaft und Gesellschaft zu beobachten ist, der im Prinzip zu
einer Instrumentalisierung der Wissenschaft für
heterogene Zwecke führen kann, aber auch die
Möglichkeit einer Öffnung der Wissenschaft
gegenüber anderen Wissensformen in der Gesellschaft in sich birgt. Ein wichtiges, aber
höchst umstrittenes Feld bildet hierbei die Integration von Laienwissen in die Produktion
und Legitimation wissenschaftlichen Wissens.
Durch die Kopplung von diesen beiden
Wissensformen können neue reflexive Kooperationsformen gefunden werden, bei denen die
Betroffenengruppen direkt mit in den Forschungsprozess eingebunden werden, wie dies
insbesondere bei der Aidsforschung geschehen
ist (Epstein 1996). Gleichzeitig besteht auch
die Gefahr, dass Betroffene ausgeforscht und
für fremde Interessen eingespannt werden.
Javier Lezaun weist in seinem Beitrag am
Beispiel der Konsumforschung auf die Ambivalenz solcher Wissensgenerierung hin:
„To some observers, consumer research is
partly an instrument to produce knowledge
about the public, and partly a public relations
strategy”. Wissenspolitik hätte hier Formen der
Wissensproduktion zu suchen, die gleichsam
beide Seiten zu ihrem Recht kommen lassen.
Laienwissen trüge dann zur Modifikation der
Forschung und Produkte bei ohne in den Geruch der Akzeptanzbeschaffung zu geraten.
Stephen Turner untersucht in vergleichender Perspektive auf einem allgemeineren
Level die Rolle der Experten auf dem Gebiet der
Wissenspolitik. Am Beispiel der Cholera im 19.
Jahrhundert analysiert er drei unterschiedliche
Muster des Zusammenspiels von Experten, Politik und bürokratischen Strukturen. Er zeigt, wie
die Möglichkeiten der Bekämpfung der Cholera
abhängig sind von der Ausgestaltung der Wissensregime. Nur dort (Beispiel New York) fand
eine effiziente Lösung des Problems statt, wo
die Experten pluralistisch organisiert waren und
die Wissenschaftler miteinander konkurrierten.
Autoritative Wissensregime, mögen sie noch so
hervorragende Wissenschaftler besitzen, stehen
immer in Gefahr, unterkomplexe und einseitige
Strategien zu entwickeln.
Peter Wehling geht in seinem Beitrag von
der Theorie reflexiver Modernisierung (Beck)
aus und sieht das Problem der Wissensordnung
moderner Gesellschaften zum einen in dem
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 13
SCHWERPUNKTTHEMA
rasanten Wachstum des Wissens, das im Wesentlichen durch die Wissenschaft ausgelöst
wurde, zum anderen aber in den dabei mit produzierten Risiken. Mit der Unterscheidung von
innovationsorientierter, regulativer und reflexiver Wissenspolitik versucht er, die bisher etwas
unübersichtliche Diskussion zu ordnen und
gleichzeitig sein Votum für eine reflexive Wissenspolitik zu begründen. Ausgangspunkt seiner Überlegungen ist das dabei mit entstehende
Nichtwissen. Nichtwissen spielt insofern eine
entscheidende Rolle, da Wissensproduktion
immer zugleich auch Nichtwissen mit hervorbringt. Durch die Politisierung des Nichtwissens wird auf eine weitere Risikoquelle der
Wissensproduktion verwiesen und gleichzeitig
die Anerkennung des „Nicht-Wissen-Wollens“
als eine legitime Strategie im Umgang mit neuem Wissen begründet. Ignoranz als eigenständiges Rechtsgut ist die überraschende Pointe
dieses Ansatzes der Wissenspolitik. Am Beispiel der prädiktiven Gendiagnostik zeigt er,
dass das Recht auf Nichtwissen zu einem wichtigen Faktor der genetischen Wissensordnung
geworden ist. Der gesellschaftliche Streit besteht darin, wie weit dieses Recht reichen soll.
Es stellt sich das Problem, ob es ein Recht ist,
das verhindern soll, dass bestimmte genetische
Informationen erzeugt werden, oder ob es nur
das Recht ist, gewisse Information nicht zur
Kenntnis nehmen zu müssen.
Für die Ausgestaltung einer Wissenspolitik
spielt diese Differenz eine entscheidende Rolle.
Im ersten Fall würde es sich um ein Informationserzeugungsverbot handeln, im zweiten Fall
um einen Schutz des Selbstbildes der Person.
Gleich wie dieser Streit entschieden wird, liegt
hier eine prinzipielle Weichenstellung vor, das
Feld für eine reflexive Wissenspolitik zu eröffnen: „…so wird deutlich, dass eine solche Politik mehr beinhaltet als die Mobilisierung, Steuerung oder Überwachung des Wissens. Reflexive
Wissenspolitik kann sich vielmehr als eine „Politik des Nichtwissens“ herausstellen, die die
institutionalisierte Präferenz für Wissen, das auf
Dauer gestellte Bemühen, auftretende Probleme
vorrangig oder ausschließlich durch mehr Wissen zu bewältigen, grundlegend in Frage stellt“
(Wehling in diesem Schwerpunkt). Damit ist
nicht mehr, aber auch nicht weniger gesagt, als
dass die gesamte gesellschaftliche Organisation
der Wissensproduktion auf den Prüfstand ge-
Seite 14
stellt werden soll. Inwieweit dies einer Wissenspolitik, selbst einer reflexiven Wissenspolitik
möglich ist, dürfte sowohl eine theoretische als
auch gleichzeitig eine praktisch-politische Frage
sein, die wiederum nur durch den gesellschaftlichen Diskurs beantwortet werden kann.
Literatur
Barnes, B., 1999: Biotechnology as Expertise. In:
O’Mahony, P. (ed.): Nature, Risks and Responsibility Discourses on Biotechnology. New York: Routledge, S. 52-66
Epstein, S., 1996: Impure Science. AIDS, Activism,
and the Politics of Knowledge. Berkeley, Los Angeles: University of California Press
Habermas, J., 2001: Die Zukunft der menschlichen
Natur. Auf dem Weg zu einer liberalen Eugenik?
Frankfurt a. Main: Suhrkamp
Kaschinski, K.; Spehr, C., 2001: Hoffen, Fürchten,
Kritisieren? Gen- und Biotechnik in der populären
Kultur und die Generationen der Kritik. In: Das
Argument 43, S. 685-700
Lemke, T., 2004: Veranlagung und Verantwortung.
Genetische Diagnose zwischen Selbstbestimmung
und Schicksal. Bielefeld: transkript-Verlag
Lopata, H.L., 1976: Expertization of everyone and
the revolt of the client. In: Sociological Quarterly
17, S. 435-447
Mannheim, K., [1929] 1965: Ideologie und Utopie.
Frankfurt a. Main: Schulte-Bulmke
Mitnick, B.M., 1980: The Political Economy of Regulation. Creating, Designing, and Removing Regulatory Forms. New York: Columbia University Press
Reynard, P.C., 2002: Public order and privilege.
Eighteenth-century French roots of environmental
regulation. In: Technology and Culture 43, S. 1-28
Simmel, G., [1907] 1989: Philosophie des Geldes.
Frankfurt a. Main: Suhrkamp (Gesamtausgabe Bd. 6)
Weingart, P.; Engels, A.; Pansegrau, P., 2002: Von
der Hypothese zur Katastrophe. Der anthropogene
Klimawandel im Diskurs zwischen Wissenschaft,
Politik und Massenmedien. Opladen: Leske+Budrich
«
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
Die Moralisierung der Wissenschaftspolitik
von Gernot Böhme, TU Darmstadt
Wenn die Wissenschaftspolitik bisher die
Aufgabe hatte, die Wissenschaft qua Forschung soweit es irgend ging zu fördern, so
geht es jetzt darum, die Forschung zu überwachen, für Forschungsvorhaben Genehmigungsverfahren einzurichten, einen moralischen Konsens über mögliche Forschungen sicherzustellen, die Anwendung
von Forschungsergebnissen zu beschränken und zu kanalisieren. Der Autor stellt
diesen Wandel dar, indem er von der Finalisierungsthese über die Kritik an der Militarisierung der Wissenschaft bis in die Debatten um die Forschung am Leben und den
Umgang mit dem Wissen vom Leben in die
Gegenwart hineinführt. Die Moralisierung
dieser Debatte ist legitim, weil es hier um
Fragen unseres gesellschaftlich geteilten
Selbstverständnisses geht.
Dass wir tatsächlich eine Moralisierung der
Wissenschaftspolitik erleben, wird vielen im
Blick auf die Debatten um die Stammzellenforschung und die Einrichtung eines nationalen
Ethikrates sofort einleuchten. Im Blick auf
diese Entwicklungen hat jüngst der deutschkanadische Soziologe Nico Stehr formuliert:
„Eine der größten politischen Herausforderungen der nächsten Zukunft, eine die Anlass zu
unendlichen Kontroversen geben wird, ist die
Frage einer gesellschaftlichen Überwachung
und Regulierung des Wissens“. Nico Stehr
behauptet, dass wir es in Zukunft nicht bloß
mit Wissenschaftspolitik zu tun haben werden,
dass vielmehr der Umgang mit Wissen selbst
zu einem Politikum wird. Wenn die Wissenschaftspolitik bisher die Aufgabe hatte, die
Wissenschaft qua Forschung soweit es irgend
ging zu fördern, unter der Bedingung knapper
Mittel Prioritäten zu setzen und ein innovatives
Klima zu schaffen, so geht es jetzt darum, die
Forschung zu überwachen, für Forschungsvorhaben Genehmigungsverfahren einzurichten,
einen moralischen Konsens über mögliche
Forschungen sicherzustellen, die Anwendung
von Forschungsergebnissen zu beschränken
und zu kanalisieren. Man könnte sagen, es geht
um Wissensmanagement, aber das wäre ein zu
schwacher Ausdruck. Genauer gesagt geht es
darum beständig auszuhandeln, was wir überhaupt wissen wollen und welche Anwendungen
von Wissen wir als legitim ansehen. Es geht
darum, einen gesellschaftlichen Konsens zu
finden, aufgrund dessen die Erzeugung und
Anwendung von Wissen geregelt wird. Diese
Verschiebung im Verhältnis von Wissenschaft
und Gesellschaft hat einen Grund in einer Tatsache, die mir Anlass gegeben hat, von einem
Ende des Bacon’schen Zeitalters zu sprechen
(Böhme 1993): Das Vertrauen, das seit Francis
Bacon die Beziehung von Wissenschaft und
Gesellschaft getragen hat, ist zerbrochen, nämlich das Vertrauen darauf, dass wissenschaftlicher Fortschritt in jedem Fall zugleich humaner
und gesellschaftlicher Fortschritt sein werde.
Wenn wir heute Anlass haben, von einer
Moralisierung der Wissenschaftspolitik zu sprechen, so kann das keinesfalls bedeuten, dass
etwa Politik durch Moral ersetzt würde. Insbesondere geht es hier nicht um die Moral des
einzelnen Wissenschaftlers. Da viel für die richtige Einschätzung der gegenwärtigen Moralisierung der Wissenschaftspolitik davon abhängt,
dass man dieses letztere Missverständnis abhält,
möchte ich auf diesen Punkt etwas genauer eingehen: Der Appell an die Moral des einzelnen
Wissenschaftlers ist häufig eine Verlegenheit
oder ein Ausdruck der Verzweiflung, an den
institutionellen Bedingungen der Wissenschaftsentwicklung nichts ändern zu können. Man erwartet vom einzelnen Wissenschaftler, dass er
verantwortungsvoll sein Handwerk betreibe,
bzw. der einzelne Wissenschaftler, der sich außer Stande sieht, eine Entwicklung in der Wissenschaft, die er für bedenklich hält, zu ändern,
versucht durch individuelle Verweigerung wenigstens das zu tun, was in seiner Reichweite
liegt. Für letzteres ist die Verweigerung von
Naturwissenschaftlern und Technikern gegenüber der Rüstungsforschung ein charakteristisches Beispiel – ich werde darauf zurückkommen. Ein anderes Beispiel ist die Boykottierung
von Tierversuchen bzw. der Vivisektion, wie sie
verschiedentlich von Medizinstudenten geübt
wurde. Solche Aktionen sind allenfalls Zeichen,
die bei entsprechender Publizität vielleicht ein
Umdenken im größeren Rahmen initiieren können. Wirkungsvoller sind da schon kollektive
Selbstbindungen von ganzen Wissenschaftlergruppen, etwa bestimmte Experimente Sorg-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 15
SCHWERPUNKTTHEMA
faltsregeln zu unterwerfen bzw. in einer Forschungsrichtung ein Moratorium einzulegen1.
Skeptisch gegenüber all diesen Versuchen individueller Moralisierung stimmen die Ergebnisse,
die die Wissenschaftssoziologen Stephen Box
und Stephen Cotgrove seinerzeit gewonnen
haben. Box und Cotgrove haben empirisch untersucht, welche Wirksamkeit die Grundnormen
der Wissenschaft für das konkrete Verhalten von
Wissenschaftlern haben. Ihr Ergebnis war deprimierend: Sie konnten zeigen, dass Wissenschaftler zumindest im Konfliktfall nicht den
generellen wissenschaftlichen Normen folgen,
sondern jeweils den Normen der Institution, die
sie beschäftigt (Box und Cotgrove 1966).
Die Moralisierung der Wissenschaftspolitik bedeutet also nicht die Ersetzung von Politik durch Moral, insbesondere nicht durch die
Moral des Einzelnen. Es geht vielmehr darum,
dass in den öffentlichen Auseinandersetzungen
um die Entwicklung von Wissenschaft moralische Argumente eine Bedeutung gewinnen.
Das heißt aber: im Verhältnis von Wissenschaft
und Gesellschaft hat sich etwas geändert, die
Wissenschaft ist nicht mehr einfach als ein
Instrument gesellschaftlichen Fortschritts anzusehen. Wie ist es dazu gekommen?
1 Die Finalisierung der Wissenschaft in
den 60er und 70er Jahren des 20. Jahrhunderts
In den 60er und 70er Jahres des 20. Jahrhunderts
gab es außerordentliche Erwartungen an die
Entwicklung der Wissenschaft – es war vielleicht die letzte Periode, in der man die Lösung
aller gesellschaftlichen Probleme von der Wissenschaft erwartete. Da ist als erstes das Programm der grünen Revolution zu nennen. Es
handelte sich um die Vorstellung, dass man
durch die Entwicklung der Agrarwissenschaft –
Anbaumethoden, Saatgutentwicklung, Düngemittel, Pestizide – die landwirtschaftlichen Erträge weltweit so würde steigern können, dass
das Welthungerproblem gelöst würde. Da ist als
nächstes die Hoffnung zu nennen, die man in
die sog. friedliche Entwicklung der Kernkraft
investierte. Man glaubte, dass in Zukunft durch
Kernkraftwerke, insbesondere durch Fusionsreaktoren Energie in unbeschränktem Maße zur
Verfügung stehen würde. Alle anderen Probleme könnten dann durch die praktisch unend-
Seite 16
lich zur Verfügung stehenden Energien gelöst
werden. Dieser Gedanke ist nicht ganz absurd.
So können natürlich etwa das Abwasser- und
Müllproblem und die Versorgung mit Trinkwasser durch Recyclinganlagen und Meerwasser-Entsalzung im Prinzip gelöst werden. Ferner
können Umweltschäden durch Rekultivierung
bzw. Renaturierung beseitigt werden, vorausgesetzt man hat beliebig viel Energie zur Verfügung, deren Herstellung nicht wiederum
andere Umweltschäden erzeugt. Nur eben die
letzte Bedingung ließ sich nicht erfüllen und
zudem ist bis heute die friedliche Kernfusion
nicht gelungen. Schließlich die dritte große
Hoffnung: Die Hoffnung, die man auf Robotik
und Kybernetik setzte oder allgemeiner auf die
Automatisierung aller Produktion. Es war die
große Hoffnung auf Abschaffung der Fabrikarbeit, durch die die menschliche Arbeit zu sich
selbst befreit werden sollte, nämlich in reine
Kreativität und allenfalls noch Regelungs- und
Wartungsarbeit transformiert. All diese Hoffnungen haben sich nicht erfüllt.
Aber damals in den 60er/70er Jahren war
die Erwartung an die Wissenschaft so groß, dass
die zentrale Frage der Wissenschaftspolitik darin
bestand, ob der wissenschaftliche Fortschritt auf
gesellschaftliche Zwecke hin steuerbar sei. Dies
war die Frage, auf die die sog. Finalisierungstheorie (Böhme, Daele, Krohn 1973) eine Antwort zu geben suchte. In Fortsetzung der Theorie wissenschaftlicher Revolutionen von Thomas Kuhn hatten ihre Autoren ein 3-PhasenModell der Wissenschaftsentwicklung aufgestellt. In der ersten Phase ist die Wissenschaft
insbesondere durch die Wahl ihrer Gegenstände
sehr wohl von gesellschaftlichen Einflüssen
abhängig. In der mittleren Phase, in der sich für
eine wissenschaftliche Disziplin ein theoretisches Paradigma herausbildet, ist sie weitgehend
autonom: Problemerzeugung und Theorieselektion sind wesentlich eine Angelegenheit der
Scientific Community. Ist aber einmal eine Disziplin zu einer gewissen theoretischen Reife
gelangt, dann ist ihre weitere Entwicklung, nämlich in Richtung auf Anwendung und Spezialisierung, wiederum von gesellschaftlichen Einflüssen abhängig; mehr noch sogar: auf sie angewiesen. Das ist die dritte Phase der Wissenschaftsentwicklung.
Heute im Rückblick erscheint diese Theorie
nahezu trivial. Sie beschreibt eigentlich nur was
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
ohnehin geschieht, nämlich dass die Wissenschaft wesentlich als ein Instrument zu gesellschaftlichen Zwecken entwickelt wird. Davon
ist nur ein relativ schmaler Sektor autonomer
Wissenschaft ausgenommen, in dem es um die
Etablierung gewisser grundlegender Theorien
geht. Jedoch, die Konsequenzen dieser Beschreibung sind noch immer brisant. Zum einen:
wenn Wissenschaft zu gesellschaftlichen Zwecken entwickelt wird, fragt man sich, um wessen
Zwecke es sich handelt. Die Gesellschaft kennt
Fraktionen und nur selten bildet sich ein Konsens über einen gesamtgesellschaftlichen Nutzen
heraus. Zum anderen: wenn Wissenschaft zu
gesellschaftlichen Zwecken, die in der Regel
Zwecke gewisser Fraktionen der Gesellschaft
sind, sich entwickelt, welche Zwecke werden
dann nicht erreicht, welche gesellschaftlichen
Fraktionen werden von der Wissenschaft nicht
bedient, welche Fragen werden nicht erforscht?
Und zum Dritten folgt aus der Finalisierungstheorie, dass die Wissenschaft zwar ein Instrument der Gesellschaft, aber keineswegs ein
neutrales ist. Letzteres war ja in den umfänglichen Diskussionen über Verantwortung in der
Wissenschaft immer wieder unterstellt worden,
nämlich dass die Wissenschaft zwar ein Instrument sei, aber gerade als solches wertneutral, so
dass die Verantwortung für die Wissenschaft
letzten Endes nicht bei der Forschung, sondern
bei der Anwendung läge. Wenn Wissenschaft,
wie die Finalisierungstheorie behauptete, um
nützlich zu sein, bereits auf bestimmte Anwendungen hin entwickelt werden muss, dann wird
sie nicht ohne weiteres für andere Anwendungen
zur Verfügung stehen. Der drastische Fall für
diese Asymmetrie ist der Fall der Kernfusion.
Die Wasserstoffbombe hat man seit 1952, die
friedliche Kernfusion dagegen ist bis heute nicht
gelungen.
Es sind diese Konsequenzen, die bereits
damals die Wissenschaftsentwicklung in moralische Perspektiven rückte. Man kann sagen: Die
Moralisierung setzte ein als Wissenschaftskritik.
Die Kritik der Wissenschaft unter der Frage, zu
wessen Nutzen sie betrieben werde, führte zur
Idee der Betroffenen-Wissenschaft – Wissenschaft für die Frauen, Wissenschaft für die Arbeitnehmer – und zur Einrichtung der Wissenschaftsläden, in denen engagierte Wissenschaftler Science for the People machen wollten. Sie
war vor allem Kritik an der Kriegsforschung
und sie klagte insbesondere im Energiesektor
die vernachlässigten Alternativen ein.
2 Individuelle Moralisierung
Die Kritik an der Wissenschaft, ihre Funktionalisierung für Interessen des Kapitals, ihre Verstrickung in die Rüstungsindustrie, ihre ambivalenten Wirkungen im medizinischen Sektor
führte bei vielen Wissenschaftlern zu dem Versuch, Wissenschaft anders zu machen oder gar
eine andere Wissenschaft. Wissenschaftskritik
führte bei vielen Wissenschaftlern zur Überprüfung ihres Selbstverständnisses qua Wissenschaftler. Diese individuelle Moralisierung von
Wissenschaft, deren Wirksamkeit wir bereits
skeptisch erwähnt haben, stellt aber doch eine
wichtige Stufe in Richtung einer Moralisierung
der Wissenschaftspolitik dar, wie wir sie heute
erleben. Die engagierten Wissenschaftler folgten der Maxime, bei sich selbst anzufangen,
wenn man gesellschaftlich etwas erreichen
will. Der nächste Schritt, der eine solche Wissenschaftspolitik von unten darstellt, war der
Zusammenschluss engagierter Wissenschaftler
– etwa in der Organisation Science for the People oder der Vereinigung deutscher Wissenschaftler, der Organisation Naturwissenschaftler für den Frieden, der Atomic Scientists und
der Pugvash-Konferenzen. Hier wurde häufig
durch Satzungen und Erklärungen versucht, das
moralische Engagement der Wissenschaftler
für ganze Gruppen verbindlich zu machen und
insbesondere auf diese Weise in die Öffentlichkeit hinauszuwirken. Charakteristisch für
diese Form der Moralisierung ist die Darmstädter Verweigerungsformel, die in den Jahren
der so genannten Nachrüstung von der Darmstädter Initiative für Abrüstung entworfen wurde und von etwa 130 Wissenschaftlern und
Technikern unterzeichnet wurde:
„Ich erkläre hiermit, dass ich mich im Rahmen meiner Tätigkeit als Wissenschaftler
oder Techniker an der Entwicklung militärischer Rüstung nicht beteiligen will. Ich werde mich vielmehr um eine Aufklärung des
Beitrages meines Fachgebietes zur Rüstungsentwicklung bemühen und der militärischen Verwendung wissenschaftlichen und
technischen
Wissens
entgegenwirken.“
(Burkhardt 1964, S. 229)
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 17
SCHWERPUNKTTHEMA
Diese Erklärung ist ein weiteres Beispiel für
individuelle Moralisierung in der Wissenschaft,
aber sie zeigt doch über die Sammlung gleich
lautender Einzelentscheidungen den Weg zur
kollektiven Entscheidung, die den nächsten
Schritt in Richtung einer Moralisierung des
Umgangs mit Wissenschaft dargestellt.
3 Gesellschaftliche Moralisierung
Der Schritt über den mehr oder weniger großen
Massenprotest gegen die Rüstungsforschung
hinaus wurde gemacht in dem Moment, in dem
eine ganze wissenschaftliche Institution durch
demokratischen Beschluss sich gegen Rüstungsforschung entschied. Dieser Fall ist äußerst lehrreich. Es handelt sich um die Fachhochschule Hamburg, deren Senat 1983/84
folgenden Beschluss fasste: „Die Fachhochschule lehnt die Zusammenarbeit mit Firmen
und Institutionen ab, deren militärische
Zweckbindung erkennbar ist, und führt keine
Untersuchung durch und übernimmt keine Aufträge, die offensichtlich militärischen Zwecken
dienen. Alle neuen Mitglieder sind auf diesen
Beschluss hinzuweisen.“ Ein solcher demokratischer Beschluss einer Institution ist natürlich
das einzig Richtige, wenn man der moralischen
Haltung des einzelnen Wissenschaftlers gegenüber seinem wissenschaftlichen Tun Wirkung
verleihen will und außerdem das von Box und
Cotgrove aufgewiesene Dilemma vermeiden
will, dass der einzelne Wissenschaftler trotz
ggf. anderer moralischer Orientierung den Imperativen der Institution folgt, die ihn beschäftigt. Doch gerade diese Lösung, bei der eine
ganze wissenschaftliche Institution der in ihr
laufenden Forschung eine moralische Orientierung geben wollte, ist gescheitert – musste
scheitern. Sie widersprach nämlich – jedenfalls
war das die Auffassung des damaligen Hamburger Wissenschaftssenators Prof. Klaus Michael Meyer-Abich – dem Grundgesetz. Meyer-Abich hob auf dem Wege der dienstlichen
Rechtsaufsicht den Beschluss des Senats der
Fachhochschule auf. In der Begründung heißt
es: „Der Beschluss des Fachhochschulsenats
verstößt gegen Artikel 5 Abs. 3 des Grundgesetzes. Denn das Grundrecht der Freiheit der
Forschung und der Lehre garantiert den einzelnen forschenden und lehrenden Mitgliedern der
Fachhochschule auch die Beteiligung an Pro-
Seite 18
jekten und Untersuchungen mit militärischen
Zwecken oder Zweckbindungen ...“.2
Das Scheitern der gesellschaftlichen Moralisierung der Wissenschaft machte schlagartig
deutlich, dass die Forschungsfreiheit, wie sie im
Grundgesetz der Bundesrepublik Deutschland
verankert ist, ein individuelles Freiheitsrecht
darstellt. Als solches gehört es in den Kontext
der Meinungsfreiheit, eines für die Demokratie
essentiellen Grundrechtes, wie es im Vormärz
und 1848 in der Paulskirche formuliert wurde.
Für die damalige Zeit war das auch ganz angemessen, insofern in der ersten Hälfte des
19. Jahrhunderts die wesentliche gesellschaftliche Bedeutung von Wissenschaft noch in ihrem
kritischen Potenzial bestand oder, allgemeiner
gefasst, in ihrer Weltbildfunktion. Forschung
wurde als Wahrheitssuche verstanden und war
damit eine wesentliche Voraussetzung für die
Freiheit der Feder und der Rede. Seit dem Anfang des 20. Jahrhunderts hat sich allerdings die
gesellschaftliche Bedeutung von Wissenschaft
wesentlich verändert. Durch die Nähe zur Technik und Industrie ist Forschung Produktivkraftentwicklung geworden. Ferner ist sie gerade in
den wichtigsten Sektoren, und das sind für diese
neue gesellschaftliche Funktion der Wissenschaft die Naturwissenschaften, nicht mehr eine
Sache des Einzelnen: Forschung wurde zum
kollektiven Unternehmen. Diesen fundamentalen Wandel von Wissenschaft im 20. Jahrhundert hat der parlamentarische Rat in der Formulierung des Grundgesetzes offenbar nicht berücksichtigt. Die Forschungsfreiheit wurde weiterhin als Unterparagraph der Meinungs- und
Pressefreiheit formuliert, nämlich als Art. 5
Abs. 3: „Kunst und Wissenschaft, Forschung
und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung.“
Der zweite Satz des Art. 5 Abs. 3 GG
macht deutlich, dass die Forschungsfreiheit
keiner spezifischen Einschränkung unterliegt. Er
verweist lediglich darauf, dass auch der Forscher
wie jeder Bürger an die Verfassung gebunden
ist. Diese Tatsache, dass der parlamentarische
Rat es nicht für nötig befunden hat, eine Möglichkeit der Einschränkung der Forschungsfreiheit zu konzipieren, ist mindestens ebenso erstaunlich wie seine Verkennung der gesellschaftlichen Bedeutung, die die Wissenschaft
des 20. Jahrhunderts erlangt hat: Der Artikel 5
Abs. 3 ist in keiner Weise von den Erfahrungen
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
des Missbrauchs von Wissenschaft unter dem
Naziregime gezeichnet. Es ist, als habe es
Dr. Mengele und die Experimente an und mit
Menschen nicht gegeben. Der Hinweis, dass
solche Versuche an Menschen selbstverständlich
gegen die Menschenwürde (Artikel 1) verstoßen
würden und es deshalb überflüssig sei, eine
entsprechende Einschränkung der Forschungsfreiheit zu formulieren, sticht nicht, weil das
Grundgesetz auch sonst Redundanzen enthält.
So wird bspw. in Artikel 20 Abs. 4 ein Recht
zum Widerstand gegen jeden formuliert, der es
unternimmt, die grundgesetzliche Ordnung zu
beseitigen. Außerdem zeigt sich heute, dass
Einschränkungen der Forschungsfreiheit wünschenswert wären, wo sie nicht schon durch den
Hinweis auf die Menschenwürde zu rechtfertigen sind, nämlich im Umgang mit Leben überhaupt. Das führt uns zu dem zentralen Punkt, der
gegenwärtig zu einer Moralisierung der Wissenschaftspolitik geführt hat.
4 Die Moralisierung der Wissenschaftspolitik
Wenn heute Wissenschaftspolitik nicht mehr die
kluge Regelung des wissenschaftlichen Fortschritts ist, sondern zum Handeln im moralischen Raum wird, dann werden offenbar von
der Wissenschaft essentials unseres geteilten
Selbstverständnisses, also unseres Verständnisses, in welcher Gesellschaft wir leben und was
wir unter würdigem Menschsein verstehen, berührt. In diesem Moment sind moralische Argumente im politischen Diskurs legitim und die
Schaffung moralischer Institutionen zumindest
als Foren eines öffentlichen moralischen Diskurses ist angezeigt, wenn nicht gar geboten. Im
Folgenden soll nun das Grundsätzliche dieser
Wendung der Wissenschaftspolitik ins Moralische skizziert werden. Es sind vor allem, soweit
ich sehe, zwei Entwicklungen, die solche essentials unseres gesellschaftlichen Selbstverständnisses berühren, und zwar einerseits die Privatisierung des Wissens vom Leben und andererseits die Funktionalisierung des menschlichen
Lebens zu Forschungszwecken bzw. innerhalb
von Forschungsvorhaben. Wenn sich angesichts
dieser Entwicklungen ein öffentlicher moralischer Diskurs entfaltet, so muss man nicht glauben, dass es dabei nur um ausformulierte Grundrechte oder Schutzgüter geht, die im Grundge-
setz formuliert sind. Es kann auch durchaus um
tief liegende Tabus gehen oder um moralische
Intuitionen, die bisher noch keine explizite Formulierung gefunden haben. Es ist ohnehin zu
erwarten, dass im Moment der moralischen
Herausforderung moralische Topoi, die bisher
unbewusst oder implizit ihre Wirkung getan
haben, erst zum Bewusstsein kommen und eine
Explikation erfahren.
Es sind also in der Gegenwart im Wesentlichen die Wissenschaften vom Leben, die moralische Sorgen verursachen – wenn man das so
sagen darf. Der erste Bereich der Sorgen hängt
damit zusammen, dass die Naturwissenschaft
allgemein und die Wissenschaft vom Leben
natürlich im Speziellen innerhalb eines Nutzungsinteresses vorangetrieben werden. Gerade
sehr teure Forschungen müssen sich irgendwie
auch rechnen bzw. umgekehrt, sie werden nur
deshalb unternommen, weil man sich von den
Ergebnissen einen ökonomischen Nutzen verspricht. Da Wissen nun im Prinzip öffentlich ist
und gerade wissenschaftliches Wissen nicht nur
allgemein gültig ist, sondern im Prinzip auch
von jedermann angeeignet werden kann, erzwingt das ökonomische Nutzungsinteresse die
Patentierung von Wissen und Verfahren. Das
hat nun dazu geführt, dass Versuche unternommen worden sind, einzelne genmanipulierte
Lebewesen bzw. einzelne Funktionszusammenhänge in Lebewesen unter Patentschutz zu stellen. Diese Versuche sind äußerst umkämpft und
haben nur in einzelnen Fällen bisher wirklich zu
Patenten geführt. Aber der Trend ist klar: Die
Entwickler, seien das nun einzelne Forscher
oder Teams oder Firmen, wollen eine private
Nutzung des von ihnen produzierten Wissens
vom Leben sicherstellen.
Diese Intentionen verstoßen nun offenbar
gegen gewisse tief sitzende moralische Intuitionen. Sie können sich etwa in der Form äußern,
dass jemand sagt: Ein Tier ist doch keine Maschine, ein Tier kann nicht patentiert werden.
Allgemeiner ist die hier gemeinte moralische
Intuition im Entwurf der Bioethikkonvention
der UNESCO von 1995 zum Ausdruck gebracht worden, indem sie das menschliche Genom zum gemeinsamen Erbe der Menschheit
erklärt hat. Dieser Satz kann bedeuten, dass
man das menschliche Genom, d. h. also auch
die genetische Ausstattung eines einzelnen
Menschen, nicht als Privatsache betrachten darf
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 19
SCHWERPUNKTTHEMA
und dass insbesondere nicht einzelne Menschengruppen über das menschliche Genom
nach ihren Interessen verfügen dürfen.3
Eine ähnliche Intuition regt sich bei dem,
was inzwischen unter dem Stichwort intellektuelle Piraterie bekannt ist: Man bezeichnet damit
die wissenschaftliche Aneignung des Wissens
der Einheimischen und dessen anschließende
Patentierung. Auch hier geht es darum, dass ein
bestimmtes Wissen als Allgemeingut angesehen
wird und die Wissenschaft ein solches Wissen
durch die wissenschaftliche Aneignung und
Durchdringung zu etwas macht, auf das dann
der einzelne Wissenschaftler oder seine Institution ein Urheberrecht hat. In beiden genannten
Fällen wird das Wissen vom Leben als eine Art
Allmende angesehen, als ein Allgemeingut, das
es als solches zu erhalten gilt.
Das zweite Beispiel ist die Funktionalisierung menschlichen Lebens im Forschungszusammenhang. Natürlich würde eine solche
Funktionalisierung direkt die Menschenwürde
verletzen, wenn es sich um Experimente an
oder mit Menschen handeln würde. Ein Problem ist hier nur deshalb aufgetreten, weil es
fraglich ist, ob Embryonen außerhalb des Mutterleibes bereits Menschenwürde zuzusprechen
ist. Wenn es sich überhaupt um einen Menschen
handelt, dann ist auch sein Leben gegenüber
einer Funktionalisierung durch Artikel 2.2 GG
geschützt.4 Da man eine embryonale Stammzelle jedenfalls als eine Einheit menschlichen
Lebens verstehen muss, so stellt sich die Frage,
ob menschliches Leben als solches den selben
Schutz genießt, wie das Leben eines Menschen.
Dies ist nun eine Stelle, wo wiederum moralische Intuitionen verletzt werden können. Offenbar empfinden viele Menschen so, dass hier
auch der kategorische Imperativ Kants greift,
der ja jede Funktionalisierung des Menschen
verbietet. Kant formuliert allgemein für vernünftige Wesen: „Dass jedes derselben sich
selbst und alle anderen niemals bloß als Mittel,
sondern jederzeit zugleich als Zweck an sich
selbst behandeln solle.“5 Die moralische Intuition geht nur darüber hinaus, nämlich dass man
überhaupt jede Einheit menschlichen Lebens
niemals bloß als Mittel behandeln darf. Das
aber würde in der verbrauchenden Embryonenforschung geschehen.
Ein weiteres Beispiel, das hiermit zusammenhängt, das man aber vielleicht doch als ei-
Seite 20
nen dritten Typ ansehen sollte, ist die durch die
Fortschritte der genetischen Forschung und der
Gentechnik mögliche Eugenik. Auch hier dürfte
ein Teil des moralischen Widerstandes aus der
Intuition resultieren, dass menschliches Leben
nicht funktionalisiert werden dürfe. Dann wäre
diese Möglichkeit in unserer zweiten Fallgruppe
unterzubringen. In der Bundesrepublik Deutschland gibt es allerdings noch einen anderen moralischen Hintergrund und das ist das Selbstverständnis unserer Gesellschaft oder besser gesagt,
des Staates Bundesrepublik Deutschland, aus
der Überwindung des Faschismus hervorgegangen zu sein. Soweit dieses Selbstverständnis ein
tragender Konsens unserer Gesellschaft ist, darf
man natürlich nicht den Missbrauch, der unter
den Nationalsozialisten mit der Eugenik verbunden war, vergessen. Die grundsätzliche
Möglichkeit dieses Missbrauches und die Notwendigkeit seiner Abwehr sind dann unverzichtbare moralische Eckpfeiler jeder politischen Entscheidung bezüglich der Eugenik.
Diese Skizze dürfte ausreichen, um zu
zeigen, dass die Moralisierung der Wissenschaftspolitik, die wir in der letzten Zeit erlebt
haben, nicht bloß ein Faktum ist, sondern dass
sie legitim und notwenig ist. Die Wissenschaft
selbst ist in eine Phase eingetreten, in der sie
Gegenstände berührt und Wissen und damit
Handlungsmöglichkeiten produziert, die nicht
einfach nur unter dem Gesichtspunkt von Nutzen und Schaden zu betrachten sind, sondern
die Grundlagen unseres menschlichen und gesellschaftlichen Selbstverständnisses berühren.
Anmerkungen
1) Dergleichen wurde unternommen in der Asilomar-Konferenz 1975; zur Auswertung s. The
Scientist 14(7): 3. April 2000
2) Ich habe den Fall näher untersucht in meinem
Aufsatz „Schützt das Grundgesetz die Rüstungsforschung?“ in Eckbert Nickel, Alexander Roßnagel, Bernhard Schlink. (Hrsg.), Die Freiheit
und die Macht – Wissenschaft im Ernstfall, Baden-Baden: Lomos, 1994, Seite 85-92.
3) Siehe dazu mein Buch Ethik im Kontext über den
Umgang mit ernsten Fragen. Frankfurt/Main:
Suhrkamp 2. Aufl.“ Der Satz ist in der endgültigen Fassung durch die blassere Formel ersetzt
worden: Article 4: The human genome in its natural state should not give rice to financial gains.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
4) Artikel 2.2: Jeder hat das Recht auf Leben und
körperliche Unversehrtheit.
5) Imanuel Kant: Grundlegung zur Metaphysik der
Sitten. BA 74/75.
The University as a Creative
Destroyer of Social Capital
by Steve Fuller, University of Warwick, UK
Literatur
Böhme, G., 1993: Am Ende des Baconschen Zeitalters. Studien zur Wissenschaftsentwicklung. Frankfurt a. M.: Suhrkamp
St. Box, St. Cotgrove, 1966: Scientific Identity, Occupational Selections, and Role Strain. In: BJS 17,
pp. 20-38
Böhme, G.; Daele W. v.d.; Krohn, W., 1973: Die
Finalisierung der Wissenschaft. In: Zeitschrift für
Soziologie 2, S. 128 ff.
Burkhardt, A. (Hrsg.), 1964: Hochschule und Rüstung. Ein Beitrag von Wissenschaftlern der Technischen Hochschule Darmstadt zur („Nach“) Rüstungsdebatte. Darmstadt: Verlag Darmstädter Blätter, S. 229
Kontakt
Prof. Dr. Gernot Böhme
Institut für Philosophie
FB 2 – Gesellschafts- und Geschichtswissenschaften
Technische Universität Darmstadt
Schloss, 64283 Darmstadt
Tel.: +49 (0) 61 51 / 16 - 21 97
Fax: +49 (0) 61 51 / 71 58 75
E-Mail: G.Boehme@phil.tu-darmstadt.de
Internet: http://www.ifs.tu-darmstadt.de/phil/
index1.html
»
The university is distinguished as an institution of knowledge governance by its dedication to what the author calls the ‘creative destruction of social capital’. That is, in
their research function, universities create
advantage; in their teaching function, they
destroy it. This dual function has been historically tied to the university’s institutional
autonomy. However, as the university has
incorporated more of society into its activities – and thereby truly universalized the
knowledge it produces – it has opened itself
to factors that threaten to dismember its
institutional integrity. The author considers
a series of these factors in this paper, arguing that their growing significance reflects
the decline of the welfare state and the
emergence of ‘capitalism of the third order’.
This tendency has had many historical
well-wishers, who together reveal liberalism’s instinctive scepticism toward knowledge-bearing institutions combined with an
openness to information technology. Moreover, as the state has shifted its role from
provider of knowledge as public good to
regulator of intellectual property, a curious
rewriting of the politics of knowledge governance has occurred. Thus, much of the
critical thrust of my paper focuses on the
influential claim by Edmund Kitch that
knowledge tends to escape its bearers, unless the state arrests its flight through legislation. Because the exact opposite is truer
to history, the significance of the university
as a knowledge-bearing institution tends to
be grossly underestimated, and hence under threat in these neo-liberal times. The
author addresses this threat in the final
section of the paper, along with some ideas
about how it may be overcome.
1 The University as the Ideal KnowledgeBearing Institution
In the time-honored equation “knowledge is
power”, power involves both the expansion and
contraction of possibilities for action. Knowledge is supposed to expand the knower’s possibilities for action by contracting the possible
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 21
SCHWERPUNKTTHEMA
actions of others. These others may range from
fellow knowers to non-knowing natural and
artificial entities. This broad understanding of
the equation encompasses the interests of all
who have embraced it, including Plato, Bacon,
Comte, and Foucault. But differences arise over
the normative spin given to the equation: Should
the stress be placed on opening or closing possibilities for action? If the former, then the range
of knowers is likely to be restricted; if the latter,
then the range is likely to be extended. After all,
my knowledge provides an advantage over you
only if you do not already possess it. In this
respect, knowledge is what economists call a
positional good (Hirsch 1977), a concept that
will loom large in the pages that follow. In this
context, it helps to explain our rather schizoid
attitudes toward the production and distribution
of knowledge. We do research to expand our
own capacity to act, but we teach in order to free
our students from the actions that have been and
could be taken by others.
By virtue of their dual role as producers
and distributors of knowledge, universities are
engaged in an endless cycle of creating and
destroying “social capital”, that is, the comparative advantage that a group or network enjoys by
virtue of its collective capacity to act on a form
of knowledge (Stehr 1994). Thus, as researchers, academics create social capital because
intellectual innovation necessarily begins life as
an elite product available only to those on the
cutting edge. However, as teachers, academics
destroy social capital by making the innovation
publicly available, thereby diminishing whatever advantage was originally afforded to those
on the cutting edge. Recalling Joseph Schumpeter’s (1950 [1942]) definition of the entrepreneur as the “creative destroyer” of capitalist
markets, the university may be regarded as a
meta-entrepreneurial institution that functions as
the crucible for larger societal change. This process mimics the welfare state’s dual economic
function of subsidizing capitalist production and
redistributing its surplus. Not surprisingly, then,
universities magnified in size and significance
during the heyday of the welfare state, and have
been now thrown into financial and wider institutional uncertainty with the welfare state’s devolution (Krause 1996).
Moreover throughout its history, the university has been institutionally predisposed to
Seite 22
engage in the creative destruction of social capital. In the Middle Ages, they were chartered as
permanent self-governing bodies in a world of
limited sovereign reach. Keeping the peace was
often the most that a realistic sovereign could
hope to achieve. Thus, in exchange for loyalty to
the local ruler, universities were legally permitted to set their own curricula, raise their own
capital, and even help manage the region’s everyday affairs. This was the context in which
universities were chartered as among the first
corporations (i.e., universitates, in Medieval
law). This orientation marked a significant shift
from the much more populous residential colleges of the Islamic world, the madrasas, which
depended on the benefaction of intrusively pious
patrons, or the more venerable, but also more
routinized, training centers for civil servants in
imperial China (Collins 1998). To be sure, like
these institutions of higher learning, the Medieval universities were broadly dedicated to the
reproduction of the social order. However, because the universities were founded in times and
places that were profoundly disordered, academics were immediately thrown into situations
where their words and deeds effectively brokered alternative futures.
Given these origins, it is not surprising that
academics have found it relatively easy to seed
social unrest, which invariably they have interpreted as bringing order to an otherwise disordered situation. Perhaps the signature case of
universities’ imposing order is the Humboldtinspired research-and-teaching university of the
modern era, which is fruitfully conceptualized as
a social technology for incorporating large segments of the population into the production and
distribution of knowledge (Fuller 2002b). For
example, exemplary works by eccentric geniuses were transformed into employment
schemes for ordinary trainee academics. Kuhn
would later call this routinization the “disciplinary matrix” sense of “paradigm,” which has
become the backbone of modern graduate education (also known as normal science). Thus,
modern academia transformed Newton’s Principia Mathematica from an imperfectly realized
masterwork to a blueprint for a collectively realizable project. More generally, this attempt to
cast the university as a social technology for
truly universal knowledge has accelerated the
institution’s tendency to drift from what I have
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
called a monastic to a priestly mode (Fuller
2000a: chap. 5; Fuller 2002a: chap. 4): the former stressing the virtues of institutional autonomy, the latter those of societal transformation.
Perhaps the clearest epistemic marker of
this drift is the benchmark for original research.
In the monastic mode, the inquirer’s empirical
resources are typically confined to the university’s grounds, which means a reliance on the
campus library or oneself (or sometimes students) as primary databases. Under the circumstances, historical and philosophical studies
provide the via regia to knowledge of the particular and the universal, respectively. But as the
university has extended its political ambitions
into the priestly mode, these two disciplines
were replaced, respectively, by sciences focusing on ethnographic field work and experimental
laboratory work. Accordingly, universities have
undertaken substantial commitments to transform and govern areas, or “sites,” often far offcampus. This has not only driven a physical and
psychological wedge between the university’s
teaching and research functions, but it has also
recast the university as a participant in power
structures about which many of its staff, over the
years, have had serious reservations. Yet, at the
same time, staff loyalty to particular universities
has diminished, so that nowadays complainants
are more inclined to look toward the greener
pastures of other campuses than to try to reform
their current institution.
However, the most obvious recent university policy that illustrates the university’s
priestly mission is affirmative action legislation,
which quite explicitly takes forward the university’s regulative ideal of creatively destroying
societal advantage by giving priority to traditionally underprivileged groups in the hiring and
promotion of academic staff, as well as the selection and sometimes even evaluation of students (Faundez 1994). This point, which generally goes unappreciated by the policy’s many
critics, highlights the distinctive sense in which
universities (and other chartered corporations)
have participated in the more general processes
of societal reproduction. For, here we have a
legally self-perpetuating social institution whose
process of inter-generational role replacement is
not family-based. In other words, universities
are pioneers in the decoupling of social reproduction from biological reproduction.
2 The Knowledge Society as Capitalism of
the Third Order
To understand the integral role of universities to
the latest phase of capitalism, consider two general ways of thinking about the nature of capitalism. The more familiar one is a first-order account about how producers are engaged in perpetual – and largely self-defeating (according to
Marxists) – competition to make the most out of
the least, and thereby generate the greatest return on investment, also known as ‘profits’.
Whatever its other merits, this account takes for
granted that the relative standing of competing
producers is self-evident, so that no additional
work is required to identify the ‘market leaders’.
But in fact, such work is needed. This secondorder account of how producers publicly demonstrate their productivity is the context in
which ‘capitalism’ was coined by Max Weber’s
great German rival, Werner Sombart, in 1902
(Grundmann and Stehr 2001). What contemporaries, notably Thorstein Veblen, derided as the
‘conspicuous consumption’ of successful capitalists, Sombart treated as the principal means
by which capitalists displayed their social standing in a world where social structure was no
longer reproduced as a system of fixed heritable
differences. Thus, capitalists had to spend more
in order to appear more successful.
However, it would be misleading to think
of these expenditures as allowing capitalists to
luxuriate in their success. On the contrary, it
spurred them to be more productive in the ordinary, first-order sense, since their competitors were quickly acquiring comparable, if not
better, consumer goods. Indeed, before long,
the competition was so intense that it became
necessary to spend on acquiring the connoisseurship needed to purchase goods that will be
seen – by those who know how to see – as
ahead of the competition’s purchases. By the
time we reach this ‘third-order’ capitalism, we
are at the frontier of the knowledge society.
That the ‘knowledge society’ might be a more
polite way of referring to third-order capitalism
should not be prima facie surprising. After all,
the founding father of scientometrics, Derek de
Solla Price, trawled through the welter of national economic statistics, only to find that the
indicator that showed the strongest positive
correlation with research productivity was not a
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 23
SCHWERPUNKTTHEMA
measure of industrial productivity, but of electricity consumption per capita (Price 1993;
Fuller 2002a, chap. 1).
A certain vision of economic history is implied in the above account of capitalism. In precapitalist times, consumption was done at the
expense of production, which explained (for
example) the fleeting success of Spain and Portugal as imperial powers. They failed to reinvest
the wealth they gained from overseas; they simply squandered it. In contrast, capitalist consumption is second-order production supported
on the back of increased first-order production.
From a sociological standpoint, the most striking feature of this ‘before-and-after’ story is its
suggestion that capitalism is innovative in altering the sense of responsibility one has for maintaining a common social order. In pre-capitalist
times, this responsibility was, so to speak,
equally distributed across its members, regardless of status. Lords and serfs equally bore the
burden of producing the distinction that enabled
lords to dominate serfs. Expressions like ‘mutual recognition’, ‘respect’, and ‘honour’ capture
this symmetrical sense of responsibility. However, in capitalist times, it would seem that, like
insurance in today’s devolved welfare states,
individuals bear this burden in proportion to
their desire to be protected from status erosion.
Thus, those who would be recognized as superior need to devote increasing effort to a demonstration of their superiority.
This last point becomes especially poignant
in advanced capitalist societies, where at least in
principle the vast majority of people can lead
materially adequate lives while spending less
time and effort on first-order productive pursuits. However, this situation simply leads people to intensify their efforts at second-order
pursuits. As a result, for example, individuals
spend more on education and firms on advertising, even though the advantage they gain in
terms of first-order production is marginal or
temporary. Yet, this expenditure is necessary for
one to be seen as ‘running with the pack’. Thus,
we return to the concept of positional good introduced at the start of this article. The logic of
producing such goods predicts that, over time,
one’s relative status will decline, unless it is
actively maintained, which usually involves
trying to exceed it, thereby raising the absolute
standard that everyone needs to meet. Thus, an
Seite 24
expanded production of positional goods, combined with increased efficiency in the production of material goods, results in the systemically irrational outcomes that we have come to
expect (and perhaps even rationalize) as our
‘knowledge society’. Specifically, the resources
spent on acquiring credentials and marketing
goods come to exceed what is spent on the actual work that these activities are meant to enhance, facilitate, and communicate.
Of course, such a classic case of meansends reversal is not systemically irrational, if it
marks a more-or-less conscious shift in values.
Thus, it may not take much to be persuaded that
we really do produce in order to have something
to sell, and we take up particular jobs in order to
have a platform for showing off our credentials.
The struggle for recognition therefore overtakes
the struggle for survival – the ultimate triumph
of the German over the English tradition in political thought (Fukuyama 1992, chaps. 13-19).
But this point acquires more of a sting in the
case of so-called ‘public goods’, especially
knowledge. In the case of such goods, producers
are (supposedly) not only unable to recover fully
the costs of production, but they would also
incur further costs, were they to restrict consumption of their good. However, I would urge
that so-called public goods be analysed as simply the class of positional goods that most effectively hide their production costs, specifically by
everyone paying into a fund whose actual beneficiaries are undisclosed, perhaps because they
are indeterminate (Fuller 2002a, chap. 1).
This abstract point may be illustrated by
answering a concrete question: Why is Einstein
not entitled to a patent for his theories of relativity? The answer is that Einstein’s theories were
innovative against a body of physical science
whose development had been funded by the
German state through taxation and other public
finance schemes, major beneficiaries of which
were institutions of higher education. These
institutions were, in turn, open to anyone of
sufficient merit, who would then be in a position
to contribute to this body of knowledge. Einstein
happened to take advantage of this opportunity
that was in principle open to all taxpayers. But
even if Einstein had not existed, it would have
been only a matter of time before someone else
would have come along to push back the frontiers of knowledge in a comparable manner. But
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
as long as it remains unclear from what part of
the population the next Einstein is to be drawn,
the public finance of higher education is justified. In that case, Einstein does not deserve the
economic advantage made possible by a patent
because he simply exploited an opportunity that
had been subsidized by his fellow citizens. I
propose this as the ‘deep rationale’ for the production of public goods like university education and research that have been the hallmarks
of welfare state regimes.
3 The Welfare State’s Role in Making
Knowledge Appear “Self-Protective”
That knowledge would be the paradigm case of
a public good is itself no mystery. It may have
required much effort for Edison and Einstein to
come up with their ideas, but once those ideas
were published, anyone could potentially benefit from them. A logical conclusion of this line
of thought, exploited by the U.S. legal theorist
Edmund Kitch (1980), is that knowledge resists
commodification to such an extent that the
state must intervene to restrict its flow through
intellectual property legislation, which ensures
that knowledge producers can reap at least
some of the fruits of their labors. Kitch imagines that knowledge is so naturally protective
of its own interests that, in effect, a special
class of laws is needed to protect knowledge
producers from the knowledge they produce!
Thus, Edison is entitled to a patent because
of the likely commercial benefit afforded by his
ideas, since once I understand how Edison invented the first incandescent light bulb, I am in a
good position to design similar goods more efficiently that can be then sold more cheaply, and
thereby corner a market that would otherwise
belong to Edison. (In the economic history literature, this is sometimes called the “Japan Effect”, whereby it is always better to run second
in unregulated market competition.) But why do
similar worries not arise in the case of Einstein’s
discovery of relativity theory? In other words,
suppose economists took seriously both the
costs of acquiring the training needed to put
Einstein’s theory to any sort of use and the fact
that this training would allow the trainee to earn
a reasonable living as a physics instructor, if not
design a way to supersede Einstein’s theory that
would merit the Nobel Prize. It that case, ques-
tions would be raised, not only about whether
Einstein might not also be entitled to some legal
protection, but also whether knowledge is as
naturally footloose as Kitch and other public
goods theorists make it out to be.
Two interrelated issues need to be explored
here. The first is the source of the difference in
our normative intuitions concerning Edison and
Einstein as knowledge producers: Why should
the former but not the latter be entitled to legal
protection? But the second, more general issue
is the source of Kitch’s influential intuition that
knowledge is inherently “self-protective”. My
response to the first question will lay the
groundwork for answering the second question.
I shall argue that by overlooking the background
political economy of knowledge production,
Kitch’s thesis about the self-protective nature of
knowledge gets matters exactly backwards. In
short, specific, mostly state-based, institutions
(most notably the university) have been required
to ensure that knowledge possesses the sorts of
properties that Kitch personifies as selfprotective. It should come as no surprise that
Paul Samuelson (1969), the most influential
welfare state economist of the post-WWII era,
coined the phrase “public good” (albeit to formalize the only non-protective function that
Adam Smith prescribed for the state), or that the
need for public finance schemes to support scientific research should have been first raised by
a utilitarian philosopher with strong welfarist
concerns, Henry Sidgwick (Lutz 1999, p. 110).
So let us ask: Why is Einstein not entitled
to legal protection? Einstein’s theory of relativity was innovative against a body of physical
science whose development had been funded
by the German state through taxation and other
public finance schemes, the main beneficiaries
of which were institutions of higher education.
These institutions were, in turn, open to anyone
of sufficient merit, who would then be in a
position to contribute to this body of knowledge. Einstein happened to take advantage of
this opportunity. But even if Einstein had not
existed, it would have been only a matter of
time before someone else would have come
along to push back the frontiers of knowledge
in a comparable manner – so it is assumed. But
as long as it remains unclear from what part of
the population the next Einstein is likely to be
drawn, the public finance of higher education is
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 25
SCHWERPUNKTTHEMA
justified (imagine a compulsory lottery). In that
case, Einstein does not deserve the economic
protection afforded by a patent because he exploited an opportunity that had been subsidized
by his fellow citizens.
Now, why would the state have undertaken
such a public finance scheme in the first place?
Here we must resort to some political metaphysics. The state must presuppose that some knowledge is vital to the national interest, yet there is
no natural incentive for any particular citizen to
engage in its pursuit. Therefore, the state must
provide the sort of universalized incentive
scheme exemplified by free public education.
Germany acquired this mindset, courtesy of
Baron Helmut von Moltke, the mastermind of
its victory in the Franco-Prussian War of 187071. Von Moltke argued that a healthy nation was
always ready for “total war”, that is, not merely
strategic engagement with a definite goal in
sight (the classical aim of warfare), but rather
the ongoing removal of any threat to national
security. This was the idea of a “permanent state
of emergency”, which would come to be the
signature stance toward research and education
policy in Cold War America, a period of unprecedented university expansion (Noble 1991).
In a sense, then, Einstein received advance
payment for the theory of relativity by having
been allowed to obtain the training necessary for
making his revolutionary breakthrough. To be
sure, many other people underwent similar training and failed to arrive at anything of comparable significance. But that just underscores the
risk that the state, on behalf of its citizens, undertakes when it raises taxes for mass public
education: There is no guarantee that the benefits will outweigh the costs. In contrast, some
situations that call for new knowledge are sufficiently obvious that citizens, regardless of prior
training, will find it in their self-interest to try to
meet them. In that case, an innovator is vulnerable to similarly oriented individuals who are in
a position to make marginal improvements that
end up displacing the innovator from the market.
Edison’s discoveries occurred in this environment, which justifies his entitlement to a patent.
Now, in either Einstein’s or Edison’s case,
is knowledge self-protective? Clearly not in
Einstein’s case. On the contrary, the state had
to seed opportunities for his kind of knowledge
to be produced. Edison’s case is a bit more
Seite 26
ambiguous, but even here the answer is no.
After all, the only people capable of capitalizing on Edison’s innovation were those who
were already thinking along similar lines.
There is no reason to think that mass publication of the details of Edison’s incandescent
light bulb would have enabled most Americans
to design such a product for home use, let alone
mass consumption.
In order to address the more general question of the source of the idea that knowledge is
somehow self-protective, I begin by returning
to the eighteenth-century European Enlightenment to pose the problem in its most basic
form: Should knowledge production be granted
any special legal protection? What are the
grounds, if any, for the regulation of intellectual property transactions – or, in less economically presumptuous terms, the regulation
of intellectual life? Here laissez-faire and dirigiste responses can be distinguished.
The laissez-faire response is that once
people enjoy sufficient wealth not to have to
live hand-to-mouth, they ought to use their
leisure to improve themselves and the polity.
The implied analogy, perhaps made most explicit in the opening of Aristotle’s Metaphysics,
is the imperative to physical fitness among the
well-fed as a sign of both one’s superior status
and preparedness to defend that superiority in
warfare. Moreover, one would not be capable
of advancing the frontiers of knowledge, were
one not in a position to expend resources on
lines of inquiry that might end up bearing no
fruit. Thus, the fiscal benefit typically granted
to the production of intellectual innovation in
the eighteenth century was a prize, not a salary,
grant, or for that matter, royalty. In other
words, the reward consisted of a largely ceremonial event to mark the formal recognition of
the innovation. Potential rivals for the prize
were presumed to have independent means of
material support, by virtue of either literal or
adopted fathers: i.e., inheritance or patronage.
(This is not the place to explore the Darwiniancum-Freudian implications of this situation.) In
either case, they harbored no expectations of
living off their innovations, as today’s royalty
regimes potentially allow. The contest to solve
some problem left over by Newton was regarded in the spirit of a game, in which even
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
losers never lose so much that they cannot return to compete in the next battle of wits.
The dirigiste response is associated with the
reasoning behind the patent law provision in the
U.S. Constitution. The U.S. founding fathers,
whose perspective on human nature owed more
to Hobbes than Aristotle, did not believe that a
free citizenry would be necessarily inclined
toward the pursuit of knowledge. After all, a
happy existence may be obtained through relatively effortless and unproductive means, like
charging high rents to tenants on one’s property.
At the same time, the founding fathers also believed in the overall benefits of new knowledge
to the progress of the common wealth. This led
to a characteristically eighteenth-century strategy of converting private vices into public virtue
by providing explicit financial incentives for
people to engage in knowledge production,
namely, the temporary monopoly on inventions
afforded by a patent. Moreover, since the main
economic impact of a successful invention is
that it destabilizes, or creatively destroys, markets, as more people seek patents, everyone else
will soon have reason to engage in the same
activity in order to restore their place in the
market. Thus, a lethargic economy dominated
by rent-seekers is quickly transformed into a
dynamic commercial environment.
Both the laissez-faire and dirigiste approaches to the regulation of intellectual life
continue to have cultural resonance today. The
idea that society is best served by individuals
exercising their right to be wrong, a theme that
unites civic republican democracy and Popperian philosophy of science, presupposes that
inquirers are materially insulated from the consequences of their bold conjectures, just as the
laissez-faire approach would have it (Fuller
2000a, chap. 1; Fuller 2002a, chap. 4). More
controversially, the dirigiste sensibility lurks in
the “orientalism” that has led political economists from Adam Smith onward to demonize
the decadence of the East in favor of the industriousness of the West, with Western aristocrats
consigned to the oriental side of the divide.
A feature strikingly common to the laissezfaire and dirigiste Enlightenment approaches to
intellectual property regulation is the absence of
any assumption that knowledge is selfprotective. To be sure, both approaches presuppose that new knowledge is potentially available
to any rational being inclined to pursue it. However, the inclination to inquiry is not itself universal. Certain economic conditions first need to
be in place before the epistemic appetite is whetted. In the dirigiste case, it consists of a financial
incentive to counteract the natural tendency to
gain the most pleasure from the least effort; in
the laissez-faire case, it is simply a generalized
cultural expectation of people who are relatively
secure in their material existence.
So, if that is the view from the Enlightenment, where does the idea of knowledge as selfprotective come from? As so often happens with
our ideas about knowledge, the answer lies in a
syncretistic understanding of history. That is,
factors of rather different origins are treated as
contributing to a common contemporary effect.
I have already indicated the determining
role of what Alvin Gouldner (1970) dubbed the
“welfare-warfare state” in establishing the modern political economy for the production of
knowledge as a public good. Each citizen, simply by virtue of performing the fiscal duties of a
citizen, contributes to the capital needed to produce public goods and, of course, becomes a
potential beneficiary of that investment. However, in fact, most citizens reap modest epistemic returns from their investment, namely, the
assortment of skills that enable them to earn a
living. The identities of the few who benefit as
Einstein did are rather unpredictable, since they
would not necessarily have been in direct contact with the researchers whose work theirs
builds upon or, for that matter, overturns.
Rather, these innovators encounter their precursors secondhand, through textbooks and their
often undistinguished classroom interpreters.
Those still in the grip of Thomas Kuhn’s
mythic history of science easily forget how this
very basic element of knowledge consolidation
and transmission – a textbook usable by the
entire range of a discipline’s practitioners –
first emerged in the context of nation-building
efforts in the late nineteenth century (Olesko
1993). In earlier times, an aspiring intellectual
innovator would not have appeared credible,
had he not made personal contact with a recognized master of the innovator’s discipline. By
such cultish means, disciplinary practitioners
jealously protected their knowledge so that it
could not be easily appropriated by others. And
while these ancient prejudices linger in aca-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 27
SCHWERPUNKTTHEMA
demic hiring practices, the provision of free
public education has sufficiently loosened their
constraint on actual intellectual innovation to
leave the impression that innovators can come
from anywhere, thereby contributing to the
illusion that knowledge is self-protective.
4 Conclusion: Will Universities Survive the
Era of Knowledge Management?
Academics are too easily flattered by talk of
“knowledge management” (Fuller 2002a). They
often think it points to the central role of universities in society. Yet, the phrase signals quite the
opposite – that society is a veritable hotbed of
knowledge production, over which universities
do not enjoy any special privilege or advantage.
Academics have been caught off-guard because
they have traditionally treated knowledge as
something pursued for its own sake, regardless
of cost or consequences. This made sense when
universities were elite institutions and independent inquirers were leisured. However, there is
increasing global pressure to open universities to
the wider public, typically for reasons unrelated
to the pure pursuit of knowledge. Today’s universities are expected to function as dispensers
of credentials and engines of economic growth.
Consequently, academics are no longer in full
control of their performance standards.
In this context, knowledge managers have
their work cut out. Former Fortune editor Tom
Stewart (1997) calls universities “dumb organizations” that have too much "human capital” but not enough “structural capital”. Behind
these buzzwords is the view that a fast food
chain like McDonalds’ is a “smart organization” because it makes the most of its relatively
ill-trained staff through the alchemy of good
management. In contrast, business as usual in
academia proceeds almost exactly in reverse, as
department heads and deans struggle to keep
track of the activities of its overeducated staff.
If a McDonalds’ is much more than the sum of
its parts, a university appears to be much less.
Academics remain largely in denial about
the impact of knowledge management. Nevertheless, the sheer increase in the number of university heads drawn from business and industry
concedes that McDonalds’ and MIT may be, at
least in principle, judged by the same performance standards. A glaring recent example is
Seite 28
Richard Sykes, whose appointment as Rector of
Imperial College London was based largely on
his successful merger of two transnational drugs
companies, Glaxo and Smith-Kline. Not surprisingly, he has recently tried to merge Imperial
and University College London into the UK’s
premier research-led university. Moreover, it is
unreasonable to expect the increasing number of
academics on short-term contracts to defend the
integrity of an institution that cannot promise
them job security. Even Ph.D.s quickly acquire
the survival skills and attitudes of the much less
trained disposable staff one finds at
McDonalds’. Thus, they become quite willing
and able to move for better pay and work conditions (Jacob and Hellstrom 2000).
Indeed, many academics – and not just professional knowledge managers – have endorsed
recent steps taken to disaggregate the unity of
teaching and research that has defined the university since its modern reinvention in early 19th
century Germany. These steps occur daily with
the establishment of each new on-line degree
program and science park – the one reducing the
university to a diploma mill, the other to a patent
factory. Though they pull in opposing directions, these two “post-academic” organizations
share an overriding interest in benefiting those
who can pay at the point of delivery. In this
context, universities appear quite vulnerable, as
they have always been hard-pressed to justify
their existence in such immediate cost-benefit
terms. But it would be a mistake to place all the
blame for this “service provider” view of universities on knowledge managers, or even the
recent wave of neo-liberal ideology.
Academics who nostalgically recall the
flush funding for universities in the heyday of
the welfare state often forget that service provision was precisely what lay behind the appeal
of academia to policymakers. The public was
willing to pay higher taxes because either they
(or, more likely, their children) might qualify
for a course of study that would enable them to
improve their job prospects or academics might
come up with a cure or a technique that would
improve the quality of life in society. The same
mentality operates today, only in an increasingly privatised funding environment.
In short, a Faustian bargain was struck during the era of the welfare-warfare state that was
typically cloaked in a social democratic rhetoric.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
Universities grew to an unprecedented size and
significance, but in return they had become the
premier site of socio-economic reproduction. In
the long term, this bargain has caused the universities to lose their political – and consequently their intellectual – independence, a point
that is increasingly clear with the removal of
state legal and financial protection. After having
been in the service of all taxpayers and judged
by the benefits provided to them, universities are
now being thrown into a global market where
US universities already enjoy a long history of
providing high quality knowledge-based goods
and services on demand.
At least, this is how the shifting political
economy of academia appears from the European side of the Atlantic. It is now common for
university heads to complain that lingering
attachments to the welfare state prevent governments from charging the full student fees
needed to compete with US universities on the
world stage. They seem to assume that Americans are willing to pay a lot for higher education at the best institutions because these have a
long track record of proving themselves in the
marketplace. However, this does not explain
how, say, the Ivy League manages to officially
charge the world’s highest fees, yet require
only a third of the students to pay them. Timehonoured universalist, democratic, and meritocratic ideals may explain why the Ivy League
has this policy, but the mystery for Europeans
is to determine how they have pulled it off.
As it turns out, the European understanding of the American scene – especially at the
elite end – is seriously flawed. What makes the
flaw so serious is that it involves forgetting
what has historically made universities such a
distinctive European contribution to world
culture. I shall return to this shortly. But at an
even more basic level, this flaw should remind
us of the long-term corrosive effect that marginal utility thinking has had on how we conceptualize value. Both welfare state economics
and the current wave of neo-liberalism agree
that the economy is built from transactions in
which the traders are simultaneously trading
with each other and trading off against their
own competing interests. Thus, the rational
economic agent is willing to accept a certain
price, but only for a certain amount of any
good or service. Beyond that point, ‘diminish-
ing returns’ set in and rational agents shift their
spending elsewhere. This means that goods and
services are judged by the prospect of their impact on the consumer in the relative short term.
Such a frame of reference is fundamentally
antithetical to the character of the university.
To their credit, welfare economists have
long realized that their conception of the economy tends to devalue benefits that accrue only
in the long term and especially to others not
intimately connected to the agent (Price 1993).
As we saw in the previous section, the welfare
state conception of universities as both instances and producers of ‘public goods’ was
meant to address this problem by arguing, in
effect, that it is cheaper to indemnify everyone
in a society than to target particular citizens for
providing the costs and enjoying the benefits.
But to unsympathetic neo-liberal ears, this
sounds like a concession that higher education
is a market with an indeterminate price structure. Could this be because producers and consumers are impeded from effectively communicating with each other? Such a suspicion
motivates the knowledge manager’s general
call for the removal of state barriers to the free
competition of universities, which will quickly
force them to restructure and perhaps even
devolve, in the face of market forces.
However, buried beneath this now familiar
line of thought is its anchoring intuition: The
paradigm case of all economic activity is the
exchange of goods that might occur in a
weekly village trade fair between parties trying
to provide for their respective households.
From that standpoint, the main practical problem is how to clear the market so that no one is
left with unsold goods or unmet needs once the
sun goes down. This formulation of the problem makes at least three assumptions that are
alien to the economic situation in which university has (always) found itself:
1. Each trader is both a ‘producer’ and ‘consumer’. In contrast, the two roles are clearly
distinguished in any transaction between a
university and a prospective client, including
a student.
2. No trader wants a surplus of goods, let
alone accumulate as many goods as possible. Unused goods will either rot or be the
target of thieves. In contrast, the sheer accumulation of knowledge – be it in books,
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 29
SCHWERPUNKTTHEMA
brains, or databanks – is central to the university’s mission.
3. There is a cyclical structure to each trader’s
needs that ideally corresponds to the trade
fair’s periodicity. There are no inherently
insatiable desires, only recurrent desires that
are met as they arise. In contrast, the idea of
termination is so foreign to academic inquiry that attempts to arrest or even channel
its conduct have tended to be treated as repressive.
However, universities can be managed as other
than multi-purpose service providers joined to
their clients by discrete transactions that end
once the academic goods have been delivered.
Recall that what originally entitled a university
to corporate status under Roman law (universitas in Latin) was its pursuit of aims that transcend the personal interests of any of its current
members. This enabled universities to raise
their own institutionally earmarked funds,
which were bestowed on individuals who were
"incorporated" on a non-hereditary basis. This
typically required renegotiating one’s identity
through examination or election, as well as
being willing to become something other than
one already is. Along with universities, the
original corporations included churches, religious orders, guilds, and cities. In this respect,
being a student was very much like being a
citizen. Commercial ventures came to be regularly treated as corporations only in the 19th
century. Before then, a business was either a
temporary and targeted venture (akin to a military expedition) or an amplified version of
family inheritance, the default mechanism for
transmitting social status under Roman law.
The corporate origin of universities is of
more than historical interest. The oldest and
most successful US universities were founded
by British religious dissidents for whom the
corporate form of the church was very vivid.
From the 17th century onward, American graduates were cultivated as “alumni” who regard
their time in university as a life-defining process
that they would wish to share with every worthy
candidate. The resulting alumni endowments,
based on the Protestant “tithing” of income,
have provided a fund for allowing successive
generations to enjoy the same opportunity for
enrichment. In return, the alumni receive glossy
magazines, winning sports teams (which the
Seite 30
alumni worship every weekend), free courses,
and nominal – and occasionally not so nominal
– involvement in university policy. Two-thirds
of Ivy League students have their education
subsidized in this fashion. Moreover, the leading
public American universities display similar,
and sometimes even stronger, tendencies in the
same direction. Thus, UCLA, the University of
Michigan, and the University of Virginia are
“public universities” that are 70 % privately
funded, relatively little of which comes from full
payment of student fees.
In contrast, the two main strategies for
“privatizing” the universities in former welfare
state regimes – market-driven tuition fees and
income-based graduate taxes – operate with a
long-term strategy for institutional survival that
is nothing more than a series of short-term
strategies. At most, these compulsory payment
schemes would enable universities to replace
the capital they invest in their students, but
they would also provide little incentive for
graduates to contribute more than had been
invested in them. If anything, such fees and
taxes could become a source of resentment,
non-compliance, and even overall fiscal failure,
since in a world where knowledge is pursued as
a positional good, it becomes harder to justify
high quality university education on a shortterm value-for-money basis.
Therefore, to overcome the knowledge
manager’s jibe that they are dumb organizations,
universities must endeavour to be wholes much
greater than the sum of their parts. At the very
least, this means that a university’s value must
be measured beyond the short-term benefits it
provides for immediate clients, including students. The ideal of uniting teaching and research
promised just such a breadth of organizational
vision, one worth updating today. After all, universities are unique in producing new knowledge (through research) that is then consolidated
and distributed (through teaching). In the former
phase, academia generates new forms of social
advantage and privilege, while in the latter
phase, it eliminates them. This creative destruction of social capital entitles universities to be
called the original entrepreneurial organizations.
However, universities have been neither produced nor maintained in a social vacuum. With
the slow but steady decline of the welfare state,
it is time to recover the university as one of the
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
original corporations, whose style of “privatization” is superior to the “trade fair” model that
has dominated modern economic thought and
today threatens the institution’s integrity.
References
Collins, R., 1998: The Sociology of Philosophies: A
global theory of intellectual change. Cambridge:
Harvard University Press
Faundez, J., 1994: Affirmative Action: International
perspectives. Geneva: International Labour Organization
Fukuyama, F., 1992: The End of History and the
Last Man. New York: Free Press
Fuller, S., 2000a: The Governance of Science. Milton Keynes, U.K.: Open University Press
Fuller, S., 2000b: Thomas Kuhn: A Philosophical
History for Our Times. Chicago: University of Chicago Press
Fuller, S., 2002a: Knowledge Management Foundations. Woburn, Mass: Butterworth-Heinemann
Fuller, S., 2002b: The University: A social technology for producing universal knowledge. Technology in Society 25, pp. 217-234
Gibbons, M.; Limoges, C.; Nowotny, H.; Schwartzman, S.; Scott, P.; Trow, M., 1994: The New Production of Knowledge: The dynamics of science
and research in contemporary societies. London:
Sage Publications
Gouldner, A., 1970: The Coming Crisis in Western
Sociology. New York: Basic Books
Grundmann, R.; Stehr, N., 2001: Why is Werner
Sombart not part of the core of classical sociology?
Journal of Classical Sociology 1, pp. 257-87
Hirsch, F., 1977: The Social Limits to Growth.
London: Routledge and Kegan Paul
Jacob, M.; Hellstrom, Th. (eds.), 2000: The Future
of Knowledge Production in the Academy. Milton
Keynes UK: Open University Press
Kitch, E., 1980: The law and the economics of
rights in valuable information. The Journal of Legal
Studies 9, pp. 683-723
Krause, E., 1996: The Death of the Guilds: Professions, States, and the Advance of Capitalism. New
Haven, Conn.: Yale University Press
Lutz, M., 1999: Economics for the Common Good.
London: Routledge
Noble, D., 1991: The Classroom Arsenal. London:
Falmer Press
Olesko, K., 1993: Tacit Knowledge and School
Formation. In: Geison, G.; Holmes, F. (eds.): Re-
search Schools. Osiris, New Series, Volume 8, Chicago: University of Chicago Press, pp. 16-29
Price, C., 1993: Time, Discounting, and Value.
Oxford: Blackwell
Samuelson, P., 1969: Pure Theory of Public Expenditures and Taxation. In: Margolis, J.; Guitton, H.
(eds.): Public Economics. London: Macmillan, pp.
98-123
Schumpeter, J., 1950 [1942]: Capitalism, Socialism,
and Democracy. New York: Harper and Row
Schumpeter, J., 1961 [1912]: The Theory of Economic Development. Chicago: Galaxy Books
Stehr, N., 1994: Knowledge Societies. London:
Sage Publications
Stewart, Th., 1997: Intellectual Capital. London:
Nicolas Brealey
Contact
Prof. Steve Fuller
Department of Sociology
University of Warwick
Coventry CV4 7AL, United Kingdom
Tel.: +44 - 24 76 / 523 - 940
Fax: +44 - 24 76 / 523 - 497
E-Mail: s.w.fuller@warwick.ac.uk
Internet: http://www.warwick.ac.uk
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
«
Seite 31
SCHWERPUNKTTHEMA
Policing Science: Genetics,
Nanotechnology, Robotics
by William Leiss, McLaughlin Centre for
Risk Assessment, University of Ottawa
The paper opens with the question raised by
Grundmann and Stehr, as to whether “knowledge policy” may include “the aim of limiting, directing into certain paths, or forbidding the application and further development
of knowledge”. It then explores this theme
with reference to contemporary developments in biotechnology and nanotechnology, where the objective of knowledge is to
enable us to create and modify at will biological entities (including humans and combined species known as “chimeras”), as well
as self-assembling mechanical entities, ab
initio through recombinant DNA techniques.
I argue that a new category of risks is created by the promised technological applications of these forms of knowledge, called
“moral risks”, which threatens the ethical
basis of human civilization; these are also
“catastrophic risks”, in that their negative
and evil aspects are virtually unlimited. The
paper asks whether our institutional structures, including international conventions,
are robust enough to be able to contain such
risks within acceptable limits; or alternatively whether these risks themselves should
be regarded as unacceptable, a position
which would impel us to seek to forbid individuals and nations from acquiring and disseminating the knowledge upon which those
technologies are based.
1 Introduction: “Eppur si muove” (“And
yet it moves!”)
At the conference “The Governance of Knowledge”, Essen, Germany, September 5-7, 2001,
Reiner Grundmann and Nico Stehr presented the
background paper “Policing Knowledge: A New
Political Field” which poses “the question of
social surveillance and regulation of knowledge”. They suggest that “knowledge policy”
may include “the aim of limiting, directing into
certain paths, or forbidding the application and
further development of knowledge” (Stehr,
Grundmann 2003; Stehr 2005). If scientific
knowledge is included here, as I assume it is,
this proposition will not be well received. One
of the great founding faiths of modern society is
that of the infinite benefits of the liberation of
Seite 32
the natural sciences from the intellectual and
institutional shackles of dogma, including religion; its inspirational image is that of Galileo
before the Inquisition, forced to recant publicly
his belief about earth’s movement in space, but
unyielding in his mind and certain subjectively
of his ultimate vindication.1 Anyone who seeks
to challenge this faith is in for a rough ride.
Are there forms of knowledge about nature
(including a technological capacity to manipulate nature based on them), now envisioned as
practical possibilities in foreseeable futures, of
which it may be said that they are too dangerous
for humanity to possess? Too dangerous, at
least, in the hands of that radically imperfect
humanity in and around us, including its all-toodelicate veneer of civilization, which now seems
prepared to seek that knowledge? And if so, is it
even conceivable that one could argue for their
suppression on the grounds that, once realized
they will inevitably be deployed, to ends so evil,
running unhindered into the future, as to destroy
the moral basis of civilization?2 I at least am not
ready to answer these questions – although they
are being raised by some in the academic community, especially with reference to biotechnology. An editorial earlier this year in New Scientist, commenting on the inadvertent laboratory
creation of a virulent engineered virus which
could be used as a weapon in biological warfare
(see further discussion below), said:
There’s also the problem that many biologists
choose to ignore biotechnology’s threats….
John Steinbruner of the University of Maryland, College Park, has suggested setting up
bodies to oversee areas of biological research.
Such bodies could question or even stop research, or decide if results should be published. As Steinbruner is well aware, his proposal strikes at the heart of scientific openness
and freedom. But leaving things as they are is
not an option. Biotechnology is beginning to
show an evil grin. Unless we wipe that smile
from its face, we’ll live to regret it.3
Here I wish only to ruminate on specific
themes with reference to a number of potentially catastrophic risks – risks having a dimension that calls into question the future of humanity itself – related to advances in contemporary scientific knowledge.
I define “catastrophic risk” in this sense as
the possibility of harms to humans and other
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
entities that call into question the future viability of existing animal species, including our
own. Thus these are not only risks to the present generations of living animal species, but
also to future (perhaps all future) generations
of presently existing species. One well-known
risk of this type is what has been called “nuclear winter”, the threat of a pervasive environmental catastrophe that could follow a
large-scale exchange of nuclear weapons between the United States and the former Soviet
Union (now Russia), under the doctrine of
“mutually assured destruction.” The hypothesis
of environmental catastrophe was based on the
expectation that the earth’s atmosphere would
become loaded with particulate matter, blocking much of the solar radiation reaching the
earth’s surface, perhaps for a period of years
(such an event is thought to have occurred following the impact of massive asteroids colliding with the earth).4 In addition, of course, the
huge doses of radiation emitted by these exploding weapons would have profound genetic
consequences for plants and animals.
2 The Lords of Creation
Given the existing stockpiles of nuclear weapons, the risks associated with them still exist,
although (in view of the political instability in
Russia) it is difficult to know whether the
probability now is greater or less than before.
But new catastrophic risks are on the horizon,
and these have a fundamentally different character that may require very different institutional responses from us. Their common characteristic, considered as basic and applied science and the technological applications made
possible through them, is that they are all based
on our latest understanding of biological systems through molecular biology. More specifically, their common scientific basis is the capacity to characterize complete genomes and to
manipulate them by means of recombinant
DNA techniques (or to create DNA-like mechanical structures).
The ultimate goal, already envisioned and
set as an objective for research, is a knowledge
of genomics so complete that living entities
(and life-like mechanical entities) could be
constructed, or alternatively deconstructed and
then rebuilt and varied, ab initio. According to
an article published in Science in 1999, researchers working with a microbial parasite
sought to characterize and develop “an organism with a minimal genome, the smallest set of
genes that confers survival and reproduction”:5
But since each of the 300 genes found to be
essential could have multiple functions
(pleiotropism), investigators had no way of
finding the degree of redundancy and whittling the genome down further. The next
logical step: make a synthetic chromosome
of just those genes to build a living cell
from the ground up.
Considered in their human implications, I regard these developments as giving rise to a new
type of catastrophic risk, which I have called
“moral risks”.6 Gradations of being (inorganic
and organic matter, plants, insects, animals,
humans) are and always have been a foundation-stone of humanity’s ethical and religious
systems. More particularly, “self-consciousness” has been regarded as the essential and
distinguishing mark of a human being,
uniquely; yet as illustrated in the following
section we have, apparently even among some
senior scientists, an inclination to experiment
with “crossing” these dimensions of existence
in an almost casual mood. In my opinion very
great evils await us in going down that road.7
3 A Short List of “Catastrophic Risks”
1. There are risks from the use of future bioengineered pathogens used as weapons or
war or terrorism.8 A recent review in Nature
listed the following possibilities:9
a) Transferring genes for antibiotic resistance (e.g., to anthrax or plague, as Russian scientists have done) or pathogenicity (the toxin in botulinin, which could
be transferred to E. coli), or simply mixing various traits of different pathogens,
all of which is said to be “child’s play”
for molecular genetics today.
b) Through “directed molecular evolution”,
especially what is called “DNA shuffling”, producing “daughter genes” by
shattering genes and then recombining
gene fragments in ways that change the
natural evolutionary pathways of bacteria.
c) Creating “synthetic” pathogens, that is,
“artificial” bacteria and viruses, by start-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 33
SCHWERPUNKTTHEMA
ing with a synthesized “minimal genome”
which was capable of self-replication (a
kind of empty shell), to which “desired”
traits could be added at will.
d) Creating hybrids of related viral strains.
These possibilities multiply as scientists begin publishing the complete DNA sequences
of well-known pathogens: “… [G]enomics
efforts in laboratories around the world will
deliver the complete sequence of more than
70 major bacterial, fungal, and parasitic
pathogens of humans, animals and plants in
the next year or two….”10 Scientists working
in these areas point out that actually getting
engineered viruses and bacteria to survive in
the environment, and to be maximally useful
as weapons of war and terrorism, would not
be easy to do; moreover, defenses against
them can be constructed. What we are faced
with the advances in molecular genetics,
therefore, is an increase in the risks (possible
harms) of novel agents being used in these
ways for nefarious purposes.
2. There are related risks from accidental or
unintended consequences of genomics research, especially from the genetic engineering of viruses and bacteria, which could
result from the escape into the environment
of virulent new organisms, irrespective of
whether these organisms were intended
originally for “beneficent” or “malevolent”
purposes.
There was a brief flurry of publicity earlier this year when Australian researchers
announced that, in engineering the relatively
harmless mousepox virus with a gene for
the chemical interleukin 4, in an attempt to
create a contraceptive vaccine for mice,
they had accidentally made the virus exceptionally toxic: “The virus does not directly
threaten humans. But splice the IL-4 gene
into a human virus and you could create a
potent weapon. Add the gene to a pig virus,
say, and you could wreck a nation’s food
supply”.11
3. There are risks to the “nature” of humans
and other animals from intended or unintended consequences of genetic manipulations that either introduce reproducible
changes into an existing genome (e.g., human or animal germ-line gene therapy), thus
modifying existing species, or create en-
Seite 34
tirely new variant species. For illustration
here, I will confine myself to the example of
“chimeras”, that is, combined entities made
up of parts of the genome of two or more
different species, including of course humans. Some molecular biologists apparently
already have done casual experiments inserting human DNA into the eggs of other
animals and growing the cell mass for a
week or so; and there is much speculation as
to what would happen if human and chimpanzee DNA were crossed, since chimps
share over 98 % of human genes.12
4. The DNA of all species now on earth is
composed of the same four chemical bases,
abbreviated A, T, C, G, arranged into two
pairs (A/T, C/G), that make up the “ladders”
on the double helix of DNA; different combinations of the base-pairs specify one of 20
amino acids, which combine to form various
proteins.13 Some scientists are experimenting
with adding more chemicals that would act
as new bases, so that, for example, there
would be six rather than four bases and perhaps three base-pairs. One of the scientists
doing this work is Peter Schultz: “Schultz often says living things have only 20 amino acids because God rested on the seventh day.
‘If He worked on Sunday,’ he said, ‘what
would we look like?’”14 The self-comparison
between Dr. Schultz and God is interesting,
to say the least.
5. There have been widely-publicized discussions of certain unique risks to organic life,
stemming from possibilities allegedly inherent in the development of robotics and
nanotechnology, especially in a nowinfamous paper by Bill Joy (April 2000),
Chief Scientist at Sun Microsystems and
creator of the “Java” script. Joy wrote:
The 21st-century technologies – genetics,
nanotechnology, and robotics (GNR) – are
so powerful that they can spawn whole
new classes of accidents and abuses. Most
dangerously, for the first time, these accidents and abuses are widely within the
reach of individuals or small groups…. I
think it is no exaggeration to say that we
are on the cusp of the further perfection of
extreme evil, an evil whose possibility
spreads well beyond that which weapons
of mass destruction bequeathed to the na-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
tion-states, on to a surprising and terrible
empowerment of extreme individuals.15
The link between nanotechnology and biotechnology is fascinating: Although the
former works with intrinsically inert materials, it is seeking to turn them into a perfect
analogue of a biological (self-assembling)
system. One of the leading Canadian scientists in this field, Dragon Petrovic, has explained the quest as follows:
In the future, he predicts, technicians will
teach individual molecules and atoms to
assemble themselves into wires and
sheets of impeccable purity and thinness…. [Imagine] instruments made of
compounds that are self-assembled, atom
by perfect atom – materials so pure that
they could never snap apart or break under normal conditions…. “Imagine [Petrovic says] the linkage to telecom – can
we get DNA molecules to self-assemble
into perfect sheets and wires only an
atom thick, and then send electrons and
photons to stimulate the DNA to do
things – start growing; stop growing; assemble into certain geometric shapes?
It’s analogous to what a structure like
bone does in nature, where the brain is
the electronic device and the nervous system transmits the information”.16
Bill Joy’s essay already had explored the
dark side possibly inherent in the quest for
self-replicating nanotechnology machines;
the internal quotation in the passage by Joy
below is from a book by Eric Drexler, Engines of Creation:17
An immediate consequence of the Faustian bargain in obtaining the great power
of nanotechnology is that we run a grave
risk – the risk that we might destroy the
biosphere on which all life depends. As
Drexler explains:
Tough omnivorous “bacteria” [created by nanotechnology] could outcompete real bacteria: They could spread
like blowing pollen, replicate swiftly, and
reduce the biosphere to dust in a matter
of days…. Among the congnoscenti of
nanotechnology, this threat has become
known as the “gray goo problem”.
The “gray goo problem” attracted so much
attention that in England the Royal Society
and the Royal Academy of Engineering
commissioned a special expert report on it:
“Nanoscience and nanotechnologies: Opportunities and Uncertainties” (July 2004).
This report contained a special appendix on
the “problem”, which, it suggested, represented a remote and dubious risk; but it also
addressed some unique and quite relevant
risks, associated with nanotechnologies,
which will be a challenge for government
regulatory regimes to come to grips with.18
One important point must be emphasized here,
namely, that what has been just described are
(hypothetical) catastrophic “downside risks”,
that is, the potential for very great harms to be
done through some future technologies that are
already on the drawing-boards. For each of these
developments there are both “upside benefits”,
resulting from future applications of these technologies that could bring substantial benefits to
us, as well as the potential for “protective” technological innovations that could mitigate, offset,
reduce, or even eliminate at least some of the
downside risks. To take the example of the engineering of viruses as bioweapons: As a
counter to this threat (and also just to reduce the
debilitating effects of viral infections on population health), research is under way in molecular
genetics to develop new antiviral drugs that can
block the infectious action of any viruses at the
cellular level (preventing receptor binding, cell
penetration, replication, production of viral proteins, and so on).19 Considered as a totality,
however, what these conjoined prospects do is
to continually “raise the stakes” in our technological game with nature, whereby the new sets
of risks and benefits reflect both, and simultaneously, the potential for an upside of hitherto
unattainable benefits and a downside of hitherto
unimaginable horrors. As discussed in a later
section, this entire prospect increases the challenge to our social institutions to manage our
technological prowess so as to realize the benefits and avoid the harms, and likewise increases
the risk that we will be unable to do so.
4 What is different today?
There are undoubtedly other types of catastrophic risks, but those introduced above are sufficient for purposes of discussion! My main point
is that these newer risks are fundamentally different in character from the case of nuclear win-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 35
SCHWERPUNKTTHEMA
ter, and the difference has to do with the distribution of knowledge and technological capacity
relevant to them (thus requiring a very different
institutional response). The technologies giving
rise to the nuclear winter risk are controlled by
just two nation-states and are maintained (for the
most part, and until now) under a thick blanket
of military security and secrecy, although the
smuggling of nuclear materials out of the former
Soviet Union is cause for worry. Both the essential theoretical knowledge, and the engineering
capacity needed to turn that into weapons, is
confined to a relatively small circle of experts
and officials. Not so with the new technologies.
The catastrophic risk areas listed above
stem from current research programs that are
widely distributed around the world; moreover,
the strongest drivers of them are private corporations, including the large pharmaceutical
multi-nationals, acting with full encouragement, support, and incentives from national
governments. Especially where the possible
health benefits of genetic manipulations are
concerned, the combined public-private interests are overwhelmingly supportive, driving the
research ahead at an accelerating pace. Governments especially are enthralled with the
economic significance of these new technologies, are competing with each other under innovation agendas to capture major shares of the
corporate investments, and are loathe to stop
and think about unintended consequences.
All of the characteristics of the knowledge
and applications in these areas mean that it is
extremely difficult even to think about controlling either the process or the results. For one
thing, the knowledge is widely distributed
among individual scientists; for another, it is
widely distributed among private actors (corporations) which have the option of moving their
operations on a regular basis, seeking perhaps
the least-regulatory-intensive national base on
the globe. (Might we expect H. G. Wells’ The
Island of Doctor Moreau to be replicated many
times?20) Third, the technologies themselves
become increasingly “simplified” and thus easier to hide, if necessary; the genetics technologies, for example, can be carried out in small
laboratories almost anywhere. Sergei Popov, the
Russian scientist who pioneered germ warfare
research using recombinant DNA techniques,
observed recently: “The whole technology be-
Seite 36
comes more and more available. It becomes
easier and easier to create new biological entities, and they could be quite dangerous”.21
Fourth, oversight is inhibited by the lure
of truly extraordinary economic and health
benefits promised by the new knowledge and
technologies. And fifth, just the astonishing
pace of innovation itself today makes the prospect of control and regulation a challenge.
During the past year national governments
have been scrambling to respond to just a few
of the dimensions of these new risks. Most
attention has been focused on human cloning,
where a few rogue scientists have challenged
authorities in various jurisdictions to “try to
stop us”, and laws prohibiting this technology
are being passed rapidly. But this is a relatively
crude technology, albeit one which excites
public attention, and one wonders whether
authorities will become complacent about their
ability to control unacceptable technologies
due to their experience with this case. (Meanwhile, there are increasing reports that many
genetics scientists are “going underground”, in
the sense that they have stopped talking publicly about their research in progress for fear
that public reactions will be hostile and will
result in official steps to halt it.)
Among the scientists cited in this paper,
two (Bill Joy and Ian Ramshaw) have called for
urgent action under the Biological and Toxic
Weapons Convention (1975, hereafter BTWC),
to provide explicitly for a global oversight effort
over some of the new technologies and their
applications described earlier. Unfortunately,
and ironically in view of what was to happen
only two months later, at a meeting of the parties in Australia in July 2001 the United States
unexpectedly blocked the process of completing
a protocol under the BTWC that would have
made the Convention something other than a
statement of good intentions, for in its present
form it has no provisions for verification or
compliance monitoring. The US government has
been pressured by its biotechnology industry
sector not to agree to a verification protocol,
under which inspections of laboratories and
other facilities by international teams of experts
would be carried out in all the signatory countries, because industry fears that its intellectual
property and commercial secrets could be compromised. At the time of writing other signato-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
ries were considering whether they should proceed to complete the adoption of the verification
protocol without US support.22
Unfortunately, we know international negotiation to be at the best of times a tedious and
protracted process, and there is reason to believe that in this domain it could be fractious
and unsuccessful. This is because all of the
technologies described represent frontiers of
industrial innovation in which great multinational corporations and the national governments which protect their interests (especially
the United States) have significant investments;
both corporations and governments would be
loathe to see those investments and the immense payoffs expected from them jeopardized
by an international control regime. A recent
article co-authored by a molecular geneticist
and a specialist in the international convention
on biological weapons has called for an urgent
new effort to strengthen verification under the
1975 Convention and to enlist the biomedical
research community in an effort to strengthen
deterrence against the uses of bio-engineered
organisms for war and terrorism.23
5 Conclusion
Now is the time for intensive exploration of the
theme of policing science and to ask the following types of questions:
1. Can we characterize a set of new catastrophic
risks, as defined here, related to the leadingedge technologies that are being developed?
2. Do these new risks have an essential character that will make them difficult to control,
because the knowledge and the technologies
will be so widely diffused?
3. Can these risks be confined to acceptable
dimensions by the institutional means now at
our disposal, including international conventions on prohibitions? If not, what new tools
do we need, and how can we get them?
4. Do professional associations of scientists
working in these fields have special responsibilities to assist societies in controlling
these risks, and if so, are those responsibilities now being discharged adequately?24
What is at risk in this game, now, is the possibility that the tension between science and society
will become both unmanageable for institutions
and unbearable for individuals, in other words,
that the destructive applications of our operational power finally will overwhelm the rest.
This possibility arises out of the striking contrast
between the pace of change in social and legal
institutions (especially international agreements), on the one hand, and in new scientific
and technological breakthroughs in the sciences,
especially in genomics, including applications
relevant to biowarfare and bioterrorism on the
other. In the first-mentioned the pace is painfully slow and progress often remains ineffective even after decades of negotiation, as in the
case of the Convention on Biological and Toxic
Weapons. The second proceeds at a frenetic and
steadily-accelerating pace
To reduce the probability that change in the
second will overwhelm our social and legal
capacity to steer technological development
away from the zone of catastrophic risks, it is
necessary first to get agreement among influential social actors that this is, as described here, a
momentous challenge which contemporary society cannot avoid. The first practical test of our
resolve in this regard, I believe, is whether influential scientists can be mobilized in the cause,
scientists who will reaffirm the need for new
oversight structures, to be erected both within
the practice of science itself and also in the relation between science and society. Hegel made a
remark, I believe, somewhere in his writings, to
the effect that only the hand which inflicts a
wound can heal it. The wound here is the rupture with the dominant pre-modern relation of
humanity and nature, governed by value-laden
categories of being, and its replacement by
modern science’s purely operational orientation
to the totality of the natural world.
I will not speculate here on what a healing
of that rupture could mean now, at least, not in
any “ontological” sense. But in a practical
sense, as a matter of public policy, I think it is
clear what is required – namely, that the practitioners of science join others in a program to
try to bring our operational powers under the
control and direction of social institutions that
have universal validity, ones that correspond in
sufficient measure with the common aspirations of humanity. It is my contention that today’s dominant institutions do not have such
validity and that, as a result, everyone on earth
is at risk of having these powers become in-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 37
SCHWERPUNKTTHEMA
struments in an Armageddon waged to the bitter end by contending social, ethnic, national,
and religious interests.
What remains to be seen is whether the
task as defined here can be widely recognized
and grasped as such, while there is still time,
and whether our scientific enterprise can be
steered towards the shelter of a social compact
having universal validity.25 If it turns out that
despite our best efforts this cannot be done,
there will arise a set of other questions that, for
now at least, are too abhorrent for many even
to consider. These questions have to do with
the possibility that, taking both “normal” human passions and human institutional failings
into consideration, there may be forms of
knowledge that, as a practical matter, are too
dangerous for us to possess, and that our only
choice is to renounce and suppress such
knowledge or suffer the consequences. In mentioning them we go to the heart of the fateful
compact between science and society that has
set the course for the development of modern
society from the seventeenth century onwards,
under the program known as the domination of
nature. It is likely that contemporary society is
not ready to deal with them, at least, not yet.
Notes
1)
2)
3)
4)
Galileo
Galilei
(1564-1642):
http://www.rit.edu/~flwstv/galileo.html
There is a practical argument to the effect that,
since the development and deployment of such
knowledge cannot be thwarted, the most prudent course of action is to superintend its progress closely, so that technological antidotes to
the potentially most frightful and destructive
applications will be ready before they are
needed. I regard this as a strong and possibly
definitive counter-position to the one posed
here in the series of rhetorical questions.
New
Scientist,
13
January
2001
(http://www.newscientist.com/editorial/_22731.
html).
On asteroid risk: http://impact.arc.nasa.gov/:
“Statistically, the greatest danger is from an
NEO [Near-Earth-Object] with about 1 million
megatons energy (roughly 2 km in diameter).
On average, one of these collides with the
Earth once or twice per million years, producing a global catastrophe that would kill a substantial (but unknown) fraction of the Earth’s
human population. Reduced to personal terms,
Seite 38
this means that you have about one chance in
20,000 of dying as a result of a collision.”
5) The Scientist 14[1]: 12, Jan. 10, 2000
(http://www.the-scientist.com/yr2000/jan/
multiple_p12_000110.html)
6) “We encounter a state of moral risk when we
pose certain options for ourselves, as goals
which might be realized by using science to
manipulate nature, that imply fundamental
changes in the ‘order of being’ as it has been
experienced by humans until now.” Leiss, In
the Chamber of Risks, Chapter 11, “Into the
Maze of Moral Risks”, p. 267.
7) See generally ibid., pp. 259-68, where Mary
Shelley’s great novel, Frankenstein (1816),
provides the basis for discussion.
8) The awareness on the part of US officials that
the bioengineering of pathogens using recombinant DNA techniques could pose new bioterrorism and biowarfare risks goes back to the
beginning of the 1980s: Miller et al., Germs,
pp. 80-84. Under the leadership of Sergei
Popov, Russian scientists at “Biopreparat”, the
huge cover operation for the former Soviet Union’s biological warfare research program, began carrying out this type of recombinant research at about this same time, creating among
other things a “superplague” germ by inserting
the gene for diphtheria toxin into plague bacteria, as well as engineering viruses so that they
would trigger catastrophic autoimmune responses in the victims. Popov and his associates were not only interested in making lethal
products; their experiments included attempts
to manipulate moods though alterations in
brain chemistry. Ibid., pp. 300-304.
9) Dennis, “The Bugs of War”.
10) Fraser and Dando, “Genomics and future biological weapons: the need for preventive action by the biomedical community”, p. 2.
11) New
Scientist,
13
January
2001
(http://www.newscientist.com/editorial/_22731.
html). “Ian Ramshaw, a member of the Australian team, says [no one] could have foreseen
that the altered virus would kill even vaccinated
mice.” The researchers were so alarmed by
what they had inadvertently done that they first
notified the Ministry of National Defense, then
waited two years before publicly announcing
and publishing their experiment, simultaneously
calling for modifications to the international
convention on biological warfare to include devices of this type. The original story is in New
Scientist,
10
January
2001
(http://www.newscientist.com/news/news.jsp?id
=ns9999311) See also Miller et al., pp. 310-312.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
12) Scott Foster, “Man-beast hybrid beyond talking stage,” The National Post (Toronto, Canada), 22 August 2001, p. A16. “Last October,
Greenpeace Germany dug up a patent claim
for a human-animal hybrid, … U.S.-based Biotransplant and Australia-based Stem Cell Sciences grew a pig-human embryo to 32 cells
before ending its life”.
13) On DNA see the superb graphics and animation at: http://vector.cshl.org/dnaftb/
14) Andrew Pollack, “Not Life as we know it,”
The National Post (Toronto, Canada), 26 July
2001, p. A15 (reprinted from The New York
Times).
15) Bill Joy, “Why the future doesn’t need us,”
Wired Magazine (http://www.wired.com/
wired/archive/8.04joy_pr.html)
16) Allen Abel, “The God of Small Things,” Saturday Night Magazine (The National Post, Toronto, Canada), 21 & 28 July 2001, pp. 34-37.
17) Drexler, Engines of Creation, online in its
entirety at: http://www.foresight.org/EOC/
18) http://www.royalsoc.ac.uk/templates/search/
websearch.cfm?mainpage=/nanotec/
pressmedianov03.htm
19) Haseltine, “Genetic Traps for Viruses”; cf.
Miller et al., pp. 305-307.
20) First published in 1896, this is the story of a
rogue scientist who sets up a secret scientific
research facility on a remote Pacific island in
order to pursue vivisectionist experiments on
animals and humans. The entire text is available at: http://www.bartleby.com/1001/0.html
21) Quoted in Miller et al., p. 304.
22) http://www.brad.ac.uk/acad/sbtwc/ See especially G. S. Pearson, M. R. Dando, and N. A.
Sims, “The US rejection of the Composite Protocol: A huge mistake based on illogical assessments,” and G. S Pearson, “Why Biological Weapons present the Greatest Danger,” at:
http://www.brad.ac.uk/acad/sbtwc/evaluation/
evalu22.pdf
23) Fraser and Dando, op. cit., p. 4.
24) The 1975 Asilomar Conference that established
some early ground-rules for DNA research at
the initiative of the scientific community itself,
had a 25th-anniversary meeting in 2000. At least
according to one report, some senior scientists
today are doubtful that the “Asilomar model”
will prove to be useful in the future for the
oversight of problematic applications of DNA
research, particularly because of the enormous
pressure of commercial interest that has developed in the meantime. See The Scientist 14[7]:
15, 3 April 2000 (http://www.the-scientist.com/
yr2000/apr/russo_p15_000403.html)
25) There is not time here to develop this concept
adequately. Here it must suffice to say that
“universal validity” is not an absolute, in the
sense that every person must “buy in,” but
rather is some common orientation that can
attract and hold the support of the most influential and enduring cultural traditions around
the world.
References
Dennis, C., 2001: The Bugs of War. Nature 114 (17
May), pp. 232-5
Drexler, E.; 1986: Engines of Creation: The Coming
Era of Nanotechnology. New York: Anchor Books
Fraser, C.M.; Dando, M.R., 2001: Genomics and
future biological weapons: the need for preventive
action by the biomedical community. Nature Genetics, advance online publication, 22 October
(http://nature.com.anthrax)
Haseltine, W.A., 2001: Genetic Traps for Viruses.
Scientific American, November, pp. 56-63
Leiss, W., 2001: In the Chamber of Risks: Understanding Risk Controversies. Montreal: McGillQueen’s University Press
Miller, J.; Engelberg, St.; Broad, W., 2001: Germs:
Biological Weapons and America’s Secret War.
New York: Simon & Schuster
Stehr, N., 2005: Knowledge Politics. Governing the
Consequences of Science and Technology. Boulder,
Colorado: Paradigm Publishers (forthcoming)
Stehr, N.; Grundmann, R., 2003: Social control and
knowledge in democratic societies. Science and
Public Policy 30, pp. 183-188
The Royal Society, 2004: Nanoscience and
nanotechnologies: Opportunities and Uncertainties.
London (July)
Contact
Prof. William Leiss, PhD, Scientist
McLaughlin Centre for Risk Assessment
University of Ottawa
1 Stewart St., Room 311
Ottawa, ON K1N 6N5
Tel.: +1 - 613 - 562 - 58 00, - 21 16
Fax: +1 - 613 - 562 - 53 80
E-Mail: wleiss@uottawa.ca
Internet: http://www.leiss.ca
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
«
Seite 39
SCHWERPUNKTTHEMA
Feedback Loops in the Politics
of Knowledge Production
by Troy Duster, New York University
The current debates about the role of race
in the biological sciences, clinical genetics,
and the allied fields of practical applications
(pharmacogenomics and forensics) have
generated a considerable amount of friction
and heat. Adversaries tend to line up on
one side or the other of the argument about
the legitimacy, or lack of it, of the category
of race. This is an unfortunate binary trap,
and can be avoided if we can step back and
look at the feedback loops between social
and biological categories in the production
of knowledge.
1 Fluidity in the Scientific Status of the
Concept of Race
A consortium of leading scientists across the
disciplines from biology to physical anthropology issued a “Revised UNESCO Statement on
Race” in 1995 – a definitive declaration that
summarizes eleven central issues, and concludes that in terms of “scientific” discourse,
there is no such thing as a “race” that has any
scientific utility:
…the same scientific groups that developed
the biological concept over the last century
have now concluded that its use for characterizing human populations is so flawed that
it is no longer a scientifically valid concept.
In fact, the statement makes clear that the
biological concept of race as applied to humans has no legitimate place in biological
science (Katz 1995, p. 4, 5).
Note that the statement is not only about the
utility of the concept of race for biological
science. Rather, it asks in its title, “Is race a
legitimate concept for science?” and in the
quotation above, states that the concept “is so
flawed that it is no longer a scientifically valid
concept.” For more than two centuries, the
intermingling of scientific and common-sense
thinking about race has produced remarkable
trafficking back and forth between scientists
and the laity, confusing for both laypersons and
scientists about the salience of race as a stratifying practice (itself worthy of scientific investigation) versus race as a socially de-contextu-
Seite 40
alized biologically accurate and meaningful
taxonomy. The current decade is no exception.
In the rush to purge common-sense thinking of
groundless belief systems about the biological
basis of racial classifications, the current leadership of scientific communities has overstated the simplicity of very complex interactive feedback loops between biology and culture and social stratification.
I will demonstrate how and why “purging
science of race” – where race and ethnic classifications are embedded in the routine collection
and analysis of data (from oncology to epidemiology, from hematology to social anthropology,
from genetics to sociology) – is neither practicable, possible, nor even desirable. Rather, our
task should be to recognize, engage and clarify
the complexity of the interaction between any
taxonomies of race and biological, neurophysiological, social, and health outcomes. Whether
or not race is a legitimate concept for scientific
inquiry depends upon the designation of the unit
of analysis of “race”, and will in turn be related
to the purposes for which the concept is deployed. This may seem heretical at the outset,
but may rescue an important role for examining
the purpose of an investigation to legitimize the
analytic utility of the concept of race.
My strategy will be threefold. First, I will
summarize an emerging clinical genetics problem from recent blood studies that is now forcing scientific medicine to reconsider the practical or efficacious meaning of race when it
comes to blood transfusions. Second, I will
turn to recent attempts to identify individuals
from ethnic and racial populations through the
use of the new technologies of molecular genetics. Here it is vital to note the emphasis
upon the practical applications of these technologies, from their uses in forensics (the exclusion or probable identification of suspects in
criminal investigations) to pharmacogenomics
– a field that explicitly deploys the concept of
“race” in the attempt to focus the delivery of
pharmaceuticals to populations so designated,
and does not bother to place quotation marks
around the concept. Third, I will briefly point
to the possible, even likely interaction between
racial or ethnic identity, nutritional intake, and
biochemical manifestation of disease states,
most notably, cancer and heart disease. Finally,
I will suggest a way to address and even re-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
solve the confusing and contradictory messages
about “race” from the biological sciences and
their applied satellites.
I will conclude with some remarks about
how anthropologists (and others working on
aggregate data on selected populations designated by “race”) should try to advance our
understanding of how “race” is always going to
be a complex interplay of social and biological
realities with ideology and myth.
2 Context and Content for Feedback
Loops: Setting the Empirical Problem
By the mid 1970s, it had become abundantly
clear that there is more genetic variation within
the most current common socially used categories of race than between these categories (Polednak 1989; Bittles and Roberts 1992; Chapman 1993; Shipman 1994). The consensus is a
recent development. For example, in the early
part of the twentieth century, scientists in several
countries tried to link up a study of the major
blood groups in the ABO system to racial and
ethnic groups.1 They had learned that blood type
B was more common in certain ethnic and racial
groups – which some believed to be more inclined to criminality and mental illness (Gundel
1926; Schusterov 1927). They kept running up
against a brick wall because there was nothing
in the ABO system that could predict behavior.
While that strategy ended a full half-century
ago, there is a contemporary arena in which
hematology, the study of blood, has had to resuscitate a concern with “race”.
In the United States there has been an increasing awareness developed over the last two
decades of the problem that blood from Americans of European ancestry (read mainly white)
tends to contain a greater number of antigens
than blood from Americans of African or Asian
ancestry. This means that there is a greater
chance for hemolytic reactions for blacks and
Asians receiving blood from whites, but a
lower risk for whites receiving blood from
Asians or blacks. Here we come to a fascinating intersection between the biological and
social sciences. In the United States, not only
do whites comprise approximately 80 percent
of the population, proportionally fewer blacks
and fewer Asian Americans donate blood than
do whites. This social fact has some biological
consequences, which in turn have some social
consequences.
This provides a remarkably interesting intersection. While the full range of analysts,
commentators, and scientists – from postmodern essayists to molecular geneticists to
social anthropologists – have been busily pronouncing “the death of race”, for practical
clinical purposes the concept is resurrected in
the conflation of blood donation frequencies by
“race”. I am not merely trying to resurrect “race” as a social construct (with no biological
meaning) – no more than I am trying to resurrect “race” as a biological construct with no
social meaning. Rather, I am arguing that when
“race” is used as a stratifying practice (which
can be apprehended empirically and systematically) there is often a reciprocal interplay of a
biological outcome that makes it impossible to
completely disentangle the biological from the
social. While that may be obvious to some, it is
completely alien to others, and some of those
“others” are key players in current debates
about the biology of race.
In late September 1996, Tuskegee University hosted a conference on the Human Genome Project, with specific reference to the
Project’s relevance to the subject of race
(Smith and Sapp 1997). In attendance was
Luca Cavalli-Sforza, a pre-eminent population
geneticist from Stanford University and perhaps the leading figure behind the Human Genome Diversity Project.2 Cavalli-Sforza had
appeared on the cover of Time magazine a few
years earlier, as something of a hero to the
forces that were attacking the genetic determinism in The Bell Curve.3 At this conference, he
repeated what he had said in the Time article:
“One important conclusion of population genetics is that races do not exist” (ibid., p. 53).
If you take differences between two random
individuals of the same population, they are
about 85 % of the differences you would find
if you take two individuals at random from the
whole world. This means two things: (1) The
differences between individuals are the bulk
of the variation; (2) the differences among
populations, races, continents are very small –
the latter are only the rest, 15 %, about six times less than that between two random individuals of one perhaps very small population
(85 %). Between you and your town grocer
there is on average a variation which is almost
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 41
SCHWERPUNKTTHEMA
as large as that between you and a random individual of the whole world. This person
could be from Africa, China, or an Australian
aborigine (ibid., p. 55).
Cavalli-Sforza is speaking here as a population
geneticist, and in that limited frame of what is
important and different about us as humans, he
may be empirically correct. But humans give
meaning to differences. At a particular historical moment, to tell this to an Albanian in Kosovo, a Hutu among the Tutsi, to a Zulu among
the Boers, or to a German Jew among the Nazis, may be as convincing, for the purposes of
further action, as telling it to an audience of
mainly African Americans at Tuskegee University.4 Indeed, David Botstein, speaking later
in a keynote address, had this to say about the
Bell Curve:
So from a scientific point of view, this whole
business of The Bell Curve, atrocious though
the claims may be, is nonsense and is not to
be taken seriously. People keep asking me
why I do not rebut The Bell Curve. The answer is because it is so stupid that it is not rebuttable. You have to remember that the Nazis who exterminated most of my immediate
family did that on a genetic basis, but it was
false. Geneticists in Germany knew that it was
false. The danger is not from the truth, the
danger is from the falsehood. (ibid., p. 212)
3 The American Anthropological Association Statement on “Race”
In May 1998, the American Anthropological
Association issued its own statement on “race”
(1998). It attempts to address the myths and
misconceptions, and in so doing takes a “corrective” stance towards the folk beliefs about
race. The statement strongly states the position
that “physical variations in the human species
have no meaning except the social ones that
humans put on them”. But in casting “the problem” in this fashion, it gives the impression
that the biological meanings that scientists
attribute to race are biological facts, while the
social meanings that laypersons give to race are
first either errors or mere artificial social constructions, and second not themselves capable
of feedback loops into the biochemical, neurophysiological, and cellular aspects of our bodies that, in turn, can be studied, scientifically.
The statement of the Anthropological Associa-
Seite 42
tion is consistent with that of the UNESCO
statement on race. However, by formulating the
matter so that it is “only the social meanings
that humans provide” implies that mere lay
notions of race provide a rationale for domination, but have no other utility.
There is profound misunderstanding of the
implications of a “social contructivist” notion
of social phenomena. How humans identify
themselves, whether in religious or ethnic or
racial or aesthetic terms, influences their subsequent behavior. Places of worship are socially constructed with human variations of
meaning and interpretation and use very much
in mind. Whether a cathedral or mosque, a
synagogue or Shinto temple, those “constructions” are no less “real” because one has accounted for and documented the social forces at
play that resulted in such a wide variety of
“socially constructed” places of worship.
“Race” as social construction can and does
have a substantial effect on how people behave.
One important arena for further scientific exploration and investigation is the feedback
between that behavior and the biological functioning of the body. It is now appropriate to
restate the well-known social analytic aphorism
of W.I. Thomas, but to refocus it on human
taxonomies of other humans: If humans define
situations as real, they can and often do have
real biological and social consequences.
4 Explicating the Conflation of Crime, Genetics and Race
If “race” is a concept with no scientific utility,
what are we to make of a series of articles that
have appeared in the scientific literature over
the last seven years, looking for genetic markers of population groups that coincide with
common-sense, lay renditions of ethnic and
racial phenotypes? It is the forensic applications that have generated much of this interest.
Devlin and Risch (1992a) published an article
on “Ethnic differentiation at VNTR loci, with
specific reference to forensic applications” – a
research report that appeared prominently in
the American Journal of Human Genetics.
The presence of null alleles leads to a large
excess of single-band phenotypes for blacks
at D17S79…. This phenomenon is less important for the Caucasian and Hispanic popu-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
lations, which have fewer alleles with a
small number of repeats (p. 540)
…it appears that the FBI’s data base is representative of the Caucasian population. Results for the Hispanic ethnic groups, for the
D17S79 locus, again suggest that the data bases are derived from nearly identical populations, when both similarities and expected biases are considered…. For the allele frequency distributions derived from the black
population, there may be small differences in
the populations from which the data bases are
derived, as the expected bias is .05. (p. 546)
The work of Devlin and Risch (1992a, 1992b),
Evett et al. (1993, 1996) and others suggest that
there are only about 10 percent of sites in the
DNA that are “useful” for making distinctions.
This means that at the other 90 percent of the
sites, the allele frequencies do not vary between
groups such as “Afro-Caribbean people in England” and “Scottish people in England”. But it
does not follow that because we can not find a
single site where allele frequency matches some
phenotype that we are trying to identify (for
forensic purposes, we should be reminded), that
there are not several (four, six, seven) that will
not be effective, for the purposes of aiding the
FBI, Scotland yard, or the criminal justice systems around the globe in highly probabilistic
statements about suspects, and the likely ethnic,
racial, or cultural populations from which they
can be identified – statistically.
An article in the 8 July 1995 issue of the
New Scientist entitled “Genes in black and
white” details some extraordinary claims made
about what it is possible to learn about socially
defined categories of race from reviewing information gathered using new molecular genetic technology (Vines 1995):
In 1993, a British forensic scientist published
what is perhaps the first DNA test explicitly
acknowledged to provide “intelligence information” along “ethnic” lines for “investigators
of unsolved crimes”. Ian Evett, now at the
Home Office’s forensic science laboratory in
Birmingham, and his colleagues in the Metropolitan Police, claim that their DNA test can
distinguish between “Caucasians” and “AfroCaribbeans” in nearly 85 percent of the cases…. Evett’s work, published in the Journal
of Forensic Science Society, draws on apparent genetic differences in three sections of
human DNA. Like most stretches of human
DNA used for forensic typing, each of these
three regions differs widely from person to
person, irrespective of race. But by looking at
all three, say the researchers, it is possible to
estimate the probability that someone belongs
to a particular racial group.
The implications of this for determining, for
legal purposes, who is and who is not “officially” a member of some racial or ethnic category are profound.
Two years after the publication of the
UNESCO statement purportedly burying the
concept of “race” for the purposes of scientific
inquiry and analysis, and during the same time
period that the American Anthropological Association was deliberating and generating a
parallel statement, an article appeared in the
American Journal of Human Genetics, authored by Ian Evett and his associates, summarized thusly:
Before the introduction of a four-locus multiplex short-tandem-repeat (STR) system into
casework, an extensive series of tests were
carried out to determine robust procedures for
assessing the evidential value of a match between crime and suspect samples. Twelve databases were analyzed from the three main
ethnic groups encountered in casework in the
United Kingdom; Caucasians, Afro-Caribbeans, and Asians from the Indian subcontinent. Independence tests resulted in a number
of significant results, and the impact that these
might have on forensic casework was investigated. It is demonstrated that previously published methods provide a similar procedure
for correcting allele frequencies – and that this
leads to conservative casework estimates of
evidential value. (Evett et al. 1996, p. 398)
These new technologies have some not-sohidden potential to be used for a variety of forensic purposes in the development and “authentication” of typologies of human ethnicity and
race. A contemporary update of an old idea of
the idea of deciding upon “degree of whiteness”
or “degree of nativeness” is possibly upon us,
anew, with the aid of molecular genetics. Vines
(1995) describes the Allotment Act of 1887,
denying land rights to those native Americans
who were “less than half-blood”. The U.S. government still requires American Indians to produce “Certificates with Degree of Indian Blood”
in order to qualify for a number of entitlements,
including being able to have one’s art so labeled.
The Indian Arts and Crafts Act of 1990 made it
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 43
SCHWERPUNKTTHEMA
a crime to identify oneself as a Native American
when selling artwork without federal certification authorizing one to make the legitimate
claim that one was, indeed, an authentic (“onequarter blood” even in 1990s) American Indian.
As noted above, it is not art, but law and forensics that ultimately will impel the genetic technologies to be employed on behalf of attempts to
identify who is “authentically” in one category
or another. Geneticists in Ottawa, Canada have
been trying to set up a system “to distinguish
between ‘Caucasian Americans’ and ‘Native
Americans’ on the basis of a variable DNA region used in DNA fingerprinting” (Vines 1995,
p. 37). For practical purposes, the issue of the
authentication of persons’ membership in a
group (racial/ethnic/cultural) can be brought to
the level of DNA analysis. The effectiveness of
testing and screening for genetic disorders in
risk populations that are ethnically and racially
designated poses a related set of vexing concerns for the “separation” of the biological and
cultural taxonomies of race.
5 Genetic Testing and Genetic Screening
When social groupings with a strong endogamous tradition (such as ethnic or racial groups)
intermarry for centuries, they are at higher risk
for pairing recessive genes and passing on a
genetic disorder. In the United States, the best
knowns of these clustered autosomal recessive
disorders are Tay-Sachs disease, beta-thalassemia, sickle-cell anemia, and cystic fibrosis.
For Tay-Sachs, concentrated primarily among
Ashkenazi Jews of northern and eastern European ancestry, about one in thirty is a carrier,
and approximately one in every 3,000 newborns will have the disorder. For cystic fibrosis, about one in thirty Americans of European
descent is a carrier, with a similar incidence
rate. In contrast, approximately one in every 12
American blacks is a carrier for sickle-cell
anemia and one in every 625 black newborns
will have the disorder. Irish and northern Europeans are at greater risk for phenylketonuria. In
the United States, one in 60 Caucasians is a
carrier, and about one in every 12,000 newborn
Caucasians is affected (Detailed information on
the Incidence of Genetic Disorders can be
found in Burhansstipanov et al. 1987, p. 6-7).
Seite 44
When both parents are carriers of the autosomal recessive gene, the probability that each
live birth will be affected by the disorder is 25
percent. However, being a carrier, or passing
on the gene so that one’s offspring is also a
carrier, typically poses no more of a health
threat than carrying a recessive gene for a different eye color. That is, carrier status typically
poses no health threat at all. The health rationale behind carrier screening is to inform prospective parents about their chances of having a
child with a genetic disorder.
In the United States, the two most widespread genetic screening programs for carriers
have been for Jews of northern European descent (Tay-Sachs) and for Americans of western African descent (sickle-cell anemia). From
1972 to 1985, there was widespread prenatal
screening for both disorders, and by 1988,
newborn screening for sickle-cell anemia had
become common (Duster 1990). It is the autosomal recessive disorders, located in risk populations that coincide with ethnicity and race,
that are of special interest as we turn to address
genetic screening for populations that are at
greatest risk for a disorder.
It is important to distinguish between a genetic screen and a genetic test. A genetic test is
done when there is reason to believe that a particular individual is at high risk for having a
genetic disorder, or for being a carrier of a gene
(recessive) for a disorder. So for example, a
sibling of someone who has been diagnosed
with Huntington’s (a late-onset neurological
disorder) would be a candidate for a genetic test
for that disorder. A genetic screen, on the other
hand, is used for a population that is at higher
risk for a genetic disorder. Thus, with the risk
figures cited above, Ashkenazi Jews were the
subjects of genetic screening for Tay-Sachs.
6 The Interaction between Race as Identity,
Nutrient Consumption, and Health
The scientific literature on the rates of specific
cancers in racially and ethnically designated
populations is fairly well-developed. For example, Ashkenazic Jewish women are reported,
clinically, to have higher rates of breast cancer
than other groups. African-American men have
almost double the rate of prostate cancer of
white men in certain age groups, according to
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
reports released by the National Cancer Institute
(Ries et al. 2002). How might this be explained,
using race not simply as an “outcome” – but as a
factor that helps produce the outcome? Consider
the possibility that certain forms of cancer may
be a function of nutrition and diet. Groups with
certain dietary patterns or restrictions might then
be systematically (i.e., apprehensive scientifically) at greater risk for cancer. If members of a
certain group identify themselves as say, Ashkenazic Jewish, and then have a diet that follows
certain patterns, they might well routinely have
rates of certain groups of cancers, at both lower
and higher risks than groups with different dietary habits. African American males, for example, may, by identifying as African Americans,
be more likely to eat a category of food (“soul
food”) that might systematically put them at
higher risk for prostate cancer. With this formulation, I am “bringing the systematic study of
race” back into the “scientific inquiry” – even
though I am not going to the molecular level to
attempt a reductionist account of “race as caused” at the level of the DNA.
Here is where the computer revolution enters the story: Up until very recently, we could
not do much with these random variations in
the DNA, called single nucleotide polymorphisms – SNPs. However, with the new computers, we can now put the DNA of several
clusters of people on computer chips, and see
what might be patterns in their DNA (Hamadeh
and Afshari 2000).
It is now possible to do hundreds, even
thousands of experiments in a few hours. This
might prove to be a useful technology in the
hunt for particular regions that might help explain some illnesses. For example, if we get a
few hundred patients, all with prostate cancer –
then look at their SNP profiles using this chip
technology. Or perhaps with heart disease, a
similar strategy.
With these new SNPs on chips, we will
come up with new taxonomies of people who
share certain kinds of patterns in their DNA,
and who suffer from the same illness
Even with strong epidemiological evidence
that heart disease and hypertension among African Americans is strongly associated with such
social factors as poverty, there has been a persistent attempt to pursue the scientific study of
hypertension through a link to the genetics of
race. Dark pigmentation is indeed associated
with hypertension in America. Michael Klag et
al. (1991) reported the results of a carefully
controled study looking at the relationship between skin color and high blood pressure. He
and his colleagues found that darker skin color
is a good predictor of hypertension among
blacks of low socioeconomic status, but not for
blacks of any shade who are “well employed or
better educated”. The study further suggested
that poor blacks with darker skin color experience greater hypertension “not for genetic reasons” but because darker skin color subjects
them to greater discrimination, with consequently greater stress and psychological/medical
consequences. Of course, from another way of
looking at it, “darker skin color” is dark mainly
for genetic reasons, so it is all a matter of how
one chooses to direct theorizing about the location of causal arrows. When practicing physicians see “darker skin color,” their diagnostic
interpretation and their therapeutic recommendations are systematically affected. Schulman et
al. (1999) recently published some research
indicating that in clinical practice, physicians are
likely to make systematically different recommendations for treatment of heart disorders, by
race, even when patients present the same symptoms. Thus, when there is an analysis of outcome data such as “cause of death” by race, and
researchers find that blacks have a higher incidence of death from heart failure – it would be
easy to make an incorrect inference about causation and direction of the relationship between
the variables.
By heading toward an unnecessarily binary, socially constructed fork in the road, by
forcing ourselves to think that we must either
choose between either “race as biological”
(now out of favor) and “race as merely a social
construction” we fall into an avoidable trap. A
refurbished and updated insight from W. I.
Thomas can help us. It is not an either/or
proposition. Under some conditions, we need to
conduct systematic investigation, guided by a
body of theory, into the role of “race” (or ethnicity, or religion) as an organizing force in social
relations, and as a stratifying practice (Oliver
and Shapiro 1995). Under other conditions, we
will need to conduct systematic investigation,
guided by a body of theory, into the role of the
interaction of “race” (or ethnicity, or religion)
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 45
SCHWERPUNKTTHEMA
however flawed as a biologically discrete and
coherent taxonomic system, with feedback
loops into the biological functioning of the
human body; or with medical practice. The
latter studies might include examination of the
systematic administration of higher doses of xrays to African Americans; the creation of genetic tests with high rates of sensitivity to some
ethnic and racial groups, but low sensitivity to
others; and the systematic treatment, or lack of
it, with diagnostic and therapeutic interventions
to “racialized” heart and cancer patients.
It is not difficult to understand why they
persisted. Humans are symbol-bearing creatures that give meaning to their experiences
and to their symbolic worlds. The UNESCO
statement is ultimately about the problem of
the difference between first-order constructs in
science, versus second-order constructs. Some
fifty years ago, Felix Kaufmann ([1944] 1958)
made a crucial distinction that throws some
light on the controversy. Kaufmann was not
addressing whether or not there can be a science of race. Rather, he noted that there are
different kinds of issues, methodologies, and
theories that are generated by what could be
called “first-order constructs” in the physical
and natural sciences versus “second-order constructs.” For the physical and natural sciences,
the naming of objects for investigation and
inquiry, for conceptualizing and finding empirical regularities, is in the hands of the scientists and their scientific peers. Thus, for example, the nomenclature for quarks or neurons,
genes or chromosomes, nitrogen or sulfides,
etc., all reside with the scientist in his/her role
as the creator of first-order constructs.
This is quite different from the task of the
observer, analyst, or scientist of human social
behavior. This is because humans live in a preinterpreted social world. They grow up, from
infancy, in a world that has pre-assigned categories and names for those categories, which were
in turn provided by fellow common-sense actors, not by “scientists” (Schutz 1973). Their
continual task is to try to navigate, negotiate and
make sense of that world. The task of the social
scientist is therefore quite distinct from that of
the natural scientist. While the latter can rely
upon “first-order constructs”, the former must
construct a set of categories based upon the preinterpreted world of common-sense actors. The
Seite 46
central problem is that “race” is now, and has
been since 1735,5 both a first- and second-order
construct. The following joke, making the
rounds among African-American intellectuals,
makes the point with deft humor:
‘I have noted’, the joke laments, ‘that my research demonstrating that race is merely a social and ideological construction helps little in
getting taxis to pick me up late at night’.
This throws into a different light the matter of
whether race can be studied scientifically. If we
mean by that, is there a consensus among the
natural scientists about race as a “first-order
construct”, then the answer since about 1970 is
categorically “no”. The UNESCO statement
summarizes why this is so at every level that is
significant to the biological functioning of the
organism, with two exceptions. We have already
noted that scientific research on first-order constructs about race as a biological category in
science in the last four decades has revealed
over and over again that there is greater genetic
heterogeneity within versus between major racial groupings (Polednak 1989; Bittles and Roberts 1992; Chapman, 1993; Shipman 1994). One
exception is that the gene frequencies, as demonstrated in the use of specific polymorphic
markers, occur more frequently in certain populations than in others. But this distribution of
gene frequencies, though occasionally overlapping with racial groupings, is definitively not
only a racially defined issue. For example northern Europeans have greater concentrations of
cystic fibrosis than southern Europeans, and
both are categorized as “Caucasians”. Moreover,
southern Europeans have higher rates of betathalassemia than northern Europeans – but even
more to the point, sickle-cell anemia is found in
greater concentration in Orchomenos, Greece,
than among African Americans (Duster 1990).
This is not a biologically racially defined matter
(i.e., racial in the sense of first-order constructs).
7 Race and “Second-Order Constructs”
Financially, the biggest difference between whites and African Americans today is their median
net worth, which is overwhelmingly attributable
to the value of equity in housing stock. In 1991,
the median net worth of white households
($ 43,279) was more than 10 times that of the
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
median net worth of African-American households ($ 4,169, Bureau of the Census 1991).
This is a truth that can be determined by the
systematic collection of empirical data, and
either replicated or refuted – which is to say that
it can be investigated scientifically, without
reference to blood groups, the relationship between genotype and phenotype, or the likelihood
that one group is more likely to be at risk for
cystic fibrosis while the other is more likely to
be at risk for sickle-cell anemia. Here is why:
In 1939, the Federal Housing Authority’s
Underwriting Manual that provided the guides
for granting housing loans explicitly used race
as one of the most important criteria. The manual stated that loans should not be given to any
family that might “disrupt the racial integrity”
of a neighborhood. Indeed, the direct quote
from Section 937 of the FHA manual went so
far as to say that “If a neighborhood is to retain
stability, it is necessary that properties shall be
continued to be occupied by the same social
and racial classes” (Massey and Denton 1993,
p. 54). On this basis, for the next thirty years,
whites were able to get housing loans at 3-5
percent, while Blacks were routinely denied
such loans. For example, of 350,000 new homes built in Northern California between 1946
and 1960 with FHA support, fewer than 100
went to blacks. That same pattern holds for the
whole state, and for the nation as well.
To throw out the concept of race is to take
the non-thinking alternative – the ostrich approach to race and ethnicity, pioneered and
celebrated by the French government: “We
don’t collect data on that topic. Therefore, it
does not exist!”6 Or perhaps the legacy of Sapir
and Whorf where language limits thinking is
alive and well in the scientific study of race.
Notes
1) For the discussion in this paragraph, and for the
references to the German literature that are used
here, I am indebted to William H. Schneider
(1996).
2) The Human Genome Diversity Project is not to
be confused with the Human Genome Project.
The latter is a $ 3-billion effort, jointly funded in
the United States by the National Institutes of
Health and the Department of Energy. The goal
is to map and sequence the entire human genome, and the major rationale for the project,
from the outset approximately a decade ago, was
to provide information that would assist medical
genetics in de-coding, better understanding, and
eventually, hopefully producing gene therapeutic
interventions for genetic disorders. In contrast,
the Human Genome Diversity Project has been
concerned with tracing human populations
through an evolutionary history of many centuries. Its goal was primarily to better understand
human evolution (Committee on Human Genome
Diversity 1997).
3) This was a popular book by Richard Herrnstein
and Charles Murray (1994).
4) Tuskegee, after all, was the site of the infamous
syphilis experiments on black males – where the
Public Health Service of the U.S. Government
had studied the racial effects of how the disease
ravages the body of blacks in contrast to whites
(Jones 1981).
5) This was the year that Linnaeus published System
Naturae, in which he revealed a four-part classification scheme of the human races that has residues still today.
6) Perhaps an internally consistent emanation from
a society that gave the world the Cartesian formulation about thought and existence – and subject/object dualities.
References
American Anthropological Association, 1998: American Anthropological Association statement on
‘race’. American Anthropologist 100(3), p. 712-13
Bittles, A.H.; Roberts, D.F. (eds.), 1992: Minority
Populations: Genetics, Demography and Health.
London: Macmillan
Burhansstipanov, L., Giarratano, S.; Koser, K.;
Mongoven, J., 1987: Prevention of Genetic and
Birth Disorders. Sacramento: California State Department of Education, p. 6-7
Chapman, M. (ed.), 1993: Social and Biological
Aspects of Ethnicity. New York: Oxford University
Press
Committee on Human Genome Diversity, 1997:
Scientific and Medical Value of Research on Human Genetic Variation. In: Evaluating Human Genetic Diversity. National Research Council. Washington, D.C.: National Academy Press, p. 16-22
Devlin, B.; Risch, N., 1992a: Ethnic differentiation
at VNTR loci, with specific reference to forensic
applications. American Journal of Human Genetics
51, p. 534-48
Devlin, B.; Risch, N., 1992b: A note on the HardyWeinberg equilibrium of VNTR data by using the
Federal Bureau of Investigation’s fixed-bin method.
American Journal of Human Genetics 51, p. 549-53
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 47
SCHWERPUNKTTHEMA
Duster, T., 1990: Backdoor to Eugenics. New York:
Routledge
Evett, I.W., 1993: Criminalistics: The future of expertise. Journal of the Forensic Science Society
33(3), p. 173-8
Evett, I.W., Gill, P.D.; Scranage, J.K.; Wier, B.S.,
1996: Establishing the robustness of short-tandemrepeat statistics for forensic application. American
Journal of Human Genetics 58, p. 398-407
Evett, I.W.; Buckleton, I.S.; Raymond, A.; Roberts,
H., 1993: The evidential value of DNA profiles.
Journal of the Forensic Science Society 33(4), p.
243-4
Gundel, M., 1926: Einige Beobachtungen bei der
rassenbiologischen Durchforschung SchleswigHolsteins. Klinische Wochenschrift 5, p. 1186
Hamadeh, H.; Afshari, C.A., 2000: Gene chips and
functional genomics. American Scientist 88(6), p.
508-15
Herrnstein, R.J.; Murray, C., 1994: The Bell Curve:
Intelligence and class structure in American life.
New York: The Free Press
Jones, J.H., 1981: Bad Blood: The Tuskegee syphilis experiment: A tragedy of race and medicine.
New York: The Free Press
Katz, S.H., 1995: Is race a legitimate concept for
science? The AAPA Revised Statement on Race: A
Brief Analysis and Commentary, University of
Pennsylvania, February
Kaufmann, F., [1944] 1958: Methodology of the
Social Sciences. New York: Humanities Press
Klag, M.; Whelton, P.K.; Coresh, J.; Grim, C.E.;
Kuller, L.H., 1991: The association of skin color
with blood pressure in U.S. blacks with low socioeconomic status. Journal of the American Medical
Association 265(5), p. 599-602
Massey, D.S.; Denton, N.A., 1993: American Apartheid: Segregation and the Making of the Underclass. Cambridge, MA: Harvard University Press
Oliver, M.L.; Shapiro, Th.M., 1995: Black Wealth/
White Wealth: A new perspective on racial inequality. New York: Routledge
Polednak, A.P., 1989: Racial and Ethnic Differences in Disease. New York, N.Y.: Oxford University Press
Ries, L.A.G.; Eisner, M.P.; Kosary, C.L.; Hankey,
B.F.; Miller, B.A.; Clegg, L.; Edwards, B.K. (eds.),
2002: SEER Cancer Statistics Review, 1973-1999,
National Cancer Institute. Bethesda, MD. Table
XXII-1
Schneider, W.H., 1996: The history of research on
blood group genetics: Initial discovery and diffusion. History and Philosophy of the Life Sciences
18(3), p. 277-303
Seite 48
Schulman, K.A.; Berlin, J.A.; Harless, W.; Kenner,
J.F.; Sistrunk, S.; Gersh, B.J.; Dube, R.; Taleghani,
C.K.; Burke, J.E.; Williams, S.; Eisenberg, J.M.;
Escarce, J.J., 1999: The effect of race and sex on
physicians’ recommendations for cardiac catheterization. New England Journal of Medicine 34(8,
February 25), p. 618-26
Schusterov, G.A., 1927: Isohaemoagglutinierenden
Eigenschaften des menschlichen Blutes nach den
Ergebnissen einer Untersuchung an Sträflingen des
Reformatoriums (Arbeitshauses) zu Omsk. Moskovskii Meditsinksii Jurnal 1, p. 1-6
Schutz, A., 1973: Common Sense and Scientific Interpretation of Human Action. In: Collected Papers I:
The Problem of Social Reality, edited and introduced
by Maurice Natanson (The Hague: Martinus Nijhoff)
Shipman, P., 1994: The Evolution of Racism: Human differences and the use and abuse of science.
New York: Simon and Schuster
Smith, E., Sapp, W. (eds.), 1997: Plain Talk About
the Human Genome Project. Tuskegee, Ala: Tuskegee University
Vines, G., 1995: Genes in black and white. New
Scientist 147(8 July), p. 34-7
Contact
Troy Duster, Director
Institute for the History of the Production
of Knowledge
Professor of Sociology, New York University
285 Mercer Street, 10th Floor
New York, NY 10003-6653, USA
Tel.: +1 - 212 - 998 - 8882
Fax: +1 - 212 - 995 - 4904
E-Mail: troy.duster@nyu.edu
«
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
Genetically Modified Foods
and Consumer Mobilization in
the UK
by Javier Lezaun, London School of Economics
In the late 1990s “the consumer” became
the key constituency in the struggle over
genetically modified foods in the United
Kingdom. Consumers were represented and
mobilized in a variety of strategies of commercialisation and opposition. This article
traces one of the genealogies of this process: the effort of the British food industry to
produce an accurate image of the consumer
of biotechnology foods, and to enlist that
image in a successful marketing strategy
for GM products. A comprehensive labelling
policy was seen as the key to addressing
consumer demands and anxieties, but this
strategy soon faltered, as companies abandoned the use of transgenic ingredients
under pressure from anti-GM campaigners.
The article draws attention to the particular
epistemologies of the consumer that are
produced in the course of disputes over
new technologies, and interrogates the emphasis on information and choice as the
fundamental elements of a proper “consumer understanding.”
On 27 March 1999, four members of the “genetiX snowball” campaign walked calmly into a
Tesco supermarket in London, and “confiscated” foods allegedly containing genetically
modified ingredients. When the “snowballers”
refused to pay for the foods they had seized –
offering to exchange them for organic products
instead – they were briefly arrested by the police. One of the activists stated the reason for
their action as follows: “Tescos are breaking the
law by selling food which is not proven to be
safe and which is endangering other farmers’
crops in the production process through genetic
pollution. I intend to carry on decontaminating
supermarkets and I hope others will join in”.1
GenetiX snowball was a small group formed in the late 1990s by a small number of
environmental activists with roots in the peace
movement of the previous decade. It initiated
its campaign against genetically modified organisms (GMOs) in the summer of 1998, with
the uprooting of a few dozen plants at the Model Farm that the American biotechnology firm
Monsanto owned in Watlington, Oxfordshire.
That action resembled many others then taking
place against genetically modified crops
throughout Britain.2 The marked difference
between this initial action of “non-violent civil
responsibility” and the supermarket decontamination exercise in London less than a year
later illustrates an important shift in the tactics
of mobilization and protest against the release
of transgenic organisms in the United Kingdom. What had begun as a campaign targeting
experimental farms and test fields where GM
crops were being introduced into the local environment, morphed into an effort to pressure
food manufacturers and retailers to abandon the
use of genetically modified ingredients and
thereby affect the international political economy of agricultural biotechnology. The locus
of resistance moved progressively from the
country to the city, the farm to the supermarket,
and the decontamination of fields to the confiscation of contaminated foods. The change, in
the case of genetiX snowball, reflected an ongoing discussion of consumption- versus production-oriented tactics among its members.
“So far, genetiX snowball has focused on the
production end of GM food – the GM crops in
our fields,” a member pointed out in a posting
on the group’s website. “But is it really enough
to keep the genetic peril from our own field
whilst it is being imported from fields in other
countries? We also need to pay attention to the
consumer end of things – the GM products in
our supermarkets”.3
Ultimately, the supermarket was chosen as
the location where direct action could meet the
international diffusion of genetically modified
foods, and certainly the “consumer end of
things” became in the late 1990s the central
arena in the struggle over the new technology in
the United Kingdom and the rest of Europe. If
anything, the “snowballers” were rather late in
joining a general trend away from traditional
forms of environmental activism, and towards
the mobilization of consumers at the point of
purchase. Large environmental groups had decided to frame the issue primarily in terms of
“consumer rights.” Friends of the Earth described the introduction of genetically modified
foods in the United Kingdom as “a crime against
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 49
SCHWERPUNKTTHEMA
consumer choice,” and initiated in 1998 their
Supermarket Challenge campaign, while Greenpeace published the popular “supermarket shoppers’ guide” to help consumers avoid products
containing GM ingredients, and routinely staged
protests in front of retailers and manufacturers.
Throughout 1998 and 1999 several British
newspapers carried regular sections advising
readers on how to avoid consuming GM foods,
and offered purchasing tips in the style and format of other consumer information campaigns.4
The result of this multifaceted campaign
was swift and extraordinarily successful. By
the spring of 1999, all major UK supermarket
chains and food manufacturers had made promises to eliminate genetically modified ingredients from their shelves and products. So effective were the “supermarket challenge” campaigns that, by the time the snowballers carried
their decontamination action in London, only
two food retail chains – Tesco and Safeway –
were still refusing to phase out GM food and
ingredients.5 The importance of the action of
the four “snowballers” in the London supermarket lies less in its novelty or originality, and
more in what it says about the trajectory of
action of the British environmental movement
in its opposition to genetically modified organisms. If a group so deeply embedded in the
traditions and tactics of the ecology and peace
movement could stage their “decontamination”
actions in a supermarket, it was clear that the
terrain of the struggle had changed decisively,
and that “the consumer end of things” had indeed become the vital arena of action.
1 Tracing the genealogies of consumer
mobilizations
We must ask how the consumer emerged as the
key constituency in the GM food debate, and
what kind of consumer was mobilized in the
disputes over food biotechnology. It is perhaps
difficult to retrieve the problematic centrality of
consumer rights and interests, now that “consumer choice” has become an incontrovertible
axiom in the policy and politics of genetically
modified organisms. The right of consumers to
choose is a political truism – the kind of unassailable cliché that fills the speeches of government officials, corporate CEOs and activists
alike. However, we need to recuperate some of
Seite 50
the strangeness that this idea should evoke, and
to trace its particular genealogy in the debates
over GM foods. Not that long ago, Raymond
Williams found the very idea of “consumer
choice” paradoxical. It was a “curious phrase,”
he argued, because historically the term ‘consumer’ is a product of the age of mass production and of increased corporate control over the
market. Contrary to the traditional concept of
‘customer,’ which used to denote a personalized
and regular relationship between a buyer and a
seller, the ‘consumer’ was by definition an abstract actor, who operated in an abstract market
over whose internal functioning he had very
little knowledge or control. “Consumer choice”
is in this sense a paradoxical slogan, for it brings
together elements that are historically divergent.
The emergence of the notion of “the consumer”
went hand in hand with the individual’s loss of
actual control over market forces and exchanges
(Williams [1976] 1983, p. 78-9).
I use the term “consumer mobilization” to
describe the process of developing a particular
image of “the consumer” and inserting it into
the strategies of market actors. I borrow the
expression from Miller and Rose’s study of
psychological knowledge in the advertisement
industry of the 1950s. Mobilization is a process
of producing knowledge about and making
statements on behalf of a certain public, thereby linking it to other actors’ strategies. This is,
Miller and Rose argue, “less a matter of dominating or manipulating consumers than of ‘mobilizing’ them by forming connections between
human passions, hopes and anxieties, and very
specific features of goods enmeshed in particular consumption practices” (Miller, Rose 1997,
pp. 1-36). If the actor entitled to “consumer
choice” is construed as an abstract entity, and
positioned vis-à-vis abstracted market forces,
the process of “consumer mobilization” is a
concrete practice of inserting particular understandings of consumer motivation and behaviour into market strategies.
The following sections will address one
example of such mobilization. Rather than
focusing on the tactics of “consumer power”
used by the “snowballers” and others to oppose
the introduction of GM foods, I would like to
consider the other side of the coin: the articulation and enlistment of a particular understanding of the consumer in the marketing strategies
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
of the British food industry. This genealogy of
consumer mobilization has been relatively neglected, which is surprising given that the food
industry tried to develop an operational view of
the consumer of GM foods even before biotechnology became a “public issue” in the late
1990s. The industry deployed for this purpose a
variety of consumer research tools – surveys,
focus groups, and “stakeholder consultations” –
to develop a coherent commercialization strategy for GM foods. The purpose was to find the
“path of least resistance” to the British consumer, to preempt as far as possible a damaging public controversy, and to articulate a
“food chain” approach, or a single industry
strategy towards the marketing of GM foods.
As demonstrated below, the image of the
consumer that the industry developed is not
radically different from the constituency that
would later be mobilized by the likes of Greenpeace and Friends of the Earth. In both cases
the discourses centered on the right of consumers to know, and the responsibility of companies to provide them with informed choice.
Yet, while the industry hoped that these principles would allay consumer fears and gain acceptance for the new technology, in the hands
of activists they became the battle cry of an
increasingly unruly constituency.
2 Producing “Consumer Understanding”
for the Food Industry
It would be easy to infer from the industry’s
rapid retreat in the face of the anti-GMO mobilization that the arrival of GM foods, and the
responses generated in the British public, took
the industry unprepared. Nothing could be
farther from the truth. From the early 1990s
streneous efforts had been made by the industry to predict the likely consumer response to
food biotechnology, and to develop a coherent
strategy of commercialization for the food sector as a whole. The possibility of serious consumer opposition to GM foods was always
present in the minds of leading industry executives, who had experienced, throughout the
1990s, a series of “food safety scares” culminating in the BSE crisis in 1996. Drawing from
these experiences, the industry tried to find the
antidote to a crisis of consumer confidence and
to plan well ahead of the arrival of GM products into the British market.
Two elements were central to this planning: a process of consultation among key
companies, and a program of consumer research designed to map out the anxieties, fears
and desires of the future consumer of GM
foods. Both elements were centralized at the
Institute of Grocery Distribution (IGD), the
research arm of the largest UK retailers and
manufacturers. It was the IGD Policy Issues
Council who, in 1994, began to address the
issue of food biotechnology and created a Biotechnology Advisory Working Group encompassing the largest retailers, key international
manufacturers (i.e. Unilever, Nestlé), a British
biotechnology company (Zeneca), and interested stakeholders (i.e. the National Farmers
Union, the Consumers’ Union). The goal was
to develop an understanding of “consumer
attitudes and consumer requirements” which
would help identify both a “strategy for the
introduction of products of biotechnology in
order of consumer acceptance,” and the “retailers and manufacturers with the customer profile most likely to accept the new technology”
(Brown 1994, p. 72).
At the time, the view put forward by IGD
consumer researchers was already dominated
by the perception that “consumer confidence in
the food industry has been rocked,” and that
consumers were proving to be “far more aware
and less trusting of developments in food production” than the industry had thought (ibid.,
p.v.). Given the general lack of trust, and a
concern with avoiding the mistakes of the recent past, the industry focused on accurately
anticipating and addressing the possible consumer pitfalls of GM foods:
We have learnt from our experience with food
irradiation that consumers will not accept new
technology without sufficient information and
time to evaluate the new technology. In order
to meet consumer requirements for information on biotechnology and to ensure that food
products of biotechnology are introduced appropriately it is essential to fully understand
consumer awareness, understanding and acceptance of biotechnology (ibid., p. 33).
On the basis of these preliminary views, the
Working Group issued its first public statement
on biotechnology in October of 1995. The dec-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 51
SCHWERPUNKTTHEMA
laration did not include specific commitments,
but it did introduce some key terms that would
dominate the industry’s discourse throughout
the 1990s:
As an industry we are committed to a policy
of openness and facilitating understanding as
a means of addressing any concerns about
the new technology. We believe that the provision of information is essential to enable
customers to make an informed choice about
food products. The industry will endeavour
to make information available in the most effective manner to give an objective and balanced view of genetic modification
(IGD/PIC Biotechnology Advisory Working
Group, October 1995).
Terms like “openness” (or later, “transparency”), “understanding,” and, more crucially,
“informed choice” would dominate future public statements on food biotechnology. Labeling,
though not explicitly mentioned in the statement, was the central issue under discussion.
The absence of a clear position on this issue
was indicative of the uncertainty about the
position of North American producers of agricultural commodities on the segregation of GM
crops, and of the divisions that this uncertainty
generated among different sectors of the food
industry. Supermarkets were keen to make a
comprehensive commitment to labeling, but the
large manufacturers were skeptical of its feasibility. The main opposition to labeling, however, came from companies and sectors not
represented in the IGD working group – biotechnology firms selling transgenic seeds to
North American farmers, and international
providers of raw materials and food and feed
ingredients.
Partly to bridge the differences within the
industry, the IGD initiated its consumer research program. Between 1994 and 1997 this
generated an increasingly consistent image of
consumer attitudes and behavior, particularly
on consumers’ opinions on labeling. According
to the reports of the IGD, consumer attitudes to
GM foods were characterized by a low level of
awareness of the issues at hand, combined with
a very strong desire for adequate “information.” The consumers interviewed in the focus
groups seemed fundamentally ambivalent about
the risks and benefits of the new technology,
but decisive and demanding as far as their right
Seite 52
to proper information was concerned. “There
was,” an IGD report points out, “little unprompted mention of the process and when
asked about genetic modification the participants expressed no knowledge.” Yet, as soon
as the researchers provided “a simple explanation of the technology,” the participants in the
focus groups began to express tangible views
on the issue. On the crucial issue of labeling,
the IGD’s research subjects offered a clear
heuristic of labeling and trust:
Product labelling was seen as an essential route
to providing information. (…) If information
was not made available consumers would presume that the industry had something to hide.
On the other hand, if industry was perceived to
be open and honest about genetic modification,
this conveyed industry confidence in the technology and this would be conveyed to the consumer (Sadler, 2000, p. 147).6
On the basis of this interpretation, the IGD began to formulate a more precise position, specifying the kinds of information that would satisfy
the consumers’ demands. Of all the products
containing or consisting of GMOs, which ones
should be labeled, and how? The evidence produced in the focus groups suggested that “the
important issue for consumers would be the
presence of modified genetic material, a novel
entity that would be perceived to present a potential risk…. Consumers would be unable to
differentiate between genetic material that is
viable (intact; active) and non-viable (degraded
through processing; inactive)” (Sadler 2000, p.
45). This suggested a labeling regime based on
the ability of the food provider to know whether
transgenic material had at any point been involved in the manufacture of the product. The
consumers represented by the IGD thought that
“product labeling is independent of the concentration or format of GM ingredients; if the company knows an ingredient from a GM crop is
present, however small, then the product should
be labeled” (ibid., p. 180).
It was at this time, a couple of years into
the launch of the IGD Biotechnology Initiative,
that the food industry achieved its first, and
groundbreaking success in the commercialization of GM foods, a success that helped solidify the emerging views on the link between
labels and consumer acceptance. The product
in question was a tomato purée derived from a
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
genetically modified tomato developed by the
British firm Zeneca. In 1996, two supermarket
chains – Sainbury’s and Safeway – agreed to
commercialize cans of the tomato purée under
their own labels. The cans, sold at a comparatively cheaper price than conventional alternatives, were clearly labeled as “produced from
genetically modified tomato.” Following the
premise that “the more publicity the better,” the
launch included an intense media campaign
(see Harvey 1999).7 Sainsbury’s and Safeway
sold 1.6 million cans of the genetically modified tomato purée.
It is now easy to forget that the first experience of the British food industry with a GM
product was, by their own standards, highly
successful. Consumers seemed perfectly happy
to purchase a genetically modified food, provided it offered some direct benefit (in this
case, a better price) and was clearly labeled. To
many in the food industry, this represented the
validation of a theory of consumer behavior
that linked the acceptance of food biotechnology to the provision of clear and unambiguous
labels and information. Nigel Poole, who was
then group manager for external and regulatory
affairs at Zeneca, emphasized the exemplarity
of the tomato purée case in testimony to the
House of Lords. “Listening” to social concerns
and providing consumers with “choice,” he
argued, were the key to the successful marketing of a GM product:
You need many other things to come together,
not just to bring the product out but to make a
commercial success. The stakeholders are an
essential part of that. When we started the
launch of the tomatoes we communicated –
and, I want to emphasize, we listened to –
many different parts of society from the media
to civil servants, to Members of Parliament,
Lords, members of the European Parliament,
local people and consumers. We tried our best
to build their thinking and their thoughts into
the way we behaved. When we came forward
we thought this would be the first such product in Europe. It is easy for us: it is our culture, but we wanted to make sure that there
was choice. That was never a question. The
reason we labelled our tomato puree was not
for safety reasons at all. It was simply because we wanted to give information to the
consumer.8
Soon after the launch of the tomato purée, the
IGD Policy Issues Council issued in March
1997 its final recommendations on the labeling
of genetically modified products. Ross Buckland, then president of the IGD, urged the food
industry to adopt the regulations in order to
“demonstrate a positive commitment to consumer understanding and choice”.9
“As we have seen with food irradiation,”
the guidelines document reminded its readers,
“new technologies are not always readily accepted by consumer. The provision of freely
available, objective information and, where
practicable, informed choice are key to the
successes of these products” (IGD 1997, p. 18).
To meet the demand for information, the guidelines proposed labeling criteria that were
stricter and more inclusive than the rules of the
European Novel Foods Regulation. They called
for the labeling of any foods “known to contain
modified genetic material, whether active or
not” (ibid. pp. 7-19),10 which, for the first time,
made labeling independent of whether the new
products were substantially different from their
conventional counterparts. The IGD recommended labelig even of foods where the modified DNA or protein was no longer “intact,” on
the basis, once again, of the consumer’s alleged
inability to appreciate the distinction between
different types or degrees of modification.
The inclusiveness of these labeling criteria
corresponded to a very particular understanding
of the relationship between consumer confidence and the inscription of information in food
products. In the thinking of the IGD, labeling
was first and foremost a marketing instrument.
Labels were expected to provide consumers with
choice, but also to generate a familiarity with
products that might otherwise generate suspicion. Rather than a warning sign, the industry
hoped, labels could be a way of earning the
confidence of the public. “When purchasing
products for consumption at home,” Michele
Sadler, consumer preferences manager at the
IGD argued, “consumers wanted products to be
labelled as this conferred that the food producers
had nothing to hide about use of biotechnology”
(Sadler 1998, pp: 306-309). This position resonated with the corporate philosophy of several
major players in the UK food industry, particularly retailers trying to build a brand identity
around their ability to “listen to the consumer.”
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 53
SCHWERPUNKTTHEMA
Enshrining consumer choice as the key to success was appealing to retailers and other industry sectors who, at this stage, had no direct investment in the success biotechnology, and who
would very likely be able to shift the technical
burdens and labeling to their suppliers.
3 Market Failure
It is well known how the story developed after
this. Soon after the food industry announced
the new labeling guidelines, what had been a
planned concerted strategy towards the managed introduction of GM foods turned, under
increasing consumer pressure, into a series of
individual and uncoordinated avoidance actions, as company after company tried to limit
the impact of the controversy on their brands
by promising to eliminate GM ingredients from
their products. By the spring of 1999 the GMO
issue had become, according to the industry’s
own polls, the main “food safety concern” of
British consumers, surpassing pesticides, food
poisoning, or even BSE. Supermarkets began
to offer “GMO-free” products, thereby violating the IGD guidelines, which had urged that
“under no circumstances should negative
claims, such as ‘free from genetically modified
[ingredient]’ or ‘contains no genetically modified [ingredient],’ be used.” Iceland, a mediumsize retailer that had not participated in the IGD
initiative, was the first to publicize its products
as “containing no GMOs,” but very soon all the
major supermarket chains, as well as the largest
food manufacturers, announced similar policies
of avoidance. By the spring of 1999, following
the decision of Tesco and Unilever to cave in
to the anti-GM campaign, The Independent of
London could publish a triumphant paeon to
the power of consumer mobilization:
What a good week this has been for those
who believe in the power of the consumer.
Nothing, we had been told, was to stand in
the way of the progress that was genetically
modified food; only Luddites and hysterics,
we were led to understand, had doubts about
health implications; why wait for further
testing, said those who know better, when
the technology was available now? The consumers didn’t accept any of this, and made it
clear that they wanted more information before buying new foods. One by one the supermarkets, which had started selling geneti-
Seite 54
cally modified products without so much as a
blush, began to change their tune.11
Despite streneous attempts to anticipate the reactions and anxieties of the virtual consumer of
GM foods, the particular form that consumer
mobilization took in the late 1990s seemed to
take the IGD by surprise. Suddently, the consumer appeared as an unruly constituency. Several culprits for the failure of the industry’s consumer management efforts were readily at hand.
The media was blamed for its sensationalistic
coverage of the GMO issue, which replaced the
consumer’s legitimate demand for “meaningful”
information with irrational fear. On the other
hand, the introduction of unsegregated transgenic soybeans and maize from North America
had made the labeling recommendations largely
unfeasible. Since companies had no way of
knowing whether the ingredients of their products were conventional or modified, but had
reason to assume that a majority of their products would contain at the very least traces of
trasgenic organisms, the strict application of the
IGD guidelines would lead to the labeling of all
food products. The culprit in this case was also
easy to identify: the American company Monsanto, which had failed to heed the warning of
the British food industry and had refused to
segregate genetically modified crops from conventional commodity streams. The uncontrolled
introduction of Monsanto’s soybeans violated
all the axioms of the IGD’s understanding of a
successful commercialization strategy, which
rested on careful management and piecemeal
introduction of products. As an IGD review of
the events of the late 1990s argued:
The inclusion of a GM soya variety in the
commodity stream was in contrast to the UK
industry’s desired approach to introducing
GM products. GM soya had no direct consumer benefit, and without segregation, consumers would not easily be able to exercise
choice. With soya ingredients used in an estimated 60% of processed foods, the possible
presence of GM soya ingredients in a wide
range of products would give consumers the
impression of a very fast introduction of the
technology (Sadler 2000, p. 27).
Many things have changed since 1999, when
most food companies decided to avoid transgenic ingredients in their products. New European regulations have strengthened the labeling
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
requirements for GM foods, and some new
transgenic organisms have been authorized for
commercialization. Theoretically, then, the food
industry could proceed with the marketing of
GM foods. Yet, no company seems willing to
attach the stigma of a GM label to its products.
One could expect that the market failure of
GM foods in the UK would lead to a reexamination of the model of consumer behavior that
the British food industry applied in their commercialization strategy of the mid-1990s. The
model put forward by the IGD and adopted by
the food industry was predicated on the existence of an “epistemic” consumer, an actor
whose competencies and behavior are defined
in terms of “understanding” the issues – or,
more frequently, not understanding them – and
whose fundamental demand, precisely because
he does not understand, is an abstract “right to
know,” to be satisfied through product labeling.
There are signs that this peculiar epistemology of consumer behavior has lost some of
its appeal, and future controversies over new
technologies will probably see the mobilization
of a different sort of consumer. An IGD report
published after the onslaught of anti-GM consumer boycotts already insinuated that perhaps
what really concerned consumers might not be
information and the provision of choice between products, but rather a “lack of control”
over the introduction of new technologies
(Sadler 2000, p. 81).12 An inkling that suggests
a form of consumer mobilization less focused
on the epistemology of shopping behavior and
more attentive to the politics of technology
development and control; an understanding of
consumers that centers less on the choice between products and more on the legitimization
of processes of technological innovation.
Notes
1) Genetix Snowball, Press Release, 27 March 1999
2) For an analysis of this form of action, see Iain
A. Boal, 2001, pp. 155-185
3) GenetiX snowball, “The principles for supermarket decontamination.” At http://www.gn.apc.org/
pmhp/gs/shopping.htm, retrieved 20 August
2001.
4) Several “consumer guides” appeared in the late
1990s, among them Sue Dibb and Tim Lobstein,
GM Free: A Shopper’s Guide To Genetically
Modified Food (Virgin Publishing, 1999) and
Joanna Blythman, How To Avoid GM Food
(Fourth State Limited, 1999). The emphasis on
responsible consumption resonates with a long
tradition of “green consumerism” among British
environmentalists. In the landmark Consumers’
Guide to the Protection of the Environment,
published in 1971 by Friends of the Earth, Jonathan Holliman argued that “the conversion to a
life style more related to the ability of the Earth
to supply our needs must start by the consumer
regaining the political power of the individual to
have real choice in the market place.” Green
consumer guides, the predecessors of the bestselling anti-GM guides of the late 1990s, were
extremely successful in the late 1980s. Some
have argued that green consumerism was a
“compromised response” to the status quo
Thatcherism, a sort of hybrid between environmental activism and the free-market ideology that
dominated British policy and politics in the 1980s
and 1990s. In this view, the reliance on “consumer power” would be a result of the difficulty
of shaping the policy process through the institutions of political representation. The role of the
state, as a target and potential ally of environmental activism, became secondary, shifting the
emphasis to the ability of individual citizens to
affect changes in the marketplace in their capacity as consumers. For an extended interpretation
of the British case, see Mike Robinson, The
Greening of British Party Politics (Manchester:
Manchester University Press, 1992).
5) And both retailers changed their position shortly, under increasing competitive pressure from
rivals that had already made commitments to
“GM-free” foods.
6) Sadler’s report provides a summary of the work
of the IGD consumer researchers on the acceptability of GM foods throughout the 1990s.
The consumers’ position on labeling was
sometimes independent of their concrete attitude
towards bioengineered foods. “A few consumers
said,” the IGD report quoted above pointed out,
“that their decisions on labeling were not necessarily driven by what they wanted, but what they
felt was right for other consumers who might be
concerned about genetic modification.” (p. 174)
Consumers were providing opinions on the right
to know whether a food product had been genetically modified, rather than on the issue of genetic
modification per se, and their demand for labeling could be interpreted as a declaration of the
rights of consumers, rather than a show of mistrust in the technology.
7) As had been the case with the commercialization of the FlavrSavr tomato in the United
States, biotechnology and food industry execu-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 55
SCHWERPUNKTTHEMA
tives thought at the time (1996) that a highpublic profile could only help the prospects of
the new products. According to the industry’s
own data, about 22 million viewers received information about the new product through television commercials and news reports. Martineau
provides a first-hand account of the regulatory
and public relations disputes involved in the
FlavrSavr case (cf. Martineau).
8) Dr Nigel J. Poole, Testimony before the House
of Lords, Select Committee on the European
Communities, 3 June 1998.
9) Ross Buckland, Chief Executive of Unigate
PLC, Chairman of the Policy Issues Council and
IGD President, Foreword to the Institute of
Grocery Distribution, Labelling and Communication Guidelines (Wartford: Institute of Grocery Distribution, March 1997).
10) Institute of Grocery Distribution, Labelling and
Communication Guidelines, p. 7. In this, as in
other cases, the IGD justified their conclusions
by reference to the insights generated by the
consumer research program. On the issue of labeling active versus inactive modified genetic
material, the IGD argued that “our discussions
with consumers on this subject demonstrated
that they were unable to distinguish between active and inactive (as a result of processing) genetic material” (p. 5).
11) The Independent on Sunday, 21 March 1999.
12) This is, of course, not a particularly innovative
idea. It was already present in the early reports
of IGD researchers, although there it was expressed as a concern over the timing of technological innovation (i.e. the speed with which
GM foods would be introduced). The importance of control was also strongly argued in a
report commissioned by Unilever and published
simultaneously with the IGD labeling guidelines. In Uncertain World, Robin Grove-White
Phil Macnaghten, Sue Mayer and Brian Wynne
cautioned that “reliance on labels as a political
response to concerns about the wider cumulative implications of biotechnology for society,
reduces inherently general issues to matters of
atomised consumer ‘decision’ at the point of
sale.” See Uncertain World: Genetically Modified Organisms, Food and Public Attitudes in
Britain (Centre for the Study of Environmental
Change, Lancaster University, March 1997).
Similar arguments are being made at the moment about the introduction of nanotechnology
in the UK, and the need to incorporate the concerns of citizens and consumers earlier in the research and development process. See for instance James Wilsdon and Rebecca Willis, See-
Seite 56
through Science: Why Public Engagement
Needs to Move Upstream (Demos, 2004).
References
Boal, I.A., 2001: Damaging Crops: Sabotage, Social
Memory, and the New Genetic Enclosures. In Lee
Peluso, N.; Watts, M. (eds.): Violent Environments.
Ithaca: Cornell University Press, pp. 155-185
Brown, C.M., 1994: Consumer Attitudes In Agriculture and Food: A Critical Review. Watford: The
Institute of Grocery Distribution
Harvey, M., 1999: Genetic Modification as a BioSocio-Economic Process: One Case of Tomato
Puree. CRIC Discussion Paper No. 31, University
of Manchester
IGD – Institute of Grocery Distribution, 1997: Labelling and Communication Guidelines. Wartford:
Institute of Grocery Distribution
Martineau, B., 2001: First Fruit: The Creation of the
Flavr Savr Tomato and the Birth of Biotech Foods.
New York: McGraw-Hill
Miller, P.; Rose, N., 1997: Mobilizing the Consumer: Assembling the Subject of Consumption.
Theory, Culture & Society, 14(1), pp. 1-36
Sadler, M., 1998: Labelling genetically modified
soya and maize in the EU. Nutrition & Food Science 6 (1998), pp. 306-309
Sadler, M., 2000: GM Foods: Past, Present, Future?
Industry’s Approach, Consumer Attitudes, Expectations for the future. Watford: Institute of Grocery
Distribution, p. 147
Williams, R., 1983[1976]: Keywords: A vocabulary
of culture and society. New York: Oxford University Press, p. 78-9
Contact
Dr Javier Lezaun
ESRC Research Officer
Centre for Analysis of Risk and Regulation (CARR)
London School of Economics and Political Science
Houghton Street, London, WC2A 2AE, UK
Tel.: +44 (0) 20 - 7955 - 78 38
Fax: +44 (0) 20 - 79 55 - 65 78
E-Mail: J.Lezaun@lse.ac.uk
«
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
Speaking Truth to Bureaucratic
Power: Three National Responses to Cholera
by Stephen Turner, University of South
Florida
The State delegates its executive authority to
civil servants, or bureaucracies, and delegates much of the “discussion” leading up
to decisions to advisory bodies of various
kinds. But there are strong national differences in the patterns of delegation, particularly in relation to expert knowledge. The
article examines three major traditions in the
light of one revealing example: the problem
of cholera in the nineteenth century. It also
considers the problem of expert knowledge
in relation to claims made by Ulrich Beck
(1992, 1994, 1995, 1997) to the effect that
some form of popular participation is an
appropriate corrective to expert opinion.
1 Cholera and Experts
In recent writings regarding cholera in the nineteenth century, scholars have increasingly made
clear the extent to which the “right” experts
were ignored, the distinctiveness and contingency of the situations which they were in, and
the extent to which politics, especially bureaucratic politics, played a significant role in both
the failed reception of new ideas about cholera
failure to implement the necessary measures,
particularly the creation of sanitation processes
and water filtration. The story of the Hamburg
epidemic of 1892 is emblematic of expertise
gone wrong. The reaction of the London St.
James Parish Board, which was persuaded to
remove the handle of the Broad Street pump by
a commission that included John Snow, is emblematic of right decision making. The actions
of the sanitary commission of the city of New
York also stand out as a success. The actions in
Britain of the General Health Board, which operated with a bad theory of cholera that was only
slowly abandoned, is an example of partial success. London was spared an epidemic like Hamburg’s as a result of their efforts.
Richard Evans’s classic text on the Hamburg cholera epidemic of 1892 comes to the
following conclusion:
Hamburg experienced a major cholera epidemic in 1892 for three basic reasons. Last in
order of importance, and coming into operation only when the other two factors had
their effect, was the chronic overcrowding,
poverty, and malnutrition which ... existed in
virtually all the poorer areas of the city,
above all after the new harbor construction
of the 1880s. This acted as a “multiplier” of
the disease by facilitating its rapid spread
from person to person. It could only come
into action because the disease was carried to
virtually every household in the city by
mains water. The failure of the Senate and
the Citizens’ Assembly to agree on a proper
filtration system for the water-supply until it
was too late, and the failure to implement a
comprehensive system of sewage disposal
and treatment, must be accounted the principal reasons for the epidemic proportions
reached by the disease ... Most important of
all was the Hamburg authorities’ policy of
concealment and delay. (Evans 1987, p. 304)
This is a good point to begin the comparisons,
because this was a case in which expert
knowledge – science – was catastrophically
misgoverned.
The misrule in Hamburg occurred through
a combination of the inability of “public dialogue between the broadest variety of agents” –
to use Beck’s phrase – to reach agreement, and
a powerful official bureaucratic apparatus able
to keep secrets. So we may take it as a test of a
certain model of governance of science: one in
which powerful bureaucracies are directed and
controlled by public discussions which are
themselves governed by elaborate procedures.
The alternatives to this model are those in
which intermediate bodies operate to provide
facts or conclusions that can be made the subject of public discussion and action.
In Hamburg there had been, prior to the
epidemic of 1892, a long political discussion
over the problem of drinking water, of precisely
the inconclusive kind that Beck supposes should
be an expected outcome of what we may call,
for want of a standard label, “expert-egalitarian”
discussion, by which we may mean “discussions
in which everyone is treated as undifferentiated
with respect to their expertise”. A political decision for filtration and clean water, which, according to the theories accepted elsewhere, was
essential to avoid cholera being spread through
the water supply, would have been costly. It was
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 57
SCHWERPUNKTTHEMA
blocked through disagreement over how to
charge for it, as well as because of skepticism
about the need. The popular opinion was that
the available river water was especially pure,
and this was an important reason for the failure
of the political discussion to produce agreement.
Yet the Hamburg politicians did consider expert
advice from their local bureaucrats and the local
medical community: the two were closely entwined, and both groups supported a theory of
cholera derived from Max von Pettenkoffer’s
view of cholera (Evans 1987, pp. 194-7, 199200), which minimized the problem of transmission through water of the cholera bacterium.
Pettenkoffer, a Munich physician, held the view
that the cholera bacterium alone could not produce the disease. In a famous demonstration, he
drank a beaker of infected water, to no ill effect.
He thought the disease required other conditions, including “fermentation” in the ground,
which implied different public health measures.
The board acted in accordance with a process in which they were constrained not by the
views of other experts, which might have forced
them to consider alternatives to their own view,
but were directly controlled only by the Hamburg senate and lower house, that is to say by
politicians and notables who provided the sole
form of official public discussion. Hamburg also
had commissions. But public discussion in these
commissions conformed rather closely to Beck’s
ideal: the commission was ignored (Evans 1987,
p. 158). There was no delegation of decisionmaking power to expert bodies, no “monopolization,” which is what Beck in principle rejects.
Delay and non-decision were the consequence.
2 Where Bureaucratic Expertise Fails
The inadequacy of the advice of the Hamburg
medical community reflects a more general
phenomenon. One of the features of bureaucracies is that career advancement is heavily dependent on conformity. Strong bureaucracies
penetrate into the professional or expert community, affecting the climate of opinion within
them. The effect of a powerful bureaucracy in
this case was to assure conformity with what
turned out to be a mistaken theory of cholera.
But powerful bureaucracies of this sort succeeded elsewhere. In Berlin, the same kind of
bureaucratic power produced conformity with
Seite 58
what turned out to be the right view, and Berlin
was spared. But Koch’s powers, as described
by Evans, are the fullest realization of the intertwining of bureaucratic power and control of
opinion through the control of careers:
Koch could ... be assured ... of vigorous backing from the Imperial government in imposing
his views on cholera prevention on medical
authority throughout the Empire. Already in
June 1884 he was made a member of the
Prussian Privy Council (Staatsrat) and coopted onto the Cholera Commission for the
German Empire. This had hitherto been controlled by Pettenkoffer. Koch became the
dominant force. In the same year he organized
a course of the diagnosis and prevention of
cholera, in which 146 doctors took part, including 97 civilian (i.e., nonmilitary) doctors
from all parts of Germany and 20 other countries. In 1885 he became full professor (Ordinarius) of Hygiene at the University of Berlin,
and was appointed Director of a specially created institute for Infectious Diseases in 1891.
These positions enabled him to influence large
numbers of pupils in favor of his ideas and
methods. His influence was further spread by
his senior pupils. ... Koch founded a journal
for the propagation of his ideas, the Zeitschrift
für Infektionskrankheiten. Thus Koch and his
pupils were rapidly taking over the field of
hygiene (Evans 1987, pp. 266-67).
So the expert advice which the politicians dealt
with in each case was essentially monolithic,
but different. The expert with authority in Berlin was Koch. But Koch had no direct authority
over Hamburg, whose physicians were influenced by Pettenkoffer.
3 Multiple Sources of Expertise
If we consider two other cases with different
structures, the results are revealing. In London,
there was a national bureaucracy, the General
Health Board, headed by a statistician and sanitary reformer named William Farr. Farr was
wrong about cholera – he was a miasmatist, who
had produced an impressive curve fit to data on
cholera deaths in London, which he published,
based on the idea that elevation decreased the
number of cholera deaths in an epidemic. He
also produced a vast quantity of research relating to other variables, especially social variables, water quality and so forth, none of which
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
produced the startling consistency of the elevation data. The bureaucracy headed by Farr was
never powerful as a regulatory body. Decisions
about water, for example, were local. Moreover,
the career structure of London medicine was
such that no bureaucracy had much ability to
assure the conformity of the local medical
community. Farr’s office had a monopoly on the
official publications it produced about cholera,
but these were not binding on local authorities.
Nor was there any particular career benefit to
conformity to the position of the General Health
Office. And this led to a different outcome.
Beginning with the political achievement,
which is only now being acknowledged, of the
St. James Parish committee which was persuaded to remove the handle of the Broad
Street pump – now one of the most celebrated
episodes in the history of medicine (Brody et al
1999). The means by which this political act
occurred are partly known. The parish committee, faced with a local outbreak of cholera,
what we would now call a “cluster,” appointed
Snow and a clergyman named Henry Whitehead to a special cholera inquiry committee to
deal with an outbreak of cholera near Golden
Square. He applied the spot map technique, and
found that 73 of the 83 cases were near the
Broad Street pump, which Snow reasoned was
the source. Whitehead was skeptical of this
explanation at first, but was soon convinced.
Some who drank the water escaped cholera,
others who didn’t drink it contracted the disease. But the proportions were overwhelmingly
in support of the pump hypothesis.
The parish committee asked Snow to write
the report up, and Whitehead himself figured
out what had contaminated the pump water – a
leaky cesspool three feet from the pump. The
material came from the washing of the diapers
of an infant who had died and for whom the
cause of death was listed as diarrhea. The discovery led the parish committee to excavate the
pump area, which revealed that the brick linings of both the well and the cesspool had decayed, allowing seepage. The pump’s handle
was removed, and the outbreak subsided. This
was an act of a small political body faced with
an emergency, but in a position to create its
own commission, listen to its conclusions, and
act independently on them – or decline to act.
This dramatic episode was only a small part
of the story, however. Snow’s own efforts began
long before this episode, and the absorption of
his views continued long after. The medical
background was complex. Cholera was the most
researched disease of the century, and many
correlations, as well as many well-attested cases,
were part of its large literature. Snow, a private
physician, was struck by the many remarkable
cases in which cholera spread over vast distances, apparently carried by individuals, strange
cases in which cholera attacked one group, such
as the passengers of a particular ship, and spared
those that had left from the same port at the
same time, and cases where one company of
soldiers passing a water hole and drinking from
it left healthy, and the next one became deathly
ill. These cases were difficult to square with any
sort of miasmatic or “fermentation” account.
Snow hypothesized, as it turned out correctly, that the real cause was minute material in
the evacuations of the victims, that got into the
water supply or was otherwise ingested. In an
era in which proportionality of cause and effect
was a standard methodological rule, and before
the microbe account of disease was accepted,
this was a radical idea. It was also easy to regard
it not as radical, but as old news. Even Farr’s
research office agreed in some respects with the
basic idea: bad water was one of the many variables they found to be associated with cholera.
But bad water was badly defined, and not defined in a way that was readily amenable to
policies that allowed epidemics to be stopped or
prevented. In the long run, this was the loophole
through which the bureaucracy grudgingly accepted Snow’s arguments – as though they had
been theirs all along. But it was an important
loophole, for it allowed for the institution of
reforms that had the desired result.
Snow’s hypothesis was startlingly reconfirmed as a result of a natural experiment in
which a mysterious outbreak of cholera occurred
after changes had been made in the water supply, but only among the customers of one water
company. This appeared to refute Snow. It was
then discovered that the company had been illegally drawing water from a source that was “impure.” What is striking about this story is, on the
one hand, the obduracy of the bureaucratic experts, though they did eventually concede that
Snow was right, and on the other the ability of
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 59
SCHWERPUNKTTHEMA
Snow – and the motivation– to persuade the
parish committee, which promptly created a
“commission” rather than attempting to make
the decision on its own, to act on his ideas, and
the openness of the committee to being persuaded. The result was that London did not have
another cholera epidemic after the changes in
the water supply were fully put into effect.
4 Private Expertise: the American Case
The American version of this story is equally
interesting, largely because it represents a different combination of politics, expertise, and
bureaucratic structures. In the United States,
public health matters in the nineteenth century
were for the most part controlled by municipalities, which were, in the case of New York and
other major cities, democratic in a particular
sense – dominated by the “spoils system”. The
major device for dealing with the threat of cholera was sanitation, and sanitation contracts were
political plums. Boards of Health, in a typical
arrangement that applies to many boards even
today, were composed of elected officials who
were stakeholders of various kinds who sat as
the board of health and used its special powers
when circumstances required. The politicians –
Democrats, in this case – preferred to conduct
business as usual. But they were vulnerable to
reformers, and in the manner that they were
defeated the deep roots of national political and
bureaucratic traditions become visible.
Tocqueville, writing a few decades before,
had observed that “a single Englishman will
often carry through some great undertaking,
whereas Americans form associations for no
matter how small a matter. Clearly the former
regard association as a powerful means of action, but the latter seem to think of it as the only
one” ([1835]1966, p. 514). This is precisely
how cholera was attacked. As Charles Rosenberg notes in his history of the American response to cholera (1962), “it is hardly surprising
that New York’s Citizens’ Association (an informal group of respectable – and predominantly Republican – Gothamites organized early
in the 1860’s to promote ‘honest government’)
should sponsor a subsidiary Council of Hygiene
and Public Health” (p. 187). This “council” – a
case of a Tocquevillian association – surveyed
the sanitation arrangements of the city, and re-
Seite 60
ported the dismal results of the sanitary regime
in place. Another arm of the Citizens’ Council
was at work on reforming the political structure
that produced it, proposing a bill in the state
legislature to create a board of health that did
not operate on the spoils system, and had experts rather than politicians on it. This was a
lesson drawn from the examples of Paris and
London, but also from Providence, Rhode Island
and Philadelphia. The bill required that the
board consists of medical men trained especially
for public health work (Rosenberg 1962, pp.
188-91).
The state of knowledge in 1866 was expressed by the New York Academy of Medicine, yet another Tocquevillian association –
which advised the medical profession to “for all
practical purposes, act and advise in accordance
with the hypothesis (or the fact) that the cholera
diarrhoea and ‘rice-water discharges’ of cholera
patients are capable in connection with wellknown localizing conditions, of propagating the
cholera poison, and that rigidly enforced precautions should be taken in every case to disinfect
or destroy these ejected fluids” (quoted in
Rosenberg 1962, p. 195). The resolution reflected some medical politicking – the “local
conditions” clause assured unanimity, though
few doubted that the discharges alone were the
cause. But it also reflected the internationalization of expertise on the topic, and the rapidity of
“conversions” to the “Snow-Pettenkoffer” account of the disease, which in practice was the
Snow account, was impressive.
The New York Sanitary Commission,
which had been granted enormous power by
the legislature, acted accordingly: “... the bedding, pillows, old clothing, and utensils – anything that might ‘retain or transmit evacuations
of the patient’ – were piled in an open area and
burned” (Rosenberg 1962, p. 205). New York
City escaped cholera, other states copied the
legislation (Rosenberg 1962, p. 211), and the
contained “epidemic” of 1866 was the last serious cholera threat in the United States. The
politics of opposition are worth noting, especially in light of Beck’s demands. The Commission was imposed by the state legislature,
which was dominated by Republicans; the Democrats, Catholics, and immigrants of New
York City opposed it as the creation of rural
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
lawyers that favored the rich at their expense
(Rosenberg 1962, p. 208).
The New York Sanitary Commission was
composed of experts, but experts who were
experts as private individuals rather than individuals who were the creation of a consensus
producing career structure in a powerful bureaucracy. They were accountable professionally but also accountable as public figures for
their actions, in the sense that their personal and
professional reputations were closely tied to the
outcomes of what were very public decisions.
And there were associations, such as the Citizens’ Council and the New York Academy of
Medicine, which were independent watchdogs,
with an eye on the practices of other governments and on international expertise. A member
of such a board was highly constrained by these
bodies – someone who did not wish to jeopardize a carefully built-up reputation both as an
individual and as an expert would be obliged to
resign or to protest bad decisions.
5 Expert Egalitarianism
Beck’s model contrasts with this rather sharply,
because in a situation of expert egalitarianism,
reputation is unimportant or equalized, as is
responsibility for the outcome: rather than being held responsible, a person can behave irresponsibly without consequences or act in terms
of self-interest without consequences. Indeed,
this is a major part of the Hamburg story. The
issue of taxation which was entirely a matter of
interest politics prevented the reaching of a
resolution, exactly as Beck says is a permissible outcome, with the consequence that filtration devices were not built until after the epidemic had taught the public lesson that they
were necessary. To be sure, if Hamburg had
been as fortunate as Berlin to have had the
right leading figures in its bureaucracy, bureaucratic power and the consensus it favored
would have produced the right decision. But
the issue of “governance” is not eliminated by
the existence of powerful bureaucracies. Someone needs to pick the powerful bureaucrats and
to judge the bureaucracy. The Hamburg notables and politicians, who were closely related
to the medical community, proved incapable of
doing so. Thus the combination of interest
group democracy and powerful bureaucracy is
more generally prone to the same very particular kind of error, and in this case it proved fatal.
6 Using Expertise Effectively
Germany had the best science at the time of the
Hamburg epidemic – Koch had won a Nobel
Prize for identifying the cholera bacterium. Yet
it had the worst cholera epidemic of Europe,
long after other countries had solved their cholera problem. Is it too much to compare this to
the situation in German physics during WWII?
There again, Germany had the best scientist,
Heisenberg, and the best intellectual resource
base. The customary view of this episode is that
authoritarianism led to failure. Heisenberg, uncorrected by vigorous debate from his subordinates, made a key error and failed to see the
solution to the problem of fusion. But in a larger
perspective, the problem may be seen to be one
of the organization of scientific activity: The
bureaucratic structure of the research effort led,
as it led in the Hamburg medical community, to
a consensus that turned out to be false. And it is
difficult to imagine a powerfully bureaucratic
mode of the governance of science that would
not be systematically prone to this kind of error.
James Bryant Conant, the last High Commissioner of Germany and the first American
Ambassador to West Germany, writing after
the Second World War, described the following model for presenting expert opinions to
decision-making bodies. To avoid what he took
to be the central problem of scientists promoting their own hobby horses, he suggested that
even a good idea ought to be able to withstand
criticism and proposed that opponents be selected to play the role of devil’s advocate.
These opponents would argue for alternative
proposals so that decision-makers would be
given a genuine choice, but also so that the
experts would be forced to articulate arguments
that would be not merely persuasive to nonexperts but tested against the criticisms of the
expert opponent. This left judging in the hands
of nonexperts, but gave experts their due as
pleaders of cases. There is a sense in which this
model is the one that most closely represents
the situation in St. James Parish, and in the
body that the parish committee created when it
joined Snow with a skeptical clergyman. Snow
obviously was arguing not only a minority
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 61
SCHWERPUNKTTHEMA
view but a view opposed by the official bureaucracy. Snow nevertheless prevailed, producing perhaps the single best decision in the
whole cholera affair.
The New York model is also revealing: expertise constrained by expert scrutiny, in a situation in which the “outside” experts are genuinely
independent, and in which the reputations of the
experts exercising authority are, in effect, marketized, so that they would suffer for their obduracy, constrains experts very effectively, while
at the same time producing decisive results– the
New York methods were highly effective and
easy to imitate. Whether this is a model that can
be used in other political traditions, such as the
German, in which “cooperation” is the working
norm, is open to question. In each of the cases
some other means of protection against the error-prone combination of bureaucratic power
and the quasi-scientific “consensus of scientists”
existed. And this is something that powerful
bureaucracies which create their own climates of
opinion effectively preclude.
Rosenberg, Ch.E., 1962: The Cholera Years: The
United States in 1832, 1849, and 1866. Chicago:
The University of Chicago Press
Tocqueville, A. de, [1835]1966: Democracy in
America. ed. J. P. Mayer, trans. George Lawrence.
Garden City, NY: Doubleday & Company, Inc.
Contact
Stephen Turner
Graduate Research Professor of Philosophy
Department of Philosophy FAO 226
University of South Florida
Tampa, FL 33620, USA
Tel.: +1 - 813 - 974- 55 49
Fax: +1 - 813 - 974 - 59 14
E-Mail: turner@shell.cas.usf.edu
«
References
Beck, U., 1992: The Risk Society: Towards a new
modernity. London, Newbury Park, Cal.: Sage Publications
Beck, U., 1994: The reinvention of politics: Towards a theory of reflexive modernization. In: Beck,
U.; Giddens, A.; Lash, S. (eds.): Reflexive Modernization. Stanford, Cal.: Stanford University
Press, pp. 1-55
Beck, U., 1995: Ecological Enlightenment: Essays
on the Politics of the Risk Society. M. Ritter
(trans.). Atlantic Highlands, N.J.: Humanities Press
International, Inc.
Beck, U., 1997: Erfindung des Politischen: The
Reinvention of Politics: Rethinking Modernity in
the Global Social Order. Mark Ritter (trans.). Cambridge: Polity Press; Cambridge, Mass.: Blackwell
Publishers
Brody, H; Vinten-Johansen, P.; Paneth, N.; Rip,
M.R., 1999: John Snow revisited: Getting a handle
on the Broad Street pump. Pharos 62(1), pp. 2-8
Conant, J., 1951: Science and Common Sense. New
Haven, CT: Yale University Press
Evans, R.J., 1987: Death in Hamburg: Society and
Politics in the Cholera Years 1830-1910. Oxford:
Clarendon Press
Seite 62
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
Reflexive Wissenspolitik: Öffnung und Erweiterung eines
neuen Politikfeldes
von Peter Wehling, Universität Augsburg
Reflexive Wissenspolitik umreißt eine Perspektive der konzeptionellen Erweiterung
und sozialen Öffnung des neu entstehenden Handlungs- und Diskursfeldes „Wissenspolitik“. Sie ist auf die reflexive Infragestellung der etablierten Wissensordnungen in modernen Gesellschaften gerichtet
und gewinnt entscheidende Impulse aus
der zunehmenden Anerkennung und Politisierung des Nichtwissens.
Dass die modernen Gesellschaften sich gegenwärtig in einem Übergang zur so genannten
Wissensgesellschaft befinden, gilt im politischen Diskurs mittlerweile fast schon als Trivialität. Wesentlich interessanter – und zugleich
weniger selbstverständlich – ist die Einsicht,
dass gerade in den so etikettierten Gesellschaften neue Formen der politischen Gestaltung von
und des sozialen Umgangs mit Wissen erforderlich werden und sich zum Teil bereits herausbilden. In der sozialwissenschaftlichen Diskussion
wird mit Blick hierauf von der Emergenz eines
neuartigen Diskurs- und Politikfeldes, der „Wissenspolitik“, gesprochen (vgl. Stehr 2003a, S.
105 ff. sowie die Beiträge in Stehr 2003b). Die
Konturen, Akteure, Ziele, Reichweite und möglichen Grenzen einer solchen Politik bleiben
bisher allerdings noch recht undeutlich, und
zwar besonders dann, wenn man diese nicht mit
bereits etablierten Ressortpolitiken wie der Forschungs- und Technologiepolitik identifizieren
will.1 Betrachtet man das sich herausbildende
Feld genauer, so lassen sich (mindestens) drei
unterschiedliche, zum Teil auch kontrastierende
Akzentuierungen von Wissenspolitik erkennen:
Eine innovationsorientierte Variante von Wissenspolitik (Rammert 2003) ist auf die Förderung eines neuen Typus heterogener, verteilter
Wissensproduktion ausgerichtet; eine regulative
Wissenspolitik (Stehr 2003a, 2003c) zielt demgegenüber auf die „Überwachung“ des in rasantem Tempo zunehmenden Wissens, um mögliche Negativfolgen von vorneherein vermeiden
oder zumindest begrenzen zu können; eine reflexive Wissenspolitik (Wehling 2003a; Böschen 2004) schließlich unterwirft die bisher als
selbstverständlich wahrgenommenen Grundlagen moderner „Wissensordnungen“, etwa die
Trennungen zwischen Experten und Laien oder
zwischen Fakten und Werten, einer kritischen
Infragestellung und Überprüfung.
In meinem Beitrag möchte ich zunächst
diese drei Akzentuierungen von Wissenspolitik
jeweils kurz skizzieren und die Frage aufgreifen, ob und inwieweit sich daraus – trotz aller
Unterschiede – ein übergreifendes Politikfeld
sowie ein neuartiger, eigenständiger Politiktypus herauskristallisieren könnten (Kap. 1).
Zeigen wird sich dabei, dass vor allem die in
den letzten Jahren beobachtbare Anerkennung
und Politisierung des Nichtwissens weit reichende und überraschende Implikationen für
die Wissenspolitik beinhaltet. Diese möchte ich
im 2. Kapitel exemplarisch an der seit einigen
Jahren geführten Debatte um ein „Recht auf
Nichtwissen“ in der humangenetischen Diagnostik verdeutlichen. Vor diesem Hintergrund
werde ich abschließend einige gesellschaftstheoretische Implikationen und politischinstitutionelle Konsequenzen von Wissenspolitik hervorheben (Kap. 3). Diese scheinen mir
primär im Aufbrechen der etablierten Wissensordnungen der modernen Gesellschaft, einschließlich des bisher (fast) ungebremsten
„Willens zum Wissen“ (Michel Foucault), zu
liegen. Insofern erweist sich eine reflexive
Wissenspolitik als entscheidende Perspektive
zur sozialen Öffnung und Erweiterung des
entstehenden Diskurs- und Handlungsfeldes.
1 Drei Felder von Wissenspolitik – Differenzen und mögliche Gemeinsamkeiten
Wie Innovations- und Technikgeneseforschung
in den letzten Jahren überzeugend herausgearbeitet haben, haben ökonomistische, technokratische und korporatistische Modelle von Innovationsprozessen ihre Plausibilität eingebüßt und
sollten daher durch vielschichtigere Konzepte
einer reflexiven „Innovation im Netz“ (Rammert
1997) abgelöst werden. Innovationen entstehen
demnach in temporären, interaktiven und offenen Netzwerken, in die eine Vielzahl von Akteuren aus unterschiedlichsten sozialen Bereichen einbezogen sind und in denen heterogene
Wissenformen und „verteilte“ Wissensbestände
miteinander verknüpft werden müssen. Vor
diesem Hintergrund hat Werner Rammert
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 63
SCHWERPUNKTTHEMA
(2003) die These formuliert, gegenwärtig bildeten sich eine neuartige „innovationsorientierte
Wissenspolitik“, ein „Regime der heterogen
verteilten Wissensproduktion“ sowie eine damit
in Wahlverwandtschaft stehende Form der
„fragmentalen Differenzierung“ jenseits einer
säuberlichen funktionalen Differenzierung in
spezialisierte Teilsysteme heraus. Als die entscheidenden Paradoxien (und zum Teil auch
Grenzen) einer erfolgreichen „Steuerung“ des
Wissens erscheinen in diesem Rahmen die Verknüpfung der heterogenen Wissensformen sowie die Nutzung des impliziten Wissens, das
zwar zunehmend an Bedeutung gewinne, aber
eben nicht restlos explizit gemacht und formalisiert werden könne. Doch während das Regime
verteilter Wissensproduktion und der Typus
fragmentaler Differenzierung über wesentliche
Struktur- und Funktionsprinzipien moderner
Gesellschaften (oder zumindest über deren gängige soziologische Beschreibung) hinausweisen,
bleibt das Ziel der damit verknüpften innovationsorientierten Wissenspolitik – wenigstens auf
den ersten Blick – sehr nah an den etablierten
Erwartungshorizonten der Moderne: Es besteht,
so Rammert, darin, „eine adäquate institutionelle
Infrastruktur bereitzustellen, die das Wachstum
der Wissensproduktion sichert und beschleunigt“ (Rammert 2003, S. 483). Man kann vermuten, dass hiermit nicht die gängige Vorstellung einer linearen, eindimensionalen Zunahme
des wissenschaftlich-technischen Wissens als
Motor und Grundlage von Innovation und Innovationsfähigkeit gemeint ist, sondern die wechselseitige, interaktive Steigerung und Vernetzung der heterogenen, verteilten Wissensbestände und -formen (ebd., S. 493). Gleichwohl stellt
sich die Frage, ob eine „Politik des quantitativen
Wissenswachstums“ ohne weiteres durch eine
„qualitative Politik der Wissensdiversität“ ergänzt werden kann, wie Rammert (ebd., S.
501 f.) vorschlägt – oder ob nicht zwischen diesen beiden Zielen innovationsorientierter Wissenspolitik doch ein gewisses Spannungs- und
Konfliktverhältnis besteht. Denn keine andere
Wissensform ist in modernen Gesellschaften in
auch nur annähernd vergleichbarer Weise auf
die quantitative Zunahme des Wissens hin ausgelegt wie die Wissenschaft. Und falls der „geradezu herausragende Stellenwert des wissenschaftlichen und technischen Wissens in der
modernen Gesellschaft“ inzwischen tatsächlich
Seite 64
vor allem darauf beruht, „dass wissenschaftliches Wissen, mehr als jede andere Wissensform,
permanent zusätzliche (...) Handlungsmöglichkeiten fabriziert und konstituiert“ (Stehr 2003a,
S. 36),2 läuft dann eine Wissenspolitik, die auf
quantitatives Wachstum und dessen Beschleunigung zielt, nicht Gefahr, das wissenschaftliche
Wissen gegenüber anderen Formen zu favorisieren? Erschwert es nicht gerade die Bedingungen
für den angestrebten Erhalt unterschiedlicher
Zeithorizonte, für die Diversität der Wissensformen und die „angemessene Balance“ zwischen explizierbarem und implizitem Wissen
(Rammert 2003, S. 501), wenn lokales Erfahrungs- und Kontextwissen oder auch gesellschaftliches Reflexionswissen durch die Wachstumsdynamik der Wissenschaft unter zu starken
Zeit- und Anpassungsdruck gesetzt werden?
Jedenfalls nimmt – dies unterstreichen die
aktuellen forschungs-, technologie-, umweltpolitischen und ethischen Konflikte um Gentechnik,
Biomedizin, Nanotechnologie etc. in eindrucksvoller Weise – mit dem schnellen Wachstum des
wissenschaftlich-technischen Wissens auch die
Wahrnehmung von Risiken und Gefährdungen
zu, und zwar nicht mehr nur der Risiken des
Wissens, sondern ebenso sehr derjenigen des
dabei miterzeugten Nichtwissens (vgl. Krohn
2003; Wehling 2003b, 2004). Politik, Öffentlichkeit und Individuen müssen sich nicht allein
damit auseinandersetzen, was die Wissenschaft
weiß (und kann), sondern in steigendem Maße
auch damit, was sie dabei nicht weiß und welche
möglicherweise fatalen Konsequenzen dies haben könnte. Daher werden im Horizont der von
Stehr skizzierten regulativen Wissenspolitik
gerade das beschleunigte Wachstum des wissenschaftlich-technischen Wissens sowie die ebenso rasch zunehmenden, in ihren Auswirkungen
kaum überschaubaren Eingriffsmöglichkeiten in
die „äußere“ und „innere“ Natur als Triebkraft
für die Herausbildung des neuen Handlungsfeldes angesehen: „Die Entwicklung des Politikfeldes Wissenspolitik ist eine wenn auch verzögerte Reaktion auf die außerordentliche Geschwindigkeit, mit der neue Erkenntnisse und
technische Möglichkeiten in modernen Gesellschaften wachsen.“ (Stehr 2003a, S. 19) Dementsprechend sieht Stehr in der „Überwachung“
und „Regulierung“ des Wissens oder gar in der
„gesellschaftlichen Kontrolle neuer Erkenntnisse“ (Stehr 2003c) den Kern der sich allmählich
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
entwickelnden Wissenspolitik. Denn bei der
Bewertung der sozialen Folgen von Wissenschaft und Technik habe sich eine bemerkenswerte Akzentverschiebung vollzogen: „weg von
der Lösung einmal aufgetretener Probleme, die
sich aus der Anwendung von Technik und Wissenschaft ergeben, hin zur möglichen Reduktion
oder Prävention nicht gewollter, jedenfalls ungeplanter Folgen“ (Stehr 2003c, S. 118). Die
lange Zeit vorherrschende Haltung, die „nachträgliche Entsorgung der unangenehmen Folgen“ sei ausreichend, werde jedenfalls mit
wachsender Skepsis betrachtet (ebd.). Doch
obwohl Stehr selbst (ebd., S. 126) betont, dass
Regulierung „keinesfalls gleichbedeutend mit
Verbot, Unterdrückung oder dem Verzicht, Anreize zu schaffen,“ sein müsse, ist bisher noch
nicht recht erkennbar, wie, nach welchen Kriterien und von welchen Akteuren die anvisierte,
gleichsam präventive Überwachung des Wissens und die Kontrolle seiner Anwendung ins
Werk gesetzt werden könnte.
Mit den von Stehr aufgeworfenen Fragen
steht ein diskursives Feld in engem Zusammenhang, auf dem sich seit einigen Jahren
ebenfalls die Herausbildung einer in vielerlei
Hinsicht neuartigen Wissenspolitik jenseits der
etablierten Forschungs- und Technologiepolitik
beobachten lässt: die Auseinandersetzungen
darüber, wer bei bestimmten Themen legitimerweise den Status eines „Experten“ in Anspruch nehmen könne und wer demgegenüber
als „Laie“ von den entsprechenden Beratungsund Entscheidungsprozessen ausgeschlossen
bleibe. Harry Collins und Robert Evans (2002)
sehen in der Bearbeitung und Klärung dieser
Fragen sogar das übergreifende Thema einer
„dritten Welle“ von science studies, die sie als
„studies of expertise and experience“ bezeichnen.3 Vor allem im Kontext der neueren Entwicklungen im Bereich der Biomedizin und
Gentechnik ist in den letzten Jahren in der Tat
eine reflexive Überprüfung und Erosion tradierter Grenzziehungen und Wissenshierarchien moderner Gesellschaften in Gang gekommen. Die Frage, wessen Wissen und Bewertungsmaßstäbe etwa in den Debatten um
die Zulassung der Präimplantationsdiagnostik
oder um die Risiken gentechnisch manipulierter Nahrungsmittel als relevant anzusehen sind,
kann immer weniger im Rückgriff auf die vermeintlich objektive, wissenschaftlich feststell-
bare Faktizität der Problemlagen und auf die
professionelle Zuständigkeit bestimmter Personengruppen (vor)entschieden werden, sondern
wird zum Gegenstand kontroverser gesellschaftlicher Aushandlungsprozesse (Wynne
2002). Gebündelt und zugespitzt werden solche
Debatten gegenwärtig in der Frage nach den
Möglichkeiten und Grenzen einer „Demokratisierung von Expertise“ (Liberatore und Funtowicz 2003), beispielsweise durch Formen partizipatorischer Technikfolgenabschätzung. In
eine ähnliche Richtung weist Frank Fischers
Versuch, Wissenspolitik als „politics of local
knowledge“ zu entfalten, um auf diese Weise
zu einer Neubestimmung der Rolle von Bürgern und Experten in Umweltkonflikten zu
kommen (Fischer 2000). In solchen sozialen
Prozessen, Diskursen und Auseinandersetzungen kristallisiert sich der Typus einer „reflexiven Wissenspolitik“ heraus, die – in Ergänzung
und Erweiterung der regulativen Perspektive –
auf die grundlegende Infragestellung, Öffnung
und Transformation tradierter und eingespielter
Wissensordnungen zielt (vgl. auch Lau und
Böschen 2003). Unter „Wissensordnung“ verstehe ich hierbei einen Komplex sozial anerkannter, diskursiv, institutionell und kulturell
stabilisierter Wissenshierarchien und Grenzziehungen (zwischen Fakten und Werten, Experten und Laien, „objektivem Wissen“ und „subjektivem Meinen“ etc.) sowie je spezifische
Praktiken der Erzeugung und der kognitiven
oder normativen Bewertung von Wissen.
Entscheidende Impulse für die Herausbildung einer reflexiven Wissenspolitik sind von
der in den letzten 15 bis 20 Jahren zu beobachtenden Entdeckung und Anerkennung des
Nichtwissens, auch und gerade des wissenschaftlichen Nichtwissens, ausgegangen (vgl.
u. a. Ravetz 1990; Luhmann 1992; Beck 1996).
Anerkennung des Nichtwissens beinhaltet nicht
allein ein geschärftes Bewusstsein davon, dass
die Wissenschaft mit dem wachsenden Wissen
zugleich auch immer mehr Nichtwissen über die
Voraussetzungen, Implikationen und Folgen
dieses Wissens produziert. Hinzu kommt die
Einsicht, dass dieses Nichtwissen nicht lediglich
in der Form eines bloß temporären „NochNicht-Wissens“, d. h. eines noch nicht gelösten,
aber klar umrissenen wissenschaftlichen Forschungsproblems auftritt, sondern ebenso sehr in
Gestalt eines grundsätzlichen „Nicht-Wissen-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 65
SCHWERPUNKTTHEMA
Könnens“, eines „unerkannten Nichtwissens“
(die Wissenschaft weiß gar nicht, was sie nicht
weiß), oder auch eines begründeten „NichtWissen-Wollens“ (vgl. zu diesen Unterscheidungen ausführlicher Wehling 2004). Die Anerkennung dieser Pluralität und Heterogenität von
Nichtwissensformen und -definitionen mündet
fast zwangsläufig in eine „Politisierung des
Nichtwissens“ (Stocking und Holstein 1993)
ein: Mit welcher Ausprägung des Nichtwissens
man es überhaupt zu tun hat und welche Konsequenzen daraus zu ziehen sind, ist weder objektiv vorgegeben noch autoritativ und eindeutig
festzulegen. Eröffnet wird damit ein Feld gesellschaftlicher, (wissens-)politischer Auseinandersetzungen, in denen die bisherige Definitionshoheit der Wissenschaft über das Nichtwissen,
über seine Relevanz und möglichen Konsequenzen, relativiert und aufgebrochen wird. Parallel
dazu differenzieren und vervielfältigen sich die
Strategien des Umgangs mit Nichtwissen: Das
nahe liegende, als selbstverständlich erscheinende Bemühen, Nichtwissen durch Wissen zu
ersetzen, erscheint nur noch als eine mögliche
Reaktionsform auf die Problematik unter anderen – und keineswegs immer als die angemessene und aussichtsreichste. Wenn man beispielsweise mit Nichtwissen konfrontiert ist, das als
unüberwindbar eingeschätzt wird, wäre es kontraproduktiv, vorrangig auf Wissensgewinn zu
setzen. Vielmehr ist es in einer solchen Situation
angebracht, sich mit den Möglichkeiten und
Grenzen des Entscheidens unter Nichtwissensbedingungen auseinanderzusetzen (vgl. Wehling
2002 sowie bereits Collingridge 1980). Zudem
kann man immer weniger darauf vertrauen, dass
die (noch) unbekannten Folgen wissensbasierten
Handelns schon „rechtzeitig“ und gleichsam
„von selbst“ ans Licht kommen würden, so dass
noch korrigierend eingegriffen werden könnte.
Statt dessen ist mit einer unter Umständen lange
anhaltenden Unerkennbarkeit von Handlungskonsequenzen zu rechnen, da man gar nicht
weiß, wo, wie und wann sie zu beobachten
sind.4 Auf diese Weise wirkt die paradox erscheinende Frage, wie unter Bedingungen des
Nichtwissens „bewusst“ gehandelt und „begründet“ entschieden werden soll, auf die
Wahrnehmung des Wissens zurück und lässt
seine Grenzen und Ambivalenzen schärfer hervortreten: Die Politisierung des Nichtwissens
geht in eine Politisierung des Wissens über.
Seite 66
Lassen sich in den teilweise recht unterschiedlichen Ansatzpunkten und Akzentsetzungen einer innovationsorientierten, einer regulativen und einer reflexiven Wissenspolitik überhaupt gemeinsame Orientierungen erkennen, die
es rechtfertigen würden, von der Emergenz der
Wissenspolitik als einem neuen Feld und neuartigen Politiktypus zu sprechen? Oder hat man es
stattdessen „nur“ mit jeweils bereichsspezifischen, sektoralen Wissenspolitiken zu tun, die
sich nebeneinander herausbilden? Ungeachtet
der heterogenen Ausgangspunkte scheint sich
dennoch eine Art übergreifender Impuls abzuzeichnen, in dem die drei skizzierten Perspektiven von Wissenspolitik übereinkommen und
sich überschneiden. Dieser Impuls liegt nach
meinem Eindruck in dem Beharren auf der gesellschaftlichen, demokratischen Gestaltbarkeit
und Gestaltung des Umgangs mit Wissen und
Nichtwissen, d. h. vor allem mit der Unterschiedlichkeit von Wissens- und Nichtwissensformen. So verstanden liegt der „Kern“ von
Wissenspolitik in der Öffnung (und Eröffnung)
eines Handlungsfeldes, das bislang vor allem
durch die Objektivitäts- und Monopolisierungsansprüche der Wissenschaft sowie durch szientistisch-technokratische Politikmodelle beherrscht und gleichsam eingefroren war. Dass
besonders eine sich als reflexiv verstehende
Wissenspolitik tief greifende Infragestellungen
der kulturell wie institutionell fest verankerten,
wenn nicht sogar als „natürlich“ erscheinenden
Selbstverständlichkeiten moderner (Wissens-)
Gesellschaften beinhalten kann, möchte ich im
Folgenden exemplarisch an der Debatte um ein
„Recht auf Nichtwissen“ in der humangenetischen Diagnostik verdeutlichen.
2 Das Recht auf Nichtwissen: ein Beispiel
reflexiver Wissenspolitik
Die Forderung nach einem formellen oder informellen Recht, die eigene genetische Ausstattung nicht zu kennen, nicht kennen zu müssen
und auch anderen jegliches Wissen darüber
untersagen zu dürfen, wird seit Mitte der
1980er Jahre in Reaktion auf die neuartigen
Potenziale der Humangenetik erhoben (vgl.
Wehling 2003c). Im Mittelpunkt der Aufmerksamkeit steht dabei die prädiktive Gendiagnostik, d. h. die Möglichkeit, mittels individueller
DNA-Analysen die Determination oder zumin-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
dest Prädisposition zu bestimmten Erkrankungen bereits weit vor deren Ausbruch – aber
häufig ohne Erfolg versprechende Präventionsoder Therapiemöglichkeiten – festzustellen.
Vor diesem Hintergrund soll ein ausdrückliches „Recht auf Nichtwissen“ zwei sozialen
Risiken entgegenwirken: Erstens sollen „Gefährdungen der Personalität durch Einbußen an
Selbstbestimmung und Autonomie“ (Damm
1999, S. 435) aufgrund von belastendem Wissen über die eigene Zukunft verhindert werden;
zweitens soll neuartigen gesellschaftlichen
Diskriminierungen (und einer möglichen „ReNaturalisierung“ sozialer Ungleichheitsstrukturen) aufgrund einer „ungünstigen“ genetischen
Ausstattung vorgebeugt werden.
Mit Blick auf die Vermeidung so genannter
„Personalitätsrisiken“ stehen zwei spezifische
Ausprägungen der prädiktiven Gendiagnostik
im Vordergrund: zum einen die Frühdiagnose
seltener, monogenetisch determinierter und spät
manifest werdender Krankheiten (z. B. Chorea
Huntington), für die bisher weder Prävention
noch Therapie existieren; zum anderen die Feststellung genetischer Prädispositionen für multifaktoriell, also auch durch nicht-genetische Einflüsse bedingte Erkrankungen. Hierbei können
lediglich statistische (und wissenschaftlich oft
stark umstrittene) Aussagen über erhöhte Erkrankungsrisiken getroffen werden. Bezogen auf
die einzelne Person bleibt jedoch unklar, ob,
wann und in welcher Stärke es tatsächlich zum
Ausbruch der Krankheit kommen wird. Das
bekannteste Beispiel für eine solche Konstellation ist die genetische Disposition für Brustkrebs,
die bei etwa fünf Prozent dieser Erkrankungen
eine Rolle spielt. Für Frauen, bei denen ererbte
Mutationen in den so genannten „Tumorsuppressor-Genen“ BRCA 1 und BRCA 2 festgestellt werden, steigt das statistische Risiko,
ohne dass bisher Einigkeit darüber bestünde, in
welchem Ausmaß (vgl. Lemke 2004, S. 70 ff.).
Alle bisher bekannten präventiven Maßnahmen
sind zudem sowohl ungewiss hinsichtlich ihrer
Erfolgsaussichten als auch selbst risikoreich,
wenn nicht – wie die prophylaktische Brustamputation – sogar extrem belastend. Das prädiktive genetische Wissen kann unter solchen Umständen kaum auflösbare Ängste erzeugen, den
Betroffenen die (vermeintliche) Verpflichtung
zu einem letztlich illusionären „Risikomanagement“ auferlegen und sie in ausweglose Ent-
scheidungssituationen hineintreiben. Nichtwissen kann in dieser Situation gegenüber dem
Wissen als die bessere Alternative erscheinen –
und dies verleiht der Forderung nach einem zu
schützenden Recht, die eigene genetische Konstitution nicht zu kennen, ihre Überzeugungskraft. Zugleich soll das Recht auf Nichtwissen
Personen mit tatsächlich oder vermeintlich ungünstiger genetischer Ausstattung vor Stigmatisierung und Benachteiligung vor allem auf dem
Arbeitsmarkt, im Gesundheits- und Bildungssystem sowie im (privaten) Versicherungswesen
bewahren. In der angloamerikanischen Diskussion wird in diesem Zusammenhang nicht ohne
Grund vor der Herausbildung einer in wichtigen
gesellschaftlichen Bereichen diskriminierten
„genetic underclass“ gewarnt (Nelkin 1995).5
Politisch und rechtlich konzentriert sich dieser
Strang der Debatte gegenwärtig auf die Frage,
ob und unter welchen Bedingungen Arbeitgeber
oder Versicherungsunternehmen die Durchführung von Gentests zur Voraussetzung von Vertragsabschlüssen machen dürfen.
Bemerkenswert an dieser Diskussion ist
nicht allein, dass die Risiken, inhärenten Unsicherheiten, ambivalenten Konsequenzen und
Machteffekte des wissenschaftlichen Wissens
zum Thema gesellschaftlicher Auseinandersetzungen werden. Neu und ungewöhnlich ist
vielmehr vor allem, dass darauf mit der Forderung nach Anerkennung eines begründeten
„Nicht-Wissen-Wollens“ reagiert wird. Dieses
Recht auf Nichtwissen schöpft seine Rechtfertigung nicht aus „vormodernen“, religiös motivierten Tabus und Erkenntnisverboten, sondern
aus eben den Werten und Zielen personaler
Autonomie und individueller Freiheit, die auch
die Wissensdynamik moderner Gesellschaften
legitimieren. Vielleicht zum ersten Mal wird
Nichtwissen in modernen Gesellschaften nicht
als ein zu überwindender, defizitärer Zustand
oder als schlichte Ignoranz abgewertet, sondern
ausdrücklich als ein eigenständiges Rechtsgut
aufgefasst, wenngleich dessen tatsächliche
soziale Durchsetzungsfähigkeit sich vermutlich
als sehr begrenzt erweisen wird. „Recht auf
Nichtwissen“ heißt dabei selbstverständlich
nicht, dass nun umgekehrt das Wissen und
Wissen-Wollen per se illegitim seien. Sie werden jedoch zunehmend begründungspflichtig;
denn, wie die Enquete-Kommission „Recht und
Ethik der modernen Medizin“ des Deutschen
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 67
SCHWERPUNKTTHEMA
Bundestags feststellt: „Auch Eingriffe in das
Recht auf Nichtwissen bedürfen einer Rechtfertigung“ (Enquete-Kommission 2002, S. 132).
Zu erwarten sind somit vielschichtige und konfliktträchtige Abwägungs- und Aushandlungsprozesse zwischen den – wenigstens im Prinzip
– gleichrangigen Rechtsansprüchen auf Wissen
oder Nichtwissen genetischer „Informationen“.
Betrachtet man die Debatte um ein Recht
auf Nichtwissen in der Humangenetik als ein –
sicherlich exponiertes und (noch) singuläres –
Beispiel reflexiver Wissenspolitik, so wird deutlich, dass eine solche Politik mehr beinhaltet als
die Mobilisierung, Steuerung oder Überwachung von Wissen. Reflexive Wissenspolitik
kann sich vielmehr als eine „Politik des Nichtwissens“ herausstellen, die die institutionalisierte Präferenz für Wissen, das auf Dauer gestellte
Bemühen, auftretende Probleme vorrangig oder
ausschließlich durch mehr Wissen zu bewältigen, grundlegend in Frage stellt. Der in modernen Gesellschaften wirksame Automatismus,
wonach die Steigerung und Nutzung von Wissen als per se rational gilt und daher von Begründungen entlastet ist, wird aufgebrochen,
und die Frage wird zumindest formulierbar, „ob
Wissen überhaupt besser ist als Nichtwissen, ob
Wissen stets dem Nichtwissen vorzuziehen ist“
(Gamm 2000, S. 204). Vor diesem Hintergrund
lässt sich schließlich auch erkennen, dass der
seit dem 17. Jahrhundert in modernen Gesellschaften dominant gewordene „Wille zum Wissen“ nicht einfach die Befreiung einer „natürlichen“ menschlichen Neugier aus traditionalen,
religiösen Fesseln darstellt. Vielmehr handelt es
sich dabei um ein zwar äußerst erfolgreiches,
aber gleichwohl kontingentes und, zumindest in
seinen Anfängen bei Francis Bacon, seinerseits
religiös begründetes historisches Projekt, das
nicht nur auf einer spezifischen Konstruktion
der Wissensgegenstände basiert, sondern auch
dem erkennenden Subjekt „eine bestimmte Position, einen bestimmten Blick und eine bestimmte Funktion“ zuweist (Foucault 2001, S. 15).
3 Gesellschaftstheoretische und politische
Implikationen
Worin liegen demnach die gesellschaftliche
Brisanz und die gesellschaftstheoretische Relevanz der sich herausbildenden Wissenspolitik(en)? Rammert sieht sie vor allem in der
Seite 68
Emergenz eines neuen Regimes der verteilten
Wissensproduktion sowie eines neuartigen Typs
der „fragmentalen“ Differenzierung, die heterogene Elemente netzwerkartig und gleichsam
„quer“ zu den Linien funktionaler Differenzierung und den disziplinären Trennungen des
Wissens miteinander verknüpfe (vgl. Rammert
2003, S. 487 f., S. 492). Nach Stehr ist im Aufkommen von Wissenspolitik ein Indiz dafür zu
sehen, dass moderne Gesellschaften offenbar
immer weniger bereit sind, „die ‚naturwüchsige’
Weiterentwicklung wissenschaftlicher Erkenntnisse und technischer Fertigkeiten als Segen zu
begreifen, als Entschlüsselung der Rätsel der
Natur, als Emanzipation von Lasten und
Schmerzen, als Instrument für eine bessere Gesellschaft, als Realisierung dessen, was den
Menschen von anderen Kreaturen unterscheidet,
als Schlüssel zu umfassendem Wohlergehen
oder einfach als Befreiung von ‚ewigen’ natürlichen und gesellschaftlichen Zwängen aller Art“
(Stehr 2003a, S. 11). Die „herkömmliche Vorstellung, (...) jeder Wissenszuwachs sei Wertschöpfung, der dem Menschen automatisch
Nutzen bringe“, sehe sich daher zunehmend der
Kritik ausgesetzt (ebd.).
Hieran anknüpfend lassen sich die am
weitesten reichenden theoretischen Implikationen und sozialen Konsequenzen von Wissenspolitik in der Veränderung (oder zumindest
Infragestellung) der dominanten sozialen Praktiken, institutionellen Trennungen und „kulturellen Codes“ moderner Gesellschaften vermuten (vgl. Reckwitz 2003). Vor allem die Erosion vermeintlich unverrückbarer Grenzziehungen (zwischen Wissen und Meinen, Experten
und Laien etc.) sowie die Anerkennung und
Politisierung des Nichtwissens unterlaufen im
Sinne einer vielschichtigen „reflexiven Modernisierung“ (Beck et al. 2001) die etablierten
Wissensordnungen, die sich bislang durch naturalisierende und objektivistische Selbstbeschreibungen mehr oder weniger erfolgreich
gegen Reflexion und kritische Überprüfung
abschotten konnten. Das bedeutet selbstverständlich nicht, dass diese Praktiken durch eine
reflexive Wissenspolitik bereits faktisch transformiert würden oder auch nur ihre Dominanz
verlören. Sie werden aber, wie am Beispiel des
modernen „Willens zum Wissen“ dargestellt, in
ihrer historischen Kontingenz sichtbar, begründungsbedürftig und wenigstens prinzipiell ent-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
scheidungsoffen – und damit zum Gegenstand
gesellschaftlicher Auseinandersetzungen.
Vor diesem Hintergrund kommt nicht zuletzt die Konflikthaftigkeit des Feldes der Wissenspolitik scharf in den Blick. In den (Nicht-)
Wissens- und Risikokonflikten beispielsweise
um Biomedizin oder grüne Gentechnik kreist ein
Großteil der Auseinandersetzungen, noch vor
der innovationsorientierten Koordination und
Vernetzung der heterogenen, verteilten Wissensbestände, grundsätzlicher darum, ob bestimmte Wissensformen, Problemwahrnehmungen und soziale Rationalitäten überhaupt als
legitime und relevante „Stimmen“ anerkannt
werden. Letztlich steht hierbei die Akzeptanz
und Legitimität einer pluralistischen Wissenspolitik selbst in Frage; denn diese erscheint aus der
Perspektive funktional spezialisierter Teilsysteme oder korporatistischer Politik- und Innovationsmodelle schnell als überflüssige, störende
Einmischung „von außen“. So gesehen stellt
Wissenspolitik bisher eher eine Art von quer
liegender und fragiler „Subpolitik“ dar als ein
bereits anerkanntes und institutionell gefestigtes
Politikmuster. Dass hierbei vielfältige Definitions-, Legitimations- und Entscheidungskonflikte
aufbrechen, sollte daher kaum überraschen.
Welche Instrumente und Ressourcen stehen
den Akteuren von Wissenspolitik in diesem
Rahmen zur Verfügung – und wer sind überhaupt die Akteure von Wissenspolitik? Diese
Frage bleibt in der bisherigen Diskussion weitgehend offen; Einigkeit besteht in den vorliegenden Konzeptionen jedoch darüber, dass Wissenspolitik kein zentralisiertes, staatlich organisiertes Politikfeld ist und sein sollte. Rammert
geht zu Recht davon aus, dass Wissenspolitik
sich nur aus der zunehmenden Partizipation
unterschiedlicher, heterogener Akteure sowie
der Bildung interaktiver Politik- und Innovationsnetzwerke heraus entwickeln kann. Entscheidend wird somit sein, die Zugänge offen zu
halten, korporatistische Schließungen und Verkrustungen immer wieder aufzubrechen und die
Restabilisierung tradierter sozialer und kognitiver Grenzziehungen zu verhindern. Insofern
liegt in einer „qualitativen Politik der Wissensdiversität“ (Rammert) der dynamische (und
auch normative) Impuls des neuen Feldes. Eine
solche Politik wird allerdings nicht in allen Fällen zur Beschleunigung des Wissenswachstums
und zur Förderung von Innovationen beitragen.
Unter den Bedingungen von Ungewissheit,
Nichtwissen und normativem Dissens kann das
begründete und legitime Ergebnis einer pluralen
Wissenspolitik auch darin bestehen, das Wachstum des Wissens zu regulieren und zu begrenzen. Wissenspolitik in spätmodernen Gesellschaften heißt somit nicht zuletzt, innovationsorientierte, regulative und reflexive Perspektiven
immer wieder neu in produktiven Kontakt und
Konflikt zu bringen.
Anmerkungen
1) Vgl. zur Differenz von Wissens- und Forschungspolitik Stehr 2003a, S.13 ff.
2) Es ist demnach vor allem die Neuheit, weniger die
„Wahrheit“ und „Objektivität“ des Wissens, die
gegenwärtig die gesellschaftliche Dominanz der
Wissenschaft begründet (Stehr 2003a, S. 37 f.).
3) Sheila Jasanoff (2003) und Brian Wynne (2003)
kritisieren allerdings zu Recht, dass Collins und
Evans zwar den Experten-Status über den Rahmen von wissenschaftlicher Qualifikation und
professioneller Position hinaus erweitern, Expertise dabei aber nach wie vor im Sinne der Verfügung über entscheidungsrelevantes (Fakten-)
Wissen verstehen. Wie Jasanoff anmerkt, ist die
Beteiligung von „Laien“ an Risikodiskursen und
technologiepolitischen Entscheidungsprozessen
aber vor allem vonnöten, „in order to test and
contest the framing of the issues that experts are
asked to resolve” (Jasanoff 2003, S. 397 f.).
4) Exemplarisch hierfür ist die massive Schädigung
der Ozonschicht durch Fluor-Chlor-Kohlenwasserstoffe (FCKW). Als diese Substanzen um
1930 industriell hergestellt und genutzt wurden,
war niemand „auf die Idee gekommen“, sie
könnten irgendwelche Wirkungen in der oberen
Erdatmosphäre haben. Erst Mitte der 1970er Jahre wurde die Wirkungskette theoretisch erschlossen und nochmals rund zehn Jahre später auch
empirisch bestätigt.
5) Bisher stehen noch relativ hohe Kosten einer
raschen Ausbreitung der Gendiagnostik im Weg.
Dies wird sich jedoch aller Voraussicht nach ändern, falls in den nächsten Jahren die so genannte
DNA-Chip-Technologie in größerem Maßstab
verfügbar sein wird. In einem weitgehend standardisierten Arbeitsablauf könnte dann eine große Zahl von Genen auf Besonderheiten und
„Abweichungen“ überprüft werden. Vermutlich
werden dann vor allem die multifaktoriell verursachten „Volkskrankheiten“ wie Herz-KreislaufErkrankungen, Krebs, Diabetes oder DemenzErkrankungen ins Visier vermutlich auch kommerziell vertriebener Gentests kommen, ohne
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 69
SCHWERPUNKTTHEMA
dass medizinische Prävention und Therapie damit Schritt halten könnten. Die Problematik, auf
die das Recht auf Nichtwissen reagiert, würde
sich somit noch ausweiten und radikalisieren.
Literatur
Beck, U., 1996: Wissen oder Nicht-Wissen? Zwei
Perspektiven „reflexiver Modernisierung”. In: Beck,
U.; Giddens, A.; Lash, S.: Reflexive Modernisierung. Eine Kontroverse. Frankfurt a. M.: Suhrkamp,
S. 289-315
Beck, U.; Bonß, W.; Lau, Chr., 2001: Theorie reflexiver Modernisierung – Fragestellungen, Hypothesen, Forschungsprogramme. In: Beck, U.; Bonß, W.
(Hrsg.): Die Modernisierung der Moderne. Frankfurt a. M.: Suhrkamp, S. 11-59.
Böschen, S., 2004: Reflexive Wissenspolitik: Zur
Formierung und Strukturierung von Gestaltungsöffentlichkeiten. In: Bogner, A.; Torgersen H. (Hrsg.):
Wozu Experten? Wiesbaden: VS Verlag für Sozialwissenschaften (im Erscheinen)
Collingridge, D., 1980: The Social Control of Technology. New York: St. Martin’s Press
Collins, H.; Evans, R., 2002: The Third Wave of
Science Studies: Studies of Expertise and Experience. In: Social Studies of Science 32, S. 235-296
Damm, R., 1999: Recht auf Nichtwissen? Patientenautonomie in der prädiktiven Medizin. In: Universitas 54, S. 433-447
Enquete-Kommission „Recht und Ethik der modernen Medizin“, 2002: Abschlussbericht. Berlin (BTDrs. 14/9020)
Fischer, F., 2000: Citizens, Experts, and the Environment. The Politics of Local Knowledge. Durham, N.C.: Duke University Press
Foucault, M., 2001: Die Ordnung des Diskurses.
Frankfurt a. M.: Fischer Verlag
Gamm, G., 2000: Nicht Nichts. Studien zu einer
Semantik des Unbestimmten. Frankfurt a. M.: Suhrkamp
Jasanoff, Sh., 2003: Breaking the Waves in Science
Studies. In: Social Studies of Science 33, S. 389-400
Krohn, W., 2003: Das Risiko des (Nicht-)Wissens.
Zum Funktionswandel der Wissenschaft in der
Wissensgesellschaft. In: Böschen, S.; SchulzSchaeffer, I. (Hrsg.): Wissenschaft in der Wissensgesellschaft. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 97-118
Lau, Chr.; Böschen, S., 2003: Wissensgesellschaft
und reflexive Modernisierung. In: Böschen, S.;
Schulz-Schaeffer, I. (Hrsg.): Wissenschaft in der
Wissensgesellschaft. Wiesbaden: VS Verlag für
Sozialwissenschaften, S. 220-235
Seite 70
Lemke, Th., 2004: Veranlagung und Verantwortung.
Genetische Diagnosen zwischen Selbstbestimmung
und Schicksal. Bielefeld: Transcript
Liberatore, A.; Funtowicz, S., 2003: ‚Democratising’ expertise, ‚expertising’ democracy: what does
this mean, and why bother? In: Science and Public
Policy 30, S. 146-150
Luhmann, N., 1992: Ökologie des Nichtwissens. In:
Luhmann, N.: Beobachtungen der Moderne. Opladen: VS Verlag für Sozialwissenschaften, S. 149-220
Nelkin, D., 1995: Die gesellschaftliche Sprengkraft
genetischer Information. In: Kevles D.; Hood L.
(Hrsg.): Der Supercode. Die genetische Karte des
Menschen. Frankfurt a. M., Leipzig: Insel Verlag, S.
195-209
Rammert, W., 1997: Innovation im Netz. Neue Zeiten
für technische Innovationen: heterogen verteilt und
interaktiv vernetzt. In: Soziale Welt 48, S. 397-416
Rammert, W., 2003: Zwei Paradoxien einer innovationsorientierten Wissenspolitik: Die Verknüpfung
heterogenen und die Verwertung impliziten Wissens. In: Soziale Welt 54, S. 483-508
Ravetz, J., 1990: The Merger of Knowledge with
Power. Essays in Critical Science. London, New
York: Mansell Publishing Limited
Reckwitz, A., 2003: Die Grenzen des Sozialen und
die Grenzen der Moderne. In: Mittelweg 36, 12 (4),
S. 61-79
Stehr, N., 2003a: Wissenspolitik. Die Überwachung
des Wissens. Frankfurt a. M.: Suhrkamp
Stehr, N. (ed.), 2003b: The Governance of Knowledge. New Brunswick: Transaction Publishers
Stehr, N., 2003c: Die gesellschaftliche Kontrolle
neuer Erkenntnisse. In: Sociologia Internationalis
41, S. 113-137
Stocking, S.H.; Holstein, L., 1993: Constructing and
reconstructing scientific ignorance: Ignorance
claims in science and journalism. In: Knowledge:
Creation, Diffusion, Utilization 15, S. 186-210
Wehling, P., 2002: Rationalität und Nichtwissen.
(Um-)Brüche gesellschaftlicher Rationalisierung.
In: Karafyllis, N.; Schmidt, J. (Hrsg.): Zugänge zur
Rationalität der Zukunft. Stuttgart, Weimar: Metzler,
S. 255-276.
Wehling, P., 2003a: Reflexive Wissenspolitik: das
Aufbrechen tradierter Wissensordnungen der Moderne. Anmerkungen zu Werner Rammerts „Zwei
Paradoxien einer innovationsorientierten Wissenspolitik”. In: Soziale Welt 54, S. 509-518
Wehling, P., 2003b: Die Schattenseite der Verwissenschaftlichung. Wissenschaftliches Nichtwissen
in der Wissensgesellschaft. In: Böschen, S.; SchulzSchaeffer, I. (Hrsg.): Wissenschaft in der Wissens-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
SCHWERPUNKTTHEMA
gesellschaft. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 119-142
Wehling, P., 2003c: Das Recht auf Nichtwissen in
der Humangenetik – ein „Irrläufer“ in der Wissensgesellschaft? In: Allmendinger, J. (Hrsg.): Entstaatlichung und soziale Sicherheit. Verhandlungen des
31. Kongresses der Deutschen Gesellschaft für
Soziologie in Leipzig 2002. Opladen: VS Verlag für
Sozialwissenschaften (CD-ROM)
Wehling, P., 2004: Weshalb weiß die Wissenschaft
nicht, was sie nicht weiß? Umrisse einer Soziologie
des wissenschaftlichen Nichtwissens. In: Böschen,
S.; Wehling, P.: Wissenschaft zwischen Folgenverantwortung und Nichtwissen. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 35-105
Wynne, B., 2002: Risk and Environment as Legitimatory Discourses of Technology: Reflexivity Inside Out? In: Current Sociology 50, S. 459-477
Wynne, B., 2003: Seasick on the Third Wave? Subverting the Hegemony of Propositionalism. In: Social Studies of Science 33, S. 401-417
Kontakt
Dr. Peter Wehling
Lehrstuhl für Soziologie
Sonderforschungsbereich 536
„Reflexive Modernisierung“
Philosophisch-Sozialwissenschaftliche Fakultät
Universität Augsburg
Universitätsstraße 6, 86159 Augsburg
Tel.: +49 (0) 821 / 598 - 40 74
Fax: +49 (0) 821 / 598 - 42 18
E-Mail: p.wehling@t-online.de
Internet: http://www.philso.uni-augsburg.de/
«»
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 71
TA-INSTITUTIONEN UND -PROGRAMME
TA-INSTITUTIONEN
UND -PROGRAMME
“Small technology – Big Consequences”: Building up the
Dutch debate on nanotechnology from the bottom
by Rinie van Est and Ira van Keulen, Rathenau Institute
The debate on nanotechnology within the
Dutch community is of recent time, the last
two years seeing it take off slowly but
steadily. In this complex arena the Rathenau Institute has played a central role, collecting data, collating thinking, building up
arguments, and organising interactive activities such as workshops, focus groups,
meetings and newsletters. These all led to
the first major public meeting on nanotechnology entitled “Small technology – Big
consequences” held on 13 October 2004,
and organised in collaboration with the parliamentary Theme Commission on Technology Policy. Nanotechnology in the Netherlands is receiving political attention.
This article reviews various activities of
the Rathenau Institute in the field of
nanotechnology and highlights their results. It also seeks to give the reader insight
into the (inter)national context in which the
question of nanotechnology is being debated and the factors influencing current
views on the subject.
1 1995 to 1998: conception
In 1995, a Dutch technology ‘foresight’ commission, the so-called Overleg Commissie
Verkenningen, carried out a short study on
nanotechnology. This was followed by a comprehensive foresight study between 1996 and
1998 coordinated by the Netherlands Study
Centre for Technology Trends (STT), in which
most relevant Dutch and Flemish nanoscientists participated (Ten Wolde 1998). This initiative eventually led to the establishment of a
Dutch national nanotechnology research consortium, named NanoNed (see Box 1).
Seite 72
Box 1:
Research consortium NanoNed
The Netherlands hosts three dedicated nanotechnology
research centres: the University of Twente (with the
Mesa+ research centre in microsystems technology and
nanomaterials), Delft University of Technology (with the
Dimes research centre on nanoelectronics) and the University of Groningen (with BioMaDe focused on bionanotechnology). These form the core of NanoNed.
However, four other universities, and TNO, the Netherlands Organization for Applied Scientific Research, are
also represented. NanoNed’s director is David Reinhoudt
(University of Twente). NanoNed’s first research program
was entitled NanoImpuls (2002) budgeted at some 45
million Euros from both public (Ministry of Economic
Affairs) and private sources. A second research program
is now running, budgeted at 102 million Euros of public
money, which, somewhat confusingly, is also called
NanoNed. Technology Assessment (TA) is an integral
part of both NanoImpuls and NanoNed with up to three
percent of the budget invested in TA research, coordinated by Arie Rip of the University of Twente.
During its research, the STT asked itself
whether discussions on societal aspects should
be part of it. STT saw significant opportunities
to associate the technology with societal demands. It informally consulted the environmental organisation Natuur & Milieu (Nature &
Environment) on the issue, which expressed the
wish to first have a discussion on whether society actually wanted nanotechnology. The Rathenau Institute was asked whether it would be able
to organise a debate at the end of the STT project. For reasons unknown to the authors such a
discussion did not materialise during the STT
study. It was only six years later that nanotechnology was put on the Rathenau’s working program (2003-2004). Just in time (or just too
late?), as 2003 saw the topic reach the public
agenda. The Canadian ETC Group (Equity Erosion, Technology Transformation and Corporate
Control Group) can be credited for this.
2 Spring 2003: birth
In April 2003, a Member of the European Parliament told us that the ETC group and the
‘Greens’, were organising a meeting on
nanotechnology, to be held in the European
Parliament on June 11. Immediate cause of this
seminar was the report The Big Down published by the ETC group (2003). It described
the rise of nanotechnology in terms of government incentive programs, private R&D, patents
and product applications and posed the legiti-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TA-INSTITUTIONEN UND -PROGRAMME
mate question as to what the benefits and risks
for society would be of this new technology. It
also pointed at the many uncertainties with
regard to the health impact of nano-particles.
The Big Down contained ‘emerging’ criticism
directed at nanotechnology, which reminded a
commentator in Nature of the debate on genetically modified food:
“Nanotechnology is set to be the next campaign focus of environmental groups. Will
scientists avoid the mistakes made over genetically modified food, and secure trust for
their research?” (Brumfield 2003)
The ETC group also drew public attention to a
workshop held in December 2001 entitled Converging technologies for improving human performance, organised by the National Science
Foundation and the Department of Commerce in
the United States (Roco, Bainbridge 2002). The
workshop discussed how the convergence of
nanotechnology, biotechnology, ICT and cognitive sciences (referred to as NBIC) could improve the physical and cognitive capabilities of
humans, both individually and collectively.
At that time – Spring 2003 – hardly any
public debate on the social significance of
nanotechnology had taken place in the Netherlands. The only people engaged were nanoscientists, commercial firms, and some social
scientists involved in NanoNed. The latter were
setting up a national network and creating ties
with a growing international network of social
researchers engaged in the burgeoning field of
nanotechnology.
A quick round of phone calls at the time
showed that the health risks of nanoparticles
were not on the policy agenda of either the
Ministry of Health, Environment or Social
Affairs. The Dutch branch of Greenpeace and
Environmental Defence Fund (Vereniging Milieudefensie), were not even aware of the term
nanotechnology. Media attention to nanotechnology was also close to zero.
To conclude, at the time the 21st Century
Nanotechnology R&D Act was introduced in the
United States (June 2003), which demands inter
alia research into the social and ethical aspects
of nanotechnology, the debate on nanotechnology in the Netherlands was more or less nonexistent. This, combined with the arrival of the
debate in Europe, caused the Rathenau Institute
to accelerate its activities on nanotechnology
and give the subject a higher priority.
3 Autumn 2003: crawling
In September 2003 we wrote an internal paper
covering the fields of application and related
social issues involved in nanotechnology and
an overview of the public debate and related
TA activities in that field in various countries.
In Europe, the nanotechnology debate has
clearly started in Great-Britain, and was coming very slowly to the Netherlands.
On the European level, the European
Commission started by setting up the High
Level Expert Group (HLEG) Foresighting the
New Technology Wave to explore the potentials
and risks of converging technologies (NBIC, see
above) and its meaning for Europe’s R&D policy. The director of the Rathenau Institute, Jan
Staman, was invited to join the expert group,
which gave the institute a direct link to the international community involved in the societal
aspects of nanotechnology. [see also the report
on the HLEG’s meeting on September 14-15,
2004 in this issue, pp. 118]
On June 11, 2003, the Royal Society and
the Royal Academy of Engineering, commissioned by the British government, initiated a
study on the possible benefits and problems
which nanotechnology might introduce. Inspired
by that political move, the Dutch Minister of
Education requested the Royal Netherlands
Academy of Sciences (KNAW) in August 2003
to launch a Working Group on the Consequences of Nanotechnology to analyse the
status, further developments and social consequences of nanotechnology. In contrast to the
open and consultative process in Britain, the
Dutch KNAW working group was an expert
committee, consisting of prominent nanoscientists and one social scientist. Based on this
working group’s report the Minister would decide whether further steps should be taken. In
our view the closed expert committee approach
did not address the need for involving different
social actors in the debate on nanotechnology
and start up a dialogue. Clearly there was a task
for the Rathenau Institute to fill that gap.
But how to do that was not fully clear at the
time. We saw a real need for a Dutch meeting to
discuss the health risks of nanoparticles as this
topic was receiving ever more international
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 73
TA-INSTITUTIONEN UND -PROGRAMME
attention, while awareness in the Netherlands
was still thin. Accordingly, we decided to organise a workshop on the issue (see 5.1). We also
decided to publish the discussion paper. For this,
we would make use of current reports, as those
of the Economic & Social Research Council
(Wood et al. 2003), and Greenpeace UK (Arnall
2003), and international studies that we knew
would soon to be published. For example, our
German sister organisation TAB – the Office of
Technology Assessment at the German Parliament was finishing a broad study on nanotechnology (Paschen et al. 2003), and kindly allowed us to use their results before publication.
Finally, a so-called NanoTeam was set up within
the Rathenau Institute consisting of specialists
from various distinct fields, like biomedical
technology, ICT, agro-food, and communication. Its prime task was to produce a common
project proposal.
4 Winter 2003/4: a concept agenda
At the end of February 2004, the workshop on
Opportunities and Risks of Nanoparticles was
held, and the publication and project proposal
were both ready. Moreover, the parliamentary
Theme Commission on Technology Policy1
had shown interest in organising a public meeting on nanotechnology together with the
Rathenau Institute.
Publication ‘To value the very small …’
The publication was written with the help of
Ineke Malsch (an experienced consultant in the
field of nanotechnology), and Arie Rip (coordinator of TA activities at NanoNed). It was
entitled in Dutch Om het kleine te waarderen…(Van Est et al. 2003). The Dutch verb
‘waarderen’ (to value) means on the one hand
evaluate, quantify or assess, and on the other
appreciate or enjoy. The title refers to the need
to simultaneously look both to the societal risks
and opportunities of nanotechnology. The publication received attention in various national
newspapers (cf. Van Calmthout 2004), which
meant that for the first time nanotechnology
was introduced to a wider audience.
Om het kleine te waarderen…provided an
initial concept agenda for public debate, and,
logically, also for the Rathenau project on
nanotechnology. Table 1 summarises the main
(groups) of societal issues and related dream
Seite 74
and horror scenarios that the study identified. It
is striking that nanotechnology touches upon so
many familiar social issues, from ICT and privacy, predictive medicine, the ethics of war,
and sustainability to social guidance of innovation and North-South issues. Relatively new
issues related to nanotechnology include human engineering or enhancement, the
(im)possibility of self-reproducing nanobots,
and the borders between living and non-living
material. The most current topic is the health
effects of nanoparticles.
Project proposal
The basic idea was to organise a public event, in
which politicians would play a central role. Its
goal would be to find out whether it would be
necessary to organise a large public debate on
nanotechnology (like the debate on genetically
modified food) in the Netherlands. And if not,
what (if any) kind of actions should be taken?
Om het kleine te waarderen... was positioned as a background paper in preparation of
such a public meeting, to be organised in Autumn of 2004 (see 6). We used Table 1 to structure our project. Consequently, we organised
workshops on the health effects of nanoparticles
(5.1), nanoelectronics (5.2), and biomedical
nanotechnology (5.3). Around military nanotechnology no workshop was set up, but the
issue was taken up as part of a study on military
technology in general. Since agrofood is an
important Dutch industrial and R&D sector, but
was treated only in a very concise manner in the
study, it was decided to also organise a workshop on nanotechnology in the agrofood sector
(5.4). Table 1 shows a great many potential
controversial issues that surround nanotechnology. To get an idea on how people perceive
nanotechnology, several focus groups with Master students were organised (5.5).
The goal of the workshops was to involve
nanoscientists, industry, NGOs, social scientists,
and policymakers in the social debate on
nanotechnology. An electronic newsletter was
set up that summarises project activities and
publishes the latest news on nanotechnology by
other (international) organisations. In this way
we tried to engage as many people as possible in
the itinerary towards the first Dutch public debate on nanotechnology in the Autumn of 2004.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TA-INSTITUTIONEN UND -PROGRAMME
Table 1: Societal issues and dream and horror scenarios for different fields of applications in
nanotechnology
Field of application
Nanomaterials / industrial
production
Societal issue
Health- and environmental
issues
Self-(re)production
Nanoelectronics
Privacy
Bio-electronics
Engineering of humans
Nanotechnology in medical
sphere
Military technology
General / innovation
Universal assembler / personal fabrication
‘Smart’ products and environments
World without ‘handicaps’
Grey Goo
Coupling to the internet
(free from mortal body)
Early diagnostics
Tailored medicine
Arms race
Safe world
Ethics of war
Zero-casualty / remote
control war
‘Invincible warriors’
Equal distribution of profit
and wealth
Equal distribution of wealth
Societal steering
Growth of economy and
employment
Engineering of humans
Patents
Big Brother
Discrimination of ‘handicaps’
Dehumanisation and alienation
Genetic coercion and / or
exclusion
Split in health care
New weapons and arms race
/ proliferations (use by
terrorists)
Killer robots / space war
Cyber soldiers
Monopolisation of knowledge and profit
Nanodivide
Technological determinism
Shrinkage of economy and
employment
Van Est et al. 2003, p. 54
5 Spring 2004: first steps
In this section we highlight some outcomes of
the various preparatory activities.2 In particular,
the many and distinct societal uncertainties
involved in various fields of application of
nanotechnology are illustrated.
5.1
Horror scenario
Nanoasbestos
Mixture of living and nonliving
Predictive medicine
International development
Steering / dialogue
Economy
Source:
Dream scenario
Sustainability
Nanoparticles – many unknowns
about health effects
The workshop Opportunities and Risks of
Nano-particles was held on February 17, 2004
in The Hague and confronted nanoscientists for
the first time in public with the attitudes on this
emerging political topic.
During the workshop it was clear there
were many uncertainties as to health effects of
nano-particles. And there is uncertainty still as
to what artificially created nano-particles might
do in the body. For example, the mechanism by
which aerosols cause damage to the lungs is
still unknown. Precautionary measures have
been taken for researchers in laboratories and
production employees who work with nanoparticles, but it is not yet known whether these
are effective. An additional problem is that it is
not clear how to measure nano-particles. It is
also uncertain whether the standard rule applicable in toxicology – that risk is the product of
the level of exposure and intrinsic danger –
applies to nano-particles. Finally, current clinical studies may be not suited to deal with the
health effects of nano-particles.
5.2
Nanoelectronics – uncertainty about
consumer demands
Surprisingly, privacy was not the main issue at
the workshop Nano-electronics and ambient
intelligence, held on March 25, 2004 in Eindhoven. The most important issue put forward
here was the uncertainty about consumer demands. For decades technology development in
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 75
TA-INSTITUTIONEN UND -PROGRAMME
the electronics sector has been described by
Moore’s law. Accordingly, roadmaps have
been designed up to 2015 (and beyond) that
almost predetermine technological progress for
the coming decade.
In sharp contrast to the predictability of the
technology, it is impossible to predict which
applications will end up being a commercial
success. This means huge investments must go
into product development without the certainty
that it will produce results. Innovation is thus
economically vulnerable. Moreover, society and
government are confronted with an endless
stream of unforeseen and potential culturally
‘radical’ innovations, like the mobile phone.
5.3
Health care – unclear relation between (early) diagnosis and disease
Early diagnostics and tailored medicines are the
two dream scenarios mentioned in Table 1. The
first scenario got most of the attention in the
workshop on Biomedical nanotechnology,
which was organised in Utrecht on July 7, 2004.
Combined with early detection of disease risks
based on genetic profiling (DNA diagnostics),
molecular imaging (nanodiagnostics) seems to
offer the possibility to detect diseases earlier and
more effectively than hitherto and fight them
with fewer side effects.
During the workshop several social risks
were identified. Early diagnostics may lead to
both a far-reaching medicalisation of normal
life, as well as unnecessary medical interventions. Defects are constantly occurring in the
body which the body itself repairs. In the background to this problem is the fact that there is
no unequivocal relationship between a defect
occurring and the occurrence of a disease. The
earlier the diagnosis, the less clear the relationship. A related issue is reliability. Who would
be liable if a false prediction were to be made?
Liability issues could lead to only a limited
number of tests being offered. Strict admission
procedures apply to (the use of) new medicines
and new treatment methods. Applicable protocols generally focus on clinical practice: the
treatment of the actual disease. It is still unknown how the clinical trials should be handled with regard to early diagnostics.
Seite 76
5.4
Agro-food sector – uncertainty about
social acceptance
Among the participants of the workshop
Nanotechnology in the agrofood sector held on
April 8, 2004 in Wageningen, there was huge
uncertainty about the social acceptance of food
in which nanotechnology has been applied.
This could be met with the same rejection as
genetically modified food because nanotechnology also involves ‘artificial’ intervention in
‘natural’ food cycles. Furthermore, it is unclear
what the possible health risks of nanoparticles
in food are. They are often produced differently
to particles occurring in nature, which could
mean they are less degradable. It was also said
that several realistic risks lurk behind the socalled Green Goo scenario, which is the fear
that the use of self-reproducing nanoparticles in
nature may lead to an artificial micro-organism
that could alter the environment into a green,
uniform mass.
5.5
Public perceptions – positive expectations and worries about regulation
There is much speculation as to how lay people
see nanotechnology, but not much is known.
To allow a more informed discussion, three
focus groups were organised with Master students. In the study The double message of
nanotechnology: research into rising public
perceptions, Hanssen & Van Est (2004) compare the results of the Dutch focus groups with
focus groups organised in the United Kingdom
and Denmark, and public surveys held in the
United States and Europe. The following two
main features emerged:
- Limited familiarity, positive expectations
Quantitative research shows that the general
public in Europe and the United States has
limited familiarity only with nanotechnology. A British and American survey showed
that 29 and 32 percent of people questioned,
respectively, knew what nanotechnology
was. The public is mainly positive towards
nanotechnology: 68 percent of the British
expect nanotechnology to improve the quality of life and 40 percent of Americans see
more advantages than disadvantages. These
findings are confirmed by the results from
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TA-INSTITUTIONEN UND -PROGRAMME
the focus groups in Denmark, the Netherlands and the United Kingdom. Participants
see possibilities to fight diseases, and for a
better environment. They hope that
nanotechnology will be applied to these
ends. Not many people are waiting for improved or cheaper consumer goods.
- Uncomfortable with regulation
Next to positive expectations, people also
have worries. In particular, the focus group
discussions showed that people are not comfortable with the regulations on and control
of nanotechnology. The industry’s growing
influence on how technological developments are controlled play a role in this.
People also worry about the risk of nanoparticles ending up in the body or environment,
a new arms race and the loss of privacy
through new electronic methods of detection. Finally, many people fear that the
benefits of nanotechnology will only benefit
the West and will ignore the Third World.
Recommendations of the KNAW Working group
At the time the public meeting on nanotechnology was held, various committees that had
been set up over the previous year to study the
societal risks and opportunities of nanotechnology had finished their job. In the UK the
Royal Society and the Royal Academy of Engineering (2004) presented their advice to the
government in July 2004. The report expects
that the concerns in the short to medium term
will focus on two basic questions: (1) who
controls and (2) who benefits from uses of
nanotechnologies? Therefore, it is recommended that
“…a constructive and proactive debate
about the future of nanotechnologies should
be undertaken now – at a stage that it can
inform key decisions about their developments and before deeply entrenched or polarised positions appear.”
In August, the Royal Netherlands Academy of
Sciences' working group Consequences of
Nanotechnology (KNAW 2004) came up with
similar types of recommendations (see Box 2).
Box 2:
Recommendations of KNAW Working
Group
• The government should develop new regulations
•
•
•
•
within the existing legal frameworks for introduction
of new nanoparticles in society.
More research should be done on the toxicological
qualities of nanoparticles and their kinetics in organisms and environment.
A moratorium on nanoscience and technology is very
undesirable based on the principle of proportionality.
The Ministries of Education, Culture & Science and
Economic Affairs should encourage the general public to be informed on nanoscience and nanotechnology. It is crucial that the general public is actively involved in the discussion on the future of scientific research and its applications.
The government should start a structured open discussion on risks and benefits of nanoscience and technology based on the lessons learned on the introduction
of genetically modified food.
6 Autumn 2004: Public meeting in Parliament ‘Small technology – Big consequences’
The first public meeting on nanotechnology in
the Netherlands was held on Wednesday afternoon October 13, 2004 in the Dutch parliament
building in The Hague under the title Small
technology – Big consequences. The goal of the
meeting was to inform politicians and other
social actors about developments in the field of
nanotechnology, and discuss related relevant
political and societal questions.
One of the objectives of the Parliamentary
Theme Commission on Technology Policy
which was involved in organizing the meeting
was to experiment with new types of methods.
Instead of opting for the classical hearing, it was
chosen to organise four interactive debates between stakeholders from different societal domains, like social scientists, nanoscientists,
businesspeople, societal organisations, government, politics, and the public. These different
groups of stakeholders got a distinct place
within the debating arena (see Photo). In this
way the public meeting was thought to present
an early reflection of the rising public debate.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 77
TA-INSTITUTIONEN UND -PROGRAMME
No sense of urgency, lack of involvement
Some 120 participants debated the following
four themes:
• Nanoscience or nanofiction? (Debate about
the relevance of nanoscience, and about
which expectations are and are not realistic)
• Nanotechnology, motor of the Dutch
knowledge economy? (Debate about the
relevance of nanotechnology for the Dutch
economy, and how innovation can or should
be fostered)
• Nanotechnology in the same track as biotechnology? (Debate about what societal issues are related to nanotechnology, and
whether the debate on nanotechnology will
become polarised)
• What to do next?
Big expectations, uncertain future
The public meeting showed that nanotechnology is expected to face a big, but uncertain
future, since it is – at the moment – not clear in
which directions it will develop. The extensive
and far-reaching promises of nanotechnology
make it hard to get a comprehensive and concrete picture of it, and develop a well-grounded
opinion on it. But at the same time, developments in this field are felt to be going very fast.
To seize the opportunities and problems of
social acceptance, as in the case of GM food, it
is important to involve citizens and NGOs already now in the debate. It is the role of the
government to facilitate an open debate between politics, citizens, firms, science and societal organisations. Such a debate should not
only focus on risk issues, but should pay attention to ethical dilemmas and beliefs too.
Seite 78
Few people were in favour of organising an
extensive public debate, like the Dutch debate
on GM food “Eten en Genen”, which was held
in 2001. There exists too little awareness on
nanotechnology among citizens to justify that,
moreover the issue at the moment lacks a sense
of urgency. In particular, this was proven by
the absence of many NGOs at the public meeting, although a lot of effort was put in beforehand to get them there. In particular politicians
regretted that only the 'in-crowd' was present at
the meeting, and expressed the need for more
involvement of societal organisations, since it
would offer politicians a good view of the pros
and cons of nanotechnology.
7 Concluding remarks
“The starting point is to acknowledge that we
don’t know what the risks of nanotechnology
are, and we don’t know what the benefits
are, and we won’t for some time.” (Roger
Kasperson; quoted in Weiss 2004)
This article described how over the last year
the public debate on nanotechnology in the
Netherlands has been built up from the bottom.
The first activities made clear that nanotechnology is still at an early stage of development,
but loaded with expectations and shrouded in
uncertainty. This conclusion came out of the
public meeting, and was illustrated by the preparatory activities (see 5):
• many unknowns about health effects of
nanoparticles;
• uncertainties about consumer demands and
societal effects in the field of nanoelectronics;
• uncertainty about social acceptance of food
products made by nanotechnology;
• unclear relationship between early diagnosis
and disease.
Risk communication expert Kasperson (see
quote above) argues for the acknowledgement
of these many unknowns and uncertainties
about the risks and benefits of nanotechnology
and take them as a starting point for further
debate and measures. Policymakers, however,
have a doubtful track record of acknowledging
societal risks related to technology in advance.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TA-INSTITUTIONEN UND -PROGRAMME
In cases like asbestos, nuclear power and GM
foods, outside public pressure was needed to
get such issues on the political agenda. This is
fatal to public trust, since the actors involved
are perceived to have failed to act in the public
interest, by only looking at the benefits and not
at the risks.
The challenge for the future, therefore, is
to prevent the same mistakes, and address the
benefits, risks and uncertainties involved in due
time. One of the ways the Rathenau Institute
will take up that challenge is to select five concrete applications that will likely come on the
market within the coming ten years, and start a
stakeholder dialogue on the societal issues at
stake, and what appropriate measures should be
taken. In this way the discussion on nanotechnology may become more concrete, which may
increase the involvement of NGOs and citizens
in this debate. This in its turn may help politicians obtain a clear picture of the pros and cons
of nanotechnology.
Notes
1) Besides Permanent and Temporary Commissions, the Dutch Lower House currently has two
so-called Theme Commissions: one on the Ageing Society, the other on Technology Policy.
These Theme Commissions seek to take a more
reflexive, long-term, and pro-active stance towards a certain topic or theme.
2) This paragraph is based on an internal paper
written by Frank Biesboer, which summarises
the main results of the preparatory workshops.
References
Arnall, A.H., 2003: Future technologies, today’s
choices. Nanotechnology, artificial intelligence and
robotics; a technical, political and institutional map
of emerging technologies. London: Greenpeace
Environmental Trust
Brumfield, G., 2003: A little knowledge… Nature,
Vol. 424 (17 July), pp. 246-248
ETC Group, 2003: The Big Down: Atomtech –
Technologies converging at the nano-scale. Winnipeg, Canada: ETC Group
Hanssen, L.; van Est, R., 2004: De dubbele boodschap van nanotechnologie. Een onderzoek naar
opkomende publiekspercepties. Den Haag: Rathenau
Institute
KNAW Werkgroep gevolgen nanotechnologie, 2004:
Hoe groot kan klein zijn? Enkele kanttekeningen bij
onderzoek op nanometerschaal en mogelijke gevolgen van nanotechnologie. Amsterdam: Koninklijke
Nederlandse Akademie van Wetenschappen
Paschen, H. et al., 2003: TA-Projekt Nanotechnologie: Endbericht. Berlin: Büro für TechnikfolgenAbschätzung beim Deutschen Bundestag (TAB).
Arbeitsbericht Nr. 92 – Berichterstatter-Exemplar
Roco, M.C.; Sims Bainbridge, W. (eds.), 2002:
Converging technologies for improving human
performance. Arlington, Virginia: National Science
Foundation / Department of Commerce
Royal Society & Royal Academy of Engineering,
2004: Nanoscience and nanotechnologies: opportunities and uncertainties. RS Policy document 19/04
(July 2004)
Ten Wolde, A. (ed.), 1998: Nanotechnology. Towards a molecular construction kit. Den Haag: STT
Netherlands Study Centre for Technology Trends
Van Calmthout, M., 2004: Nanoscience. Het
piepkleine risico. De Volkskrant 1-5-2004
Van Est, R.; Malsch, I.; Rip, A., 2004: Om het kleine
te waarderen… Een schets van nanotechnologie:
publiek debat, toepassingsgebieden en maatschappelijke aandachtspunten. Den Haag: Rathenau Institute,
Werkdocument 93
Weiss, R., 2004: Nanotech poses big unknown to
science; as world shrinks concerns multiply. In:
Washington Post, February 1, 2004
Wood, S.; Jones, R.; Geldart, A., 2003: The social
and economic challenges of nanotechnology. London: Economic & Social Research Council
Contacts
Dr. Ir. Rinie van Est
Drs. Ira van Keulen
Rathenau Institute
P.O. Box 85525, 2508 CE The Hague,
The Netherlands
Tel.: +31 (0) 70 / 342 1542
Fax.: +31 (0) 70 / 363 34 88
E-Mail: q.vanest@rathenau.nl
i.vankeulen@rathenau.nl
Internet: http://ww.rathenau.nl
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
«
Seite 79
TA-INSTITUTIONEN UND -PROGRAMME
Bundesweiter Diskurs:
Momentaufnahme Nachhaltigkeit und Gesellschaft
Diskursbericht von Christiane Averbeck
und Kira Crome, Rat für Nachhaltige Entwicklung, sowie Arved Lüth und Alexander
Nick, IFOK
„Deutschland fehlt ein Zukunfts-TÜV“, erklärte Volker Hauff, der Vorsitzende des von
Bundeskanzler
Schröder
einberufenen
Nachhaltigkeitsrates auf der Abschlussveranstaltung zum Diskurs „Nachhaltigkeit und
Gesellschaft“ am 23. Juni 2004 in der Katholischen Akademie in Berlin. Mit 200 Vertretern aus Wirtschaft, Politik und Zivilgesellschaft diskutierten Mitglieder des Rates
für Nachhaltige Entwicklung die Ergebnisse
des bundesweiten Diskurses, der von Januar bis Juni diesen Jahres die Verankerung von Nachhaltigkeit in der Gesellschaft
im Detail untersuchte. Der abschließende
Bericht „Momentaufnahme – Nachhaltigkeit
und Gesellschaft“ zeichnet ein detailliertes
und differenziertes Bild nachhaltiger Entwicklung in Deutschland.
1 Ziele und Vorgehen des Diskurses
Die Bundesregierung berichtet zur Fortschreibung ihrer Nachhaltigkeitsstrategie, Unternehmen schreiben Nachhaltigkeitsberichte – wie
aber lässt sich eine Gesellschaftsbilanz zur
Nachhaltigkeit erstellen? Der Rat für Nachhaltige Entwicklung der Bundesregierung hat das
Institut für Organisationskommunikation
(IFOK) beauftragt, einen solchen Bericht anzufertigen. Dieser Bilanzbericht ist neuartig, weil
es bislang keine etablierten Berichtswege in der
Gesellschaft gibt. Um dennoch eine Aussage
zum Verankerungsgrad nachhaltiger Entwicklung in Deutschland treffen zu können, wurde
die Struktur eines moderierten Diskursprozesses als Verfahren gewählt. Ziel war es, ein
neues Format für Diskussion und Berichterstattung zu finden, das Erfahrungen, Erfolge und
Misserfolge, Erwartungen und Stimmungen
aus unterschiedlichen gesellschaftlichen Gruppen, von Akteuren aus Wirtschaft und Verbänden, Initiativen und Wissenschaft erfasst. Ziel
und Ergebnis sind mit dem Bild einer „Mo-
Seite 80
mentaufnahme“ am besten beschrieben (IFOK,
RNE 2004).
Folgende Fragen standen im Mittelpunkt
des Diskurses:
• Inwieweit ist Nachhaltigkeit heute Kompass
für gesellschaftliche Aktivitäten und wovon
hängt die Fähigkeit der gesellschaftlichen
Akteure ab, sich nachhaltig zu verhalten?
• Wo unterstützt, wo behindert politisches
Handeln die Aktivitäten der gesellschaftlichen Akteure und wo hat die Gesellschaft
Lösungsansätze, die denen der Politik überlegen sind?
Ingesamt 1.100 Menschen wurden in einer
ersten Umfrage angesprochen: Meinungsführer
aus Wirtschaft, Gesellschaft, Kultur und Medien, Nachhaltigkeitsexperten, junge Menschen
(„Generation N“) und so genannte Pioniere, die
durch ihr persönliches Engagement die Entwicklung in Umweltschutz und Nachhaltigkeit
in der Vergangenheit maßgeblich geprägt haben. Ihre Beiträge und Kommentare haben
Eingang in den Abschlussbericht gefunden.
200 Vertreter wurden zum Diskurs geladen, der in drei verschiedenen Foren durchgeführt wurde. Im Forum Leadership kamen Führungspersönlichkeiten zu Wort, die im Spannungsfeld von Globalisierung, wirtschaftlichen
und sozialen Rahmenbedingungen ein Bild von
den Möglichkeiten zur Umsetzung von Nachhaltigkeit zeichneten. Im Forum Experten diskutierten diejenigen miteinander, die sich beruflich oder ehrenamtlich mit dem Thema
Nachhaltigkeit beschäftigen und die die Nachhaltigkeitskompetenz in der Gesellschaft repräsentieren. Im Forum Generation N schließlich
ging es um spezifische Sichtweisen der jungen
Generation auf die Themen Nachhaltigkeit und
Generationengerechtigkeit.
2 Wo steht der Nachhaltigkeitsdiskurs in
Deutschland?
Die Bilanz fällt ernüchternd aus: Nachhaltigkeit ist in Deutschland nicht verankert. Dennoch gibt es Anlass zu Zuversicht und Optimismus: Nachhaltigkeit lebt in einer Nische.
Ihre Akteure bilden eine produktive, kreative
Gemeinschaft, die sich – wie es in keinem anderen Politikfeld der Fall ist – an Langfristigkeit und Globalität gesellschaftlicher Entwick-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TA-INSTITUTIONEN UND -PROGRAMME
lung orientiert. Das Denken in diesen Dimensionen zeichnet die Nachhaltigkeitsszene aus und
verleiht ihr ein bisher verkanntes Potenzial zur
Modernisierung, Transformierung und Reformierung von Gesellschaft und Wirtschaft.
Wirtschaftliche, soziale, ökonomische, aber vor
allem integrierte Innovationen als Bausteine für
Zukunftsgestaltung sind von hier zu erwarten.
Die Nachhaltigkeitsszene fußt auf Selbstorganisation und gehorcht den Spielregeln zivilgesellschaftlicher Akteure. Es zeigte sich, dass
die Nachhaltigkeitsstrategie der Bundesregierung verhältnismäßig wenig Resonanz bei den
Akteuren findet. Insgesamt schätzt die Nachhaltigkeitsszene sowohl die Arbeit der Regierung
als auch ihre eigene sehr kritisch ein – kritischer
als dies durch Außenbewertung geschehen ist
(beispielsweise in einer aktuellen Studie des
World Economic Forum, gemäß der Deutschland in punkto Nachhaltigkeit führend ist).
3 Themen und Handlungsfelder
Nachhaltigkeit ist in Deutschland nicht verankert, aber es wird ihr ein enormes Potenzial
bescheinigt. Der Diskurs beleuchtet Missstände, die es zu überwinden gilt, sowie Suchräume
und Handlungsfelder, um dieses Potenzial besser nutzen zu können. Die wichtigsten Aussagen bzw. Ergebnisse der Diskussionen in den
drei Foren sowie der Umfrage sind im Folgenden dargestellt. Die Bewertung der Ergebnisse
aus der Sicht des Nachhaltigkeitsrates schließt
sich daran an.
Nachhaltigkeit als gesellschaftlicher Such-,
Lern- und Gestaltungsprozess – wohin?
Wie Nachhaltige Entwicklung funktioniert,
nämlich als gesellschaftlicher Such-, Lern- und
Gestaltungsprozess, ist klarer als die Beantwortung der Frage, welche Richtung einer Entwicklung als nachhaltig gilt. Die Schwierigkeiten der
„Nachhaltigkeitsstrategie der Gesellschaft“ sind,
hierbei Richtung und Orientierung zu finden und
sich darauf zu fokussieren. Das Motto „Lasst
1000 Blumen blühen“ diente hier mehrfach als
Selbstbezeichnung – das Gegenteil wäre ein
staatliches Apollo-Projekt der Nachhaltigkeit.
Gemeinsame Vision zur Gestaltung der Zukunft nicht erkennbar
Das „big picture“ der Nachhaltigkeit ist nicht
erkennbar. Es fehlt an Visionen, wie eine Welt
aussieht, die nachhaltiger ist als unsere bestehende. Es ist nicht klar, wie eine Wirtschaft
oder Arbeitswelt aussehen soll, die nachhaltiger produziert. Es ist fraglich, wie eine kinderlose Gesellschaft sich nachhaltig entwickeln
will. Es ist ungewiss, ob wir in Zukunft Wachstum oder Schrumpfung managen werden.
Zur Beantwortung der Frage „Was ist nachhaltig...?“
Die Diskussion hat gezeigt, dass Orientierung
und immer wieder Orientierung gefragt ist. Zu
kurz gesprungen schienen viele der Versuche in
der Vergangenheit, nachhaltige Lebensstile zu
definieren. Zu kurz gesprungen sind auch „Weniger ist mehr“-Lifestyle-Parolen zu einer Zeit,
in der „Mehr für weniger!“ die erfolgreichste
Parole ist. Es schimmert durch, dass es wenig
Sinn hat, im halböffentlichen Privatleben Symbolpolitik zu betreiben und an einer anderen
Stelle dafür umso weniger nachhaltig zu sein.
Kurz: Niemand ist nur nachhaltig, niemand ist
aber auch nur nicht-nachhaltig. Die Frage nach
dem „Was“, der inhaltlichen Bestimmung der
Nachhaltigkeit, bleibt. Zur Orientierung darüber
wurden zwei Strategien als aussichtsreich bewertet: Die Identifizierung von eindeutig nichtnachhaltigen Produkten, Verhaltensweisen, Politiken und Dienstleistungen (im Sinne eines
Schwarzbuchs der Nachhaltigkeit) und die
Übersetzung von Fach- in Alltagswissen. Großes Potenzial wurde in der Ausgestaltung von
Anreizen für nachhaltiges Verhalten gesehen –
auch hier geht der Adressatenkreis über die Politik hinaus bzw. kann die Politik in vielen Fällen
gar nicht alleine tätig werden.
Neuer Politikstil der Nachhaltigkeit entsteht
Die Beteiligungskultur und die Offenheit des
Konzeptes Nachhaltigkeit hat ein neues, erweitertes Politikverständnis geprägt. Politik wird
danach nicht mehr nur als eine Sache von Berufspolitikern verstanden, sondern bezieht einen erweiterten Kreis von Interessierten und
Akteuren mit ein. Nachhaltigkeit muss jenseits
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 81
TA-INSTITUTIONEN UND -PROGRAMME
der mandatierten Politik organisiert werden; sie
ist nicht allein staatliche Aufgabe. Ihre eigentliche Kraft entwickelt sich dort, wo Politik,
Zivilgesellschaft und Wirtschaft in einem neuen Sinne für die Zukunftsentwicklung zusammenwirken. Durch diesen neuen Politikstil der
Nachhaltigkeit wird die gesellschaftliche Problemlösungskompetenz beträchtlich erhöht.
Neue Debatte über Verantwortung und Legitimität
Die Bemühungen um eine nachhaltige Entwicklung setzen eine neue Verteilungs- und
Legitimitätsdebatte auf die gesellschaftliche
Agenda – es geht um die Verteilung von und
die Teilhabe an Verantwortung für die Zukunft.
Neue Grenzen der Verantwortung werden ausgehandelt. Das betrifft die Aufgabenteilung
zwischen Unternehmen, Politik, Verwaltung
und Zivilgesellschaft. Damit stellen sich auch
neue Fragen der Legitimität und Effizienz von
Verfahren und einzelner Akteure.
Bewusstseinswandel aussichtslos?
Ein Bewusstseinswandel in Richtung Nachhaltigkeit wurde als zentrales Handlungsfeld identifiziert – aber es ist in vielen Fällen weder
klar, wie die Richtung konkret aussehen könnte, noch, wie der Bewusstseinswandel vollzogen werden soll. Dass er möglich sei, wurde
sogar als sehr unwahrscheinlich eingeschätzt.
Die Diskussionen führten häufig zu einem Ruf
nach Wertewandel bzw. einer „ehrlichen Debatte“, die die entscheidenden Akteure (Medienwirtschaft, Bildungseinrichtungen, Marketing, Wissenschaft) zusammenführt und Wertefragen offen, aber ergebnisorientiert diskutiert.
Junge Generation wird zu wenig beteiligt
Die junge Generation möchte stärker in die
Dialoge zur Nachhaltigkeits-Strategie einbezogen werden. Hierfür fehlen Foren und Beteiligungsmodelle; es wurden Scheinbeteiligungen
in gängigen Konsultationsverfahren der Bundesregierung und der EU-Kommission beklagt.
Fehlende sektorale Mobilität in Deutschland
In der Diskussion wurde auch die mangelhafte
Durchlässigkeit der gesellschaftlichen Sektoren
kritisiert. Es fehlt an Initiativen, die sektorale
Grenzgänger dem jahrzehntelangen Marsch
durch die Institutionen vorzieht. Nachhaltigkeit
funktioniert nur mehrsektoral und braucht Köpfe, die die Spielregeln bzw. Rahmenbedingungen verschiedener Sektoren kennen.
Neue Führungsqualitäten in Politik, Wirtschaft
und Gesellschaft gefragt
Weitsichtige Führungsqualitäten fehlen nicht
nur in vielen Unternehmen, sie fehlen auch in
der Zivilgesellschaft. Im Diskurs wurde wiederholt darauf hingewiesen, dass es immer
wieder Entscheidungssituationen gibt, in denen
die Spielregeln so weiterentwickelt werden
müssten, dass Organisationen und Personen
nachhaltig handeln könnten, ohne kurzfristig
einen zu starken Nachteil davonzutragen. In
vielen Fällen fehlten zusätzlich der Anschluss
an die internationalen Diskussionen oder internationale Netzwerke – selbst unter Führungskräften sei hier ein Defizit erkennbar.
Seite 82
4 Bewertung der Ergebnisse durch den
Nachhaltigkeitsrat
Die Momentaufnahme stimme optimistisch, das
stellt der Rat für Nachhaltige Entwicklung in
seinen Schlussfolgerungen zu den Ergebnissen
der Momentaufnahme ’Nachhaltigkeit im Visier’ fest (RNE 2004). Dies jedoch nicht, weil
die Zukunftsfähigkeit schon auf einem guten
Weg sei, sondern weil sich kreative und initiativreiche Menschen beteiligt haben. Im Diskurs
seien viele interessante und neue Anregungen
für eine Nachhaltigkeitspolitik entwickelt worden – Anregungen, die Bausteine für eine Zukunfts-Zuversicht seien.
Der Diskurs habe gezeigt, wie wichtig es
sei, solchen Diskussionen Raum zu geben. Und
so empfiehlt der Rat der Bundesregierung auch
in Zukunft, in ihrer Berichterstattung zur Nachhaltigkeit eine gesellschaftliche Bilanz zur
Nachhaltigkeit vorzusehen. Eine notwendige
Auseinandersetzung mit den Widersprüchen
und Zielkonflikten im Konzept der Nachhaltigkeit generiere Neues, das zu einer Weiterentwicklung führen würde.
Erleichterungen und Ermutigungen für den
Alltag der Initiativen und das Verwirklichen
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TA-INSTITUTIONEN UND -PROGRAMME
neuer Ideen seien notwendig, um das Konzept
der Nachhaltigkeit zu stärken und voranzubringen. Eine Kultur der Anerkennung stärke bürgerschaftliches Engagement, ein Engagement,
das eine wichtige Voraussetzung für die Weiterentwicklung einer Gesellschaft darstelle.
Eine große Bedeutung misst der Rat der
Bildungspolitik bei. Sowohl Schulbildung, berufliche Bildung als auch die informelle Bildung, Medien, das Fernsehen, Stiftungsprojekte
und Museen seien gefragt, durch ihre Bildungskonzepte das Thema Nachhaltigkeit weiterzuentwickeln und den Menschen zu vermitteln. In
diesem Zusammenhang erhofft sich der Rat
einen signifikanten deutschen Beitrag zu der von
2005 bis 2014 andauernden UN-Dekade „Bildung für nachhaltige Entwicklung“.
Nach Ansicht des Rates ist Deutschland
noch nicht auf einem guten Weg in Richtung
einer nachhaltigen Entwicklung und dies, obwohl eine Renaissance der Werteorientierung
der Momentaufnahme zu entnehmen sei und
obwohl es ein hohes Maß an Unzufriedenheit
mit der Werteorientierung des gesellschaftlichen Lebens gebe. Künftig sollte deutlicher
werden, dass mit dem Thema Nachhaltigkeit
kulturelle und gesellschaftliche Werte verbunden sind, die zu einem Motor für zukünftige
Entwicklungen werden können.
Die Momentaufnahme zeige, so der Rat,
dass viele Menschen die Idee der Nachhaltigkeit
aufgreifen und sie mit kreativen und engagierten
Initiativen in Bewegung halten – sowohl in der
Wirtschaft, als auch in vielen Teilen der Zivilgesellschaft. Bei der Gestaltung einer umwelt- und
sozialgerechteren Zukunft spielen diese Aktivitäten eine viel wichtigere Rolle als in der Politik
oft wahrgenommen werde. Dennoch befinde
sich die Nachhaltigkeitsdebatte in einem lähmenden Spagat zwischen der Unzufriedenheit
mit dem Bestehendem und der Befürchtung von
Zukünftigem. Die Erkenntnis der Nicht-Nachhaltigkeit werde begleitet von einer Angst, unmissverständlich aufzuzeigen, was sich Gegenwartspolitik noch leisten könne und was nicht.
Sie stehe den gesellschaftlichen Triebkräften
entgegen, die Generationengerechtigkeit im
Blick haben und sich für eine innovative Zukunftsgestaltung einsetzen. Diese Kräfte und
Impulse seien eine Kreativitätsreserve unserer
Gesellschaft für Nachhaltigkeit. Ihr Potenzial
dürfe nicht gering geschätzt werden und als
verträumter Umweltdiskurs oder als Zukunftsmoralismus abgetan werden.
Die Nachhaltigkeitsdebatte um Ziele und
Handlungsansätze offenbart nach Ansicht des
Rates an vielen Stellen große Orientierungsdefizite. Viele gute Schritte in die richtige Richtung
würden durch Widersprüche, Gegenkräfte und
Gleichzeitigkeiten konterkariert. Als Beispiel
wird die Wirtschaft genannt: Einige führende
Unternehmen integrieren Nachhaltigkeit in ihre
Unternehmenspolitik. Mit Initiativen zur Nachhaltigkeitsberichterstattung und zur integrierten
Produktentwicklung werden sie zum Vorreiter
und zu einem treibenden Faktor in der Gesellschaftsbilanz zur Nachhaltigkeit. Gleichzeitig
aber werde Nachhaltigkeit in der Breite der
Wirtschaft als „Modethema“, gut für bessere
Zeiten, verstanden und kaum aktiv aufgefasst.
Viele Unternehmensaktivitäten verleihen einfach den bestehenden Umweltmaßnahmen ein
neues Etikett und seien nicht in der strategischen
Unternehmensplanung verankert.
Vielfach wurde in den Diskussionen bemängelt, dass der Begriff Nachhaltigkeit inhaltsleer zur Worthülse verkomme. Der Rat
sieht das jedoch nicht nur negativ, vielmehr
könne der häufige Gebrauch des Wortes, auch
wenn er unsachgemäß erscheine, zu einem
Anknüpfungspunkt für die politische Diskussion werden, um die es eigentlich gehe. Dem
Befund der begrifflichen Unklarheit stehe die
zur Hoffnung Anlass gebende Beobachtung
entgegen, dass die Diskussionen um Nachhaltigkeit ein Reservoir an Lösungsideen öffnen
könnten. Wie wenige andere Debatten fordere
die Nachhaltigkeitsdiskussion eine Kompetenz,
die weit über die fachliche Qualifikation für
eine Sachfrage hinausgehe. Jeder Nachhaltigkeitsexperte sei immer auch in seinen privaten
Rollen als Bürger, Nachbar, Arbeitnehmer u. a.
gefragt. Nachhaltigkeit sei daher per se dialogisch und eröffne viele Wege für eine partizipative Zukunftsgestaltung. Parallel dazu gründen sich branchenübergreifende Initiativen, in
denen Unternehmen über die eigene Marktverantwortung hinaus neue Allianzen mit gesellschaftlichen Akteuren organisieren. Diese widersprüchlichen Trends wiesen auf ein Orientierungsdefizit, dass zugleich eine reichhaltige
Gestaltungsreserve für Nachhaltigkeit biete.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 83
TA-INSTITUTIONEN UND -PROGRAMME
5 Nachhaltigkeit als Suchraum
Wie die politische Diskussion in Zukunft aussehen wird, ist heute noch nicht abzusehen.
Nach Ansicht des Nachhaltigkeitsrates habe
sich aber gezeigt, dass der öffentliche Diskurs
um Nachhaltigkeit jenseits der Debatte um
Begrifflichkeiten als ein Such- und Lernprozess geführt werden müsse, in dem Problemerkenntnis, Ziele und Handlungsansätze diskutiert werden. Weil die Suche viele mögliche
Wege biete, erscheint ein solches Nachhaltigkeitsverständnis als schwierige Herausforderung. Es eröffne aber zugleich eine Chance für
einen neuen Zugang zum „Management der
öffentlichen Dinge“: Im Sinne eines Suchraums verstandene Nachhaltigkeitspolitik will
nicht klassische Verfahren ersetzen, sondern
ergänzen und für alle Nachhaltigkeitsinteressierten und Akteure öffnen. Nicht weniger Politik sei nötig, sondern mehr: mehr Politik von
Nichtpolitikern, mehr Zugang und Teilhabe
von Akteuren, Partizipation und Transparenz.
Der Diskurs soll weitergehen – das Format
des Diskurses sollte weiterentwickelt werden.
Das war der Wunsch der Teilnehmer des Diskurses, dem sich der Nachhaltigkeitsrat anschließt. Es gibt keinen anderen Raum, in dem
Zukunftsfragen so umfassend und fruchtbar
diskutiert werden können wie im Rahmen des
gesellschaftlichen Diskurses zur nachhaltigen
Entwicklung. Wichtig für eine Fortsetzung
erscheint nach Ansicht des Rates vor allem
eine thematische Fokussierung – und die Überbrückung der Kluft zwischen gesellschaftlichem Diskurs und Nachhaltigkeitsstrategie der
Bundesregierung.
Kontakt
Dr. Christiane Averbeck / Kira Crome
Rat für Nachhaltige Entwicklung (RNE)
Reichpietschufer 50, 10785 Berlin
Tel.: +49 (0) 30 / 25 49 - 17 80
Fax: +49 (0) 30 / 25 49 - 17 85
Internet: http://www.nachhaltigkeitsrat.de
Arved Lüth / Alexander Nick
Institut für Organisationskommunikation (IFOK)
Berliner Ring 89, 64625 Bensheim
Tel.: +49 (0)62 51 / 84 16 - 23
Fax: +49 (0) 62 51 / 8416 - 16
Internet: http://www.ifok.de
«»
Literatur
IFOK, RNE, 2004: Momentaufnahme Nachhaltigkeit und Gesellschaft. Berlin, Bericht hrsg. vom Rat
für Nachhaltige Entwicklung, texte Nr.8, Juni 2004.
Rat für Nachhaltige Entwicklung, 2004: Nachhaltigkeit im Visier. Gesellschaft fordert Politik – Unsere
Schlussfolgerungen. Berlin, Bericht hrsg. vom Rat
für Nachhaltige Entwicklung, texte Nr.9, Juni 2004.
Seite 84
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TA-KONZEPTE UND -METHODEN
TA-KONZEPTE
UND -METHODEN
BioMedical Technology Assessment: modulare Folgenerfassung und perspektivensensitive Bewertung biomedizinischer Innovationen
von Regine Kollek, Forschungsschwerpunkt Biotechnik, Gesellschaft und Umwelt,
Universität Hamburg (BIOGUM)
Die Technikbewertung in der Medizin konzentriert sich zumeist auf die unmittelbaren
gesundheitlichen Konsequenzen des medizinischen Technikeinsatzes für die Patienten. Viele moderne (bio-)medizinische Verfahren und Techniken betreffen jedoch in
ihrer Reichweite nicht nur einzelne Individuen oder Gruppen, sondern Gesundheitssystem und Gesellschaft als Ganzes. Das Health
Technology Assessment (HTA) versucht,
den sich dadurch stellenden Herausforderungen für eine umfassende und systematische Bewertung gerecht zu werden. Dieser
Anspruch wirft jedoch methodische und
konzeptionelle Fragen auf, die bislang noch
nicht befriedigend gelöst sind. Das vorgeschlagene Bewertungskonzept eines BioMedical Technology Assessment (BMTA) eröffnet die Möglichkeit, die Beschränkung und
die Probleme derzeitiger HTA-Konzepte zu
überwinden. Es erlaubt, sowohl „harte“ medizinische wie „weiche“ soziale Konsequenzen einer biomedizinischen Technologie zu
erfassen und sie in ein einheitliches Bewertungsschema zu integrieren, das der Vieldimensionalität technikinduzierter Effekte und
der Multiperspektivität der Bewertungen
Rechnung trägt.
rationaler zu machen. Zum anderen soll sie zu
selektionswirksamen Ergebnissen führen – und
zwar nicht nur im Bereich der Medizin, sondern auch im Hinblick auf gesellschaftliche
Prioritätensetzungen bei der Förderung wissenschaftlicher und medizinischer Entwicklungen
und ihrer Regulierung.
Die Technikbewertung in der Medizin hat
eine gewisse Tradition. Zunächst ging es dabei
um die Ermittlung und Bewertung direkter
Wirkungen und Nebenwirkungen neuer Medizintechniken und Produkte, zu denen nicht nur
Apparate und Instrumente im konventionellen
Sinne, sondern auch Diagnostika und vor allem
Medikamente gehören. Goldstandard der Evaluation unmittelbarer Interventionsfolgen sind
kontrollierte klinische Studien. Die während
der letzten Jahre erstarkte Evidence Based Medicine (EBM) leistet dabei durch systematische
Reviews oder Meta-Analsysen des zu einer
Technik verfügbaren Datenmaterials formale
Selektionshilfe. Die EBM ist in ihrem Problemhorizont allerdings eingeschränkt:
• Zum einen reflektiert sie nur das Leistungsvermögen einer Technik unter optimalen
Studienbedingungen (efficacy), sagt aber
nur wenig über deren Leistungsfähigkeit unter Praxisbedingungen (effectiveness) aus.
• Zum anderen blendet sie eine Vielzahl von
Fragen aus, die zwar mit dem Einsatz medizinischer Technik aufgeworfen, aber im
Rahmen naturwissenschaftlich orientierter
Studiendesigns nicht erfasst werden.
Von daher wird schon seit langem gefordert,
das Aufgabenspektrum der Technikfolgenabschätzung und -bewertung in der Medizin nicht
nur auf die klinischen oder bestenfalls noch
ökonomischen Aspekte zu beschränken, sondern auf gesellschaftlich vermittelte Aspekte
wie psychische, soziale, kulturelle, rechtliche
und ethische Implikationen auszudehnen.
1 Hintergrund
2 Probleme des umfassenden Anspruchs
von HTA
Weltweit zu beobachtende Knappheitsphänomene im Bereich der Gesundheitsversorgung
haben das Interesse an der Bewertung medizinischer Techniken in den letzten Jahren deutlich erhöht. Die Technikbewertung soll zum
einen dazu beitragen, Entscheidungen über den
Einsatz von Techniken im Bereich der Medizin
Das Ergebnis dieser Diskussionen war die
Entwicklung eines Rahmenkonzeptes für ein
Health Technology Assessment (HTA), das sich
als „umfassende und systematische Bewertung
der direkten und indirekten Folgen der Anwendung neuer oder bereits auf dem Markt befind-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 85
TA-KONZEPTE UND -METHODEN
licher Technologien hinsichtlich ihrer physikalischen, biologischen, medizinischen und ökonomischen, aber auch ihrer psychologischen
und sozialen, gesellschaftlichen und ökologischen, juristischen und ethischen Wirkungen
im Rahmen einer strukturierten Analyse“ versteht (Sachverständigenrat 1998, S. 95).
Das HTA hat also gegenüber der EBM einen erheblich erweiterten Anspruch. Dieser ist
gut zu begründen. Viele medizinische, vor
allem aber moderne biomedizinische und genetische Verfahren verfügen nicht nur über eine
hohe Eingriffstiefe, sondern auch ihre Wirkungen sind von großer Reichweite. Sie betreffen
nicht nur das Individuum, sondern auch das
Gesundheitswesen und die Gesellschaft als
Ganzes – möglicherweise für eine lange Zeit.
Beispiele für solche Technologien sind die
Organtransplantation mit dem ihr zugrunde
gelegten Hirntodkonzept, die modernen Genund Fortpflanzungstechnologien und die dadurch aufgeworfenen Fragen nach Menschenbild und Menschenwürde, aber auch Medikamente, die das Verhalten modulieren und/oder
eine Anpassung an Normvorstellungen von
Leistung und Verhalten zum Ziel haben.
Diese Erweiterung der Perspektive über
die unmittelbaren Wirkungen einer Medizintechnologie hinaus erzeugt jedoch verschiedene
Probleme1:
• Zum einen wird die Technikfolgenabschätzung durch die Einbeziehung psychischer
und sozialer Aspekte mit einer Vielzahl von
relativ „weichen“ Ergebnisdimensionen
(outcomes) konfrontiert, die nur schwer zu
erforschen und nicht oder nur schwer zu
quantifizieren sind.
• Zweitens basiert das HTA und seine Verfahren auf Prämissen, Zielsetzungen und
Selektivitäten, die normative Voraussetzungen und Implikationen haben. Dadurch wird
die Trennung von empirischen und normativen Aspekten im HTA-Prozess teilweise
problematisch.
• Drittens bleibt offen, in welcher Weise die
Ergebnisse der Analyse verschiedener Bereiche und Folgendimensionen konzeptionell
miteinander verknüpft und in ein einheitliches Bewertungsschema integriert werden
können. Dieses Problem stellt sich in der
Technikfolgenabschätzung der modernen
Biotechnologie in der Medizin verschärft, da
Seite 86
hier die Bewertungsdimensionen, in denen so
genannte „weiche“ Fakten evaluiert werden,
von besonderer Bedeutung sind.
Um diesen Problemen Rechnung zu tragen,
bedarf es integrierter Bewertungskonzepte, die
nicht nur in der Lage sind, qualitative Ergebnisse systematisch darzustellen, sondern die
auch den Wertbezug empirischer Befunde reflektieren und der Vielfalt und Relativität von
Perspektiven, Orientierungsmustern und Bewertungsmaßstäben gerecht werden.
3 Integrierte Bewertungskonzepte: Multidimensional und perspektivensensitiv
3.1
BioMedical Technology Assessment
Das von uns entwickelte Konzept des BioMedical-Technology Assessment (BMTA)2 versucht,
die Zielvorgabe der Multidimensionalität und
-perspektivität technikinduzierter Folgen ernst
zu nehmen. Entscheidend ist deshalb zunächst,
dass alle relevanten Bewertungsdimensionen
berücksichtigt und gegebenenfalls auch in ihren widersprüchlichen Ergebnissen dokumentiert werden. Dies erfordert, dass die Erkenntnisse über unterschiedliche Dimensionen des
Nutzens biomedizinischer Innovation, über ihre
Risiken, über die unterschiedlichen Arten und
Verteilungsformen der Kosten sowie über die
Einbettungsverhältnisse der untersuchten technischen Artefakte in medizinische und nichtmedizinische Anschlusshandlungen bzw. Systemkontexte in einer systematisierenden Synopse dargestellt werden. Darüber hinaus müssen die nur schwer formalisierbaren „weichen“
Wirkungen konsequenter in die Bewertung
einbezogen und auch in ihrer Perspektivenabhängigkeit und Widersprüchlichkeit wahrgenommen werden. Das Konzept zielt daher vor
allem darauf ab, die Perspektive offen zu legen,
aus der heraus die Kriterien der Bewertung
bestimmt, die jeweils berücksichtigten Faktoren ausgewählt und die methodischen Weichenstellungen und Entscheidungen getroffen
werden. Eine Voraussetzung dafür ist allerdings, dass die Wirkungsdimensionen, die aus
der Perspektive unterschiedlicher Akteure von
unterschiedlicher Relevanz sind, möglichst
vielschichtig und differentiell erfasst werden.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TA-KONZEPTE UND -METHODEN
3.2
Multifaktorenkonzept: Modulare Erfassung und summarische Bewertung
Ein geeigneter Weg, die Vielzahl und Vielfalt
der Bewertungsdimensionen und Einzelfaktoren angemessen zu berücksichtigen, scheint uns
eher in einer summarischen Darstellung der
Ergebnisse zu liegen, als in der Anwendung
formaler Kalküle. Letztere sind zwar in der
Lage, zumindest rechnerisch eindeutige Ergebnisse zu liefern. Allerdings werden sie gerade
deshalb der Komplexität des Gegenstandes
häufig nicht gerecht, da alles, was nicht in das
Raster passt und sich der kriteriengeleiteten
Quantifizierbarkeit entzieht, nicht wahrgenommen oder marginalisiert wird.
Dabei droht natürlich die Gefahr, dass ein
solches Konzept aus den Fugen gerät. Dies ist
einer der Gründe, warum wir eine modulare
Strategie vorschlagen (Feuerstein und Kollek
2002). Die Spezifizierung der Module richtet
sich dabei nach den durch die Anwendung der
Technik erwartbaren Settings und Implikationen. Im Blick auf genetische Tests und Screenings, die unter den neuen biomedizinischen
Techniken eine zentrale Rolle einnehmen,
erscheinen beispielsweise folgende Module
sinnvoll:
Modul 1:
Test- und Beratungssetting
Modul 2:
Medizinische Implikationen
Modul 3:
Psychische und soziale Implikationen
Modul 4:
Ökonomische Implikationen
Modul 5:
Fernwirkungen und Rückkopplungseffekte
Der Vorteil einer solchen Modularisierung ist,
dass die Evaluation und Bewertung der Module
zunächst separat erfolgen kann. Ändert sich im
Zuge der Weiterentwicklung etwas an den
technischen Eigenschaften des jeweiligen Artefakts, oder an den Rahmenbedingungen seiner
Anwendung, ist es nicht notwendig, den ganzen Evaluierungsprozess zu wiederholen.
Vielmehr kann er auf die Re-Evaluierung derjenigen Module beschränkt werden, in denen
entscheidende Veränderungen stattgefunden
haben. Insofern ist ein solches modulares Konzept in der Lage, flexibel auf eine dynamische
Technikentwicklung zu reagieren, ohne dass
dies in jedem Einzelfall eine vollständige NeuEvaluierung erfordern würde.
Um die Befunde, die in den jeweiligen
Modulen erhoben werden, sinnvoll in ein Bewertungskonzept zu integrieren, bedarf es einer
kriteriengeleiteten und vor allem transparenten
Gewichtung der Module. Wie diese im Einzelfall aussehen soll, wäre vorzugsweise zu Beginn des Evaluationsprozesses und ggf. unter
Beteilung relevanter Akteure festzulegen. Die
Ergebnisse der diversen Modulbewertungen
würden dann auf Basis dieser Gewichtung zu
einer Gesamtbewertung des untersuchten Verfahrens oder Produktes verdichtet.
Das modulare Vorgehen hat den weiteren
Vorteil, dass damit nicht nur die separate Evaluierung und Bewertung bestimmter Teilsegmente
einer wissenschaftlich-technischen Entwicklung
ermöglicht wird, sondern dass auch Leistungsund Nebenwirkungsprofile unterschiedlicher
Verfahren miteinander verglichen werden können. Darüber hinaus ermöglicht es weiterhin die
separate Evaluierung alternativer Entwicklungen
und Entwicklungspfade und ihre nachträgliche
Integration in das Gesamtkonzept.
3.3
Perspektivensensitivität des Bewertungskonzeptes
Dies ist vor allem dann sinnvoll, wenn es sich
dabei um relativ neue Technologien handelt,
deren Implementation gerade begonnen hat und
deren Folgenspektrum noch nicht festgelegt ist.
Diese Situation ist charakteristisch für viele der
neuen biomedizinischen Technologien, wie
beispielsweise prädiktive Gentests oder genetische Screenings. Letztere lassen für die perspektivenabhängige Konstruktion des Nutzens
einen allein schon deswegen breiten Raum,
weil zahlreiche Kosten-Nutzen-Faktoren unzureichend erforscht sind und eine oft sehr widersprüchliche Erkenntnislage über Eigenschaften,
Effekte und Nebeneffekte der Technik besteht
(Feuerstein und Kollek 2002, S. 40 f.).
Die Interessen, die verschiedene Akteursgruppen an der Verbreitung genetischer Tests
oder Screenings haben, können ganz unterschiedlich sein. Beispielsweise realisiert sich der
ökonomische Nutzen eines Gentests für Testund Gerätehersteller oder medizinische Speziallabors bereits mit seiner Verbreitung, und zwar
unabhängig von seinem konkreten medizinischen Nutzen. Für die Patienten sind demgegenüber ökonomische Aspekte so lange irrelevant,
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 87
TA-KONZEPTE UND -METHODEN
wie sie sich nicht an der Kostenerstattung beteiligen müssen. Wichtig sind für sie allerdings die
indirekten, psychosozialen Kosten eines genetischen Screenings, die sie selber zu tragen haben.
Aus der Perspektive der Gesundheitspolitik und
der Krankenversicherungsträger stehen wiederum die direkten Kosten- und Folgekosten, teils
aber auch die kostenrelevanten Risiken und der
einsparungsrelevante Nutzen solcher Screenings
im Mittelpunkt des Interesses. Unsere kürzlich
publizierte Studie zur Pharmakogenetik zeigt,
wie unterschiedlich diese Perspektiven sind, und
welchen Einfluss sie auf den Implementationsund Diffusionsprozess einer Medizintechnologie
haben können (Kollek et al. 2004, S. 89 ff.).
Offensichtlich lässt sich aus der Vielzahl
von unterschiedlichen und widersprüchlichen
Perspektiven keine ideelle Metaperspektive
konstruieren, die sämtliche Aspekte des Gegenstandes und seiner Implikationen in sich
vereint. Vor diesem Hintergrund erscheint es
uns notwenig, dass ein Bewertungskonzept
explizit die Möglichkeit bietet, sich auf die
Perspektive einer definierten Akteursgruppe
(z. B. Patienten, Leistungsanbieter) oder eines
relevanten Subsystems (wie z. B. Krankenkassen, Gesundheitssystem) zu beziehen und aus
dieser Perspektive heraus begründete Selektionsentscheidungen hinsichtlich der zu berücksichtigenden Faktoren und der anzuwendenden
Kriterien vorzunehmen.
Das bedeutet nicht, dass damit die bisher
innerhalb der Technikbewertung in der Medizin entwickelten bzw. verwendeten Konzepte
und Methoden obsolet werden. Die EBM wird
auch innerhalb der von uns vorgeschlagenen
Weiterentwicklung des HTA-Konzeptes für die
Evaluierung und Bewertung moderner Biotechnologien in der Medizin ihren Stellenwert
behalten. Sie ist unverzichtbar, wenn es darum
geht, die wissenschaftlich-technischen und
klinischen Charakteristika biomedizinischer
Techniken zu evaluieren. Bei allen Grenzen,
die solche Verfahren haben, ist ein Rückgriff
auf ihre Ergebnisse nicht nur wegen des Aufwandes einer eigenständigen Evaluation kaum
zu umgehen, sondern auch wegen des Mangels
an Alternativen. Dennoch muss der Vieldimensionalität der Effekte moderner biomedizinischer Technologien durch Weiterentwicklung
existierender Evaluations- und Bewertungskonzepte Rechnung getragen werden.
Seite 88
Anmerkungen
1) Kollek und Feuerstein 1998; Heitmann 1998;
Feuerstein, Kollek und Uhlemann 2000; Droste,
Gerhardus und Kollek 2003.
2) Kollek und Feuerstein 1998, Feuerstein, Kollek
und Uhlemann 2000, S.237ff.
Literatur
Droste, S.; Gerhardus, A.; Kollek, R., 2003: Methoden zur Erfassung ethischer Aspekte und gesellschaftlicher Wertvorstellungen in Kurz-HTA-Berichten – eine internationale Bestandsaufnahme.
Köln: Health Technology Assessment. Schriftenreihe des DIMDI
Kollek, R.; Feuerstein, G., 1998: BioMedical Technology Assessment (BMTA). Hamburg: Forschungsschwerpunkt Biotechnik, Gesellschaft und Umwelt
Kollek, R.; Feuerstein, G., Schmedders, M.; van
Aken, J., 2004: Pharmakogenetik: Implikationen für
Patienten und Gesundheitswesen. Anspruch und
Wirklichkeit der ‚individualisierten Medizin’. BadenBaden: Nomos
Heitman, E., 1998: Ethical Issues in Technology
Assessment. Conceptual Categories and Procedural
Considerations. International Journal of Technology
Assessment in Health Care 14 (3), S. 544-566
Feuerstein, G.; Kollek, R., 2002: Ethik von Screening
Rationalitäten. Teil II. Konzeptionelle Probleme und
mögliche Ansatzpunkte einer transparenten Bewertung genetischer Screenings – am Beispiel prädiktiv
probabilistischer
BRCA-Tests.
BMBF-Projekt
01KU9907/7, Endbericht, Hamburg: Forschungsschwerpunkt Biotechnik, Gesellschaft und Umwelt
Feuerstein, G.; Kollek, R.; Uhlemann, T., 2000:
Gentechnik und Krankenversicherung. Neue Leistungsangebote im Gesundheitssystem. BadenBaden: Nomos
Sachverständigenrat für die Konzertierte Aktion im
Gesundheitswesen, 1998: Sondergutachten 1997.
Gesundheitswesen in Deutschland, Band II. BadenBaden: Nomos
Kontakt
Prof. Dr. Regine Kollek
FSP BIOGUM, FG Medizin/Neurowissenschaften
Universität Hamburg
Falkenried 94, 20251 Hamburg
E-Mail: kollek@uni-hamburg.de
«»
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE
ERGEBNISSE VON TAPROJEKTEN – NEUE
TA-PROJEKTE
Biologisch-dialogisch: Risikokommunikation zu Grüner Gentechnik
von Markus Hertlein, Eva Klotmann, Christoph Rohloff, IFOK GmbH – Institut für Organisationskommunikation
Im Projekt „Dialogmanagement Biologische
Sicherheitsforschung“ erarbeitete das Institut für Organisationskommunikation (IFOK)
für das BMBF mit Standortdialogen und Fokusgruppen Empfehlungen zur Risikokommunikation. Zusätzlich erstellte IFOK eine
Studie über kommunikatives Risikomanagement. Im Ergebnis zeigte sich, dass das
Potenzial professioneller Risikokommunikation zu Biologischer Sicherheitsforschung,
aber auch zu anderen potenziellen Risikotechnologien noch nicht voll ausgeschöpft
ist. In den Empfehlungen werden Maßnahmen zur verbesserten Risikokommunikation
vorgeschlagen, die unterschiedliche Risikodimensionen in einen integrierten Risikomanagementansatz mit einbeziehen.
Die kommerziellen Anwendungen aus biotechnologischen Verfahren bleiben in der Öffentlichkeit weiterhin umstritten. Besonders im
Bereich der Grünen Gentechnik sind die Fronten zwischen Befürwortern und Gegnern seit
Jahren verhärtet. Positiven Effekten, zum Beispiel Schädlingsbekämpfung mit weniger Pestiziden oder verbesserte Ernährungssicherheit
durch qualitativ hochwertigere Erträge, stehen
mögliche, noch unbekannte Auswirkungen auf
das ökologische Gleichgewicht oder mögliche
Beeinträchtigungen der Gesundheit von Mensch
und Tier gegenüber. Die Food and Agricultural
Organisation argumentiert, dass sich mit gentechnisch verändertem Reis Hunger und Vitaminmangel in Entwicklungsländern besser
bekämpfen ließen (FAO 2004). Kritiker argumentieren, dass die Industrien der OECD-Welt
lediglich neue Absatzmärkte suchten und verschärfte ökonomische Abhängigkeiten provo-
zierten. Schließlich manifestiert sich der Konflikt auch in den nationalen und internationalen
Wettläufen um Arbeitsplatzsicherung und
Wettbewerbsförderung, die mit den Prinzipien
des Vorsorgeprinzips, der Koexistenz und der
Wahlfreiheit konkurrieren.
Vor diesem Hintergrund begleitet das
Bundesministerium für Bildung und Forschung
(BMBF) schon seit 1987 die Entwicklung der
Grünen Gentechnik in Deutschland mit Maßnahmen zur Biologischen Sicherheitsforschung. Hier sollen vor allem die biologischen
und ökologischen Folgen der Freisetzung gentechnisch veränderter Pflanzen (GVP) wissenschaftlich untersucht und entsprechende Vorschläge u. a. auch zum Monitoring und Risikomanagement von GVPs erarbeitet werden.
Doch auch die Biologische Sicherheitsforschung birgt gesellschaftliches Konfliktpotenzial. Die Freisetzung von GVPs in Feldversuchen
führt immer wieder zu Protestaktionen und auch
Feldzerstörungen. Kritiker der Biologischen
Sicherheitsforschung führen zwei Argumente
ins Feld. Zum einen sei Sicherheitsforschung
nichts anderes als „Akzeptanzforschung“, die
den allgemeinen Einsatz von GVPs vorbereiten
soll. Zum anderen weisen sie auf ein Paradox
hin, das der Biologischen Sicherheitsforschung
innewohnt: Sie provoziert für ihre Forschungsziele genau jene ungewollten Auskreuzungsrisiken, die sie beherrschen will. In geschlossenen
Experimenten ist dies das herkömmliche Verfahren zur Risikoerforschung und -bewertung.
In offenen Naturräumen hingegen lässt sich die
unkontrollierte Auskreuzung mit möglicherweise irreversiblen Folgen nicht mehr ausschließen
(vgl. hierzu allgemein Bechmann, Stehr 2000).
1 Das Projekt Dialogmanagement Biologische Sicherheitsforschung
Dem BMBF-Förderschwerpunkt „Sicherheitsforschung und Monitoring“ lag die Idee zugrunde, einen naturwissenschaftlichen Forschungsverbund, in dem Projekte der Biologischen Sicherheitsforschung gefördert werden, mit einer
Reihe begleitender Projekte zu verknüpfen. Vor
dem Hintergrund der gesellschaftlichen Relevanz Biologischer Sicherheitsforschung sollten
neben den naturwissenschaftlichen Förderprogrammen von Beginn an auch Maßnahmen zum
Dialogmanagement Biologischer Sicherheitsfor-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 89
ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE
schung erprobt werden. Die Aufgabe dieser
begleitenden Projekte bestand unter anderem
darin, die vom BMBF geförderte Forschung in
der Öffentlichkeit bekannter und deren Ergebnisse einer breiten Öffentlichkeit zugänglich zu
machen. IFOK, das Institut für Organisationskommunikation, erforschte hierzu in Kooperation mit dem Institut für Wissenschafts- und
Technikforschung an der Universität Bielefeld
über einen Zeitraum von drei Jahren (April 2001
– Juni 2004) dialogische Maßnahmen zur kommunikativen sowie zur verfahrensrechtlichen
Begleitung Biologischer Sicherheitsforschung
(IFOK 2004).
Die für das Projekt geplanten Standortdialoge zwischen Sicherheitsforschern und Bürgern sollten dabei über einen bloßen Informationsaustausch hinausgehen. Moderierte Gesprächsrunden sollten es ermöglichen, Vorurteile abzubauen, Missverständnisse aus dem
Weg zu räumen und auf beiden Seiten neue
Bewertungsmöglichkeiten
der
jeweiligen
Wahrnehmung der Faktenlage zu ermöglichen.
Im Projektverlauf zeigte sich jedoch, dass
die Sicherheitsforscher und Standortbetreiber
das bekannt werden ihrer Forschungsstandorte
und damit möglicherweise einhergehende
Feldzerstörungen befürchteten. Kritische Anrainer und Gentechnikgegner kritisierten mangelnde Ergebnisoffenheit des Dialogprojekts.
Zudem war das Konzept „Biologische Sicherheitsforschung“ vielen Bürgern nicht geläufig
und die Unterscheidung zwischen forschungsgetriebener und kommerzieller Aussaat blieb
aus der Risikowahrnehmung der Anrainer heraus nicht ausreichend nachvollziehbar.
In einer daraufhin veränderten Projektanordnung wurde nun eine durch das Zufallsprinzip zusammengestellte Fokusgruppe mit Sicherheitsforschern zusammengeführt, die gemeinsam Empfehlungen zur Kommunikation
der Biologischen Sicherheitsforschung erarbeiten sollten. Der Schwerpunkt der Gespräche
verlagerte sich dabei schnell von speziellen
Fragen zur Biologischen Sicherheitsforschung
auf grundsätzlichere Fragen Grüner Gentechnik. Sind gentechnisch veränderte Lebensmittel
noch natürlich? Wo ist der Punkt erreicht, an
dem eine Rückkehr zu konventionellem Anbau
und gentechnikfreien Produkten nicht mehr
möglich ist? Welche Kontrollmöglichkeiten
habe ich als Verbraucher?
Seite 90
Es zeigte sich in der Fokusgruppe deutlich, dass die Teilnehmer in einer moderierten
Diskussion durchaus differenziert, sachlich und
auch gemeinwohlorientiert mit den Sicherheitsforschern argumentieren konnten und wollten.
Der aus den Naturwissenschaften oft zu hörende Vorwurf, dass Laien Expertenwissen nicht
verstünden, konnte somit nicht bestätigt werden. Unsere Beobachtungen zeigten vielmehr,
dass beide Seiten Schwierigkeiten hatten, die
Kommunikationsebene und Rationalität der
jeweils anderen Seite überhaupt anzuerkennen.
Kommunikationsschwierigkeiten waren somit
auf die ungenaue Adressierung der jeweiligen
Risikodimensionen (Sach- und Wissensebene
versus ethische und normative Dimension)
zurückzuführen und weniger auf mangelndes
Sachwissen oder Urteilsvermögen.
2 Lessons learned? Handlungsempfehlungen für Behörden und Unternehmen
In der Auswertung des Projekts und im theoretischen Studienteil interessierte uns daher vor
allem, wie unterschiedliche Risikodimensionen
kommunikativ besser adressiert werden können.
Das mögliche aneinander vorbeireden von Sicherheitsforschern und Bürgern weist zumindest
auf den Verbesserungsbedarf von Risikokommunikation hin (Hampel, Renn 2001).
Theoretisch lassen sich drei derartige Risikodimensionen unterscheiden: Wissenskonflikte, Unsicherheitskonflikte und Wertekonflikte.
Bei den Wissenskonflikten geht es um die Interpretation komplexer sachlicher Zusammenhänge: Kann eine gentechnisch veränderte Pflanze
mit Wildpflanzen auskreuzen? Was passiert,
wenn es zu Hybriden kommt? Bei Unsicherheitskonflikten hingegen geht es um Unsicherheit als Folge von „Nichtwissen“: Wie hoch ist
die Wahrscheinlichkeit, dass sich besonders
angepasste genetisch veränderte Wildpflanzen
evolutiv einen Vorteil verschaffen und sich ungebremst fortpflanzen? Konflikte, bei denen es
um die unterschiedliche moralische oder weltanschauliche Bewertung solcher Fragen geht, sind
Wertekonflikte: Wiegen die Risikopotenziale
irreversibler Auskreuzungen die positive Wirkung auf die Ernährung in der Dritten Welt auf?
Kommunikatives Risikomanagement mit
dieser Zielgenauigkeit und mit antizipierendem
Anspruch steckt jedoch noch in den Kinder-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE
schuhen. Ohne professionelle Dialoggestaltung
besteht bei der Einführung neuer Technologien
immer wieder aufs Neue die Gefahr, dass gesellschaftliche Konfliktpotenziale eskalieren
und sich die ökonomische und ökologische
Chancenauswertung verzögert und verteuert
(Carius, Renn 2003). Basierend auf den Beobachtungen im Projekt „Dialogmanagement
Biologische Sicherheitsforschung“ und dem
theoretischen Studienteil wurde als Empfehlung folgende Leitthese für eine „risikointegrierte Innovationsstrategie“ formuliert:
Risikotechnologien, wie die zahlreichen biotechnologischen Anwendungen, aber auch zunehmend die Nanotechnologie und konvergente Technologien, erfordern
eine professionelle dialogische Begleitung mit gezielten
Kommunikationsmaßnahmen (vgl. Meili 2003). Minimalziel jeder Risikokommunikation sollte dabei die Anbahnung der Fähigkeit zur Risikoakzeptanz sein. Verantwortungsvolle Risikokommunikation bedeutet also, Akzeptanzfähigkeit zu ermöglichen, nicht jedoch die Akzeptanz
selbst herbeizuführen, die der jeweiligen individuellen
Entscheidung vorbehalten bleiben sollte.
Folgende Maßnahmen können dieses Ziel
unterstützen:
- Forschungsförderung neuer Technologien
sollte aktiv gesellschaftspolitisch eingebettet werden,
- relevante Diskursebenen und Konfliktdimensionen sollten identifiziert und jeweils
gezielt mit kommunikativen Maßnahmen
adressiert werden,
- Technologiezyklen sollten für eine erfolgreiche Risikokommunikation vom BMBF,
aber auch von Unternehmen antizipierend
und strategisch genutzt werden.
Voraussetzung für die Einbettung von Forschungsförderung in einen gesellschaftspolitischen Kontext ist, dass politische Akteure entscheidungsvorbereitende Partizipation als demokratische Grundregel aufwerten. Zwar lassen sich die meisten Konfliktfälle durch die
verfassten Regeln der repräsentativen Demokratie kanalisieren. Wenn Regulierer ihre Kanalisierungsfunktion jedoch nicht mehr adressaten-, phasen- und konfliktgerecht wahrnehmen, entwickeln sich möglicherweise diskursive Schieflagen und schwer auflösbare gesellschaftliche Blockaden.
Um dies zu vermeiden, sollten regulative
Entscheidungen bei Risikotechnologien vermehrt durch umfassende und mehrschichtige
Partizipations- und Mediationsprozesse vorbereitet werden. Allerdings dürfen Dialogmaßnahmen nicht Harmonie und Konsens um jeden
Preis bedeuten und bestehende Meinungsunterschiede zerreden oder weichspülen. Kommunikation ist nicht per se gut, sondern sollte –
sofern echte Handlungsfreiräume bestehen –
auch über den Dissens zu einem begründeten
und nachvollziehbaren Sachstand führen. Alleine mit der Anerkennung der Wertewelt des
jeweils anderen durch die streitenden Parteien
ist schon viel gewonnen.
Nur geeignete kommunikative Prozesse
und Methoden können zu einem zeitnahen
gesellschaftlichen Konsens über das jeweils
akzeptable Verhältnis von Chancennutzung
und Risikoakzeptanz Grüner Gentechnik und
anderer Risikotechnologien führen. Grundvoraussetzung für eine derartige konstruktive Konfliktbearbeitung ist die Aufdeckung zugrunde
liegender Strukturen und Dynamiken, die komplex und wertebehaftet sind. Eine deutliche
Schwerpunktverlagerung vom Management
technischer Risikoabschätzungen hin zu den
kommunikativen Aspekten bei der Regulierung
und Implementierung von Risikomanagementprozessen ist in diesem Sinne überfällig.
Auf der Sachebene sollten zunächst mit
Joint Fact Finding-Prozessen Themen identifiziert werden, in denen gesellschaftlicher Konsens oder Dissens besteht oder in Zukunft zu
erwarten ist. Auf der Nutzenebene geht es dann
vor allem um die Untersuchung der unterschiedlichen Interessenlagen. Damit diese
Aushandlungsprozesse nicht in ein Nullsummenspiel münden, in dem der Gewinn des einen den Verlust des anderen bedeutet, sollte
eine Lösung gefunden werden, die allen Beteiligten einen Nutzen beschert (win-win Konstellation). Auf der Ebene der Werte und Normen
ist es wichtig, dass Wertekonflikte sich nicht
mit Sachwissen auflösen lassen. Hier konkurrieren unterschiedliche Weltbilder und Normen
miteinander, die es zu akzeptieren gilt und
deren prinzipielle Gleichrangigkeit in einer
offenen und pluralistischen Gesellschaft Voraussetzung für das respektvolle und friedliche
Miteinander sind (vgl. Abb. 1 nächste Seite).
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 91
ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE
Abb. 1:
Matrix risikointegrierter Innovationsstrategien
Matrix risikointegrierter Innovationsstrategien
TechnologieZyklus
Phase 1:
Zukunftsszenarien
Phase 2:
Innovation
KonfliktDimensionen
Phase 3:
Markteintritt/
Marktdurchdringung
Phase 4:
Exit
Dimension 1:
Wissen
Dimension 2:
Nutzen
HANDLUNGSFELDER
Dimension 3:
Werte
In öffentlichen Diskursen ziehen sich Wissenschaftler jedoch nicht selten auf die ihnen vertraute Sachebene zurück, während Verbraucherschützer und Interessenverbände auf der
Nutzenebene argumentieren. Für die Öffentlichkeit liegt der Schwerpunkt der Diskussion
oft auf der normativ-ethischen Ebene. Um diese Ebenen dialogisch aufeinander zu beziehen,
bedarf es auch struktureller und vor allem verfahrensrechtlicher Veränderungen im wechselseitigen Umgang von Behörden, Unternehmen
und Öffentlichkeit (Münte, Bora 2004).
Für behördliche Entscheider und Regulierer sollte eine angemessene RisikokonfliktAnalyse für das jeweilige Konfliktfeld zumindest die drei Konfliktdimensionen „Komplexität“, „Unsicherheit“ und „Ambiguität“ sowie
die drei entsprechenden Diskursebenen Sach-,
Nutzen- und Werteebene identifizieren. Zudem
sollte bestimmt werden, in welcher Phase sich
der Konflikt befindet, wie er sich vermutlich
weiter entwickeln wird und welches die jeweiligen Konflikttreiber sind, bevor über weitere
Kommunikations- und Dialogmaßnahmen entschieden wird.
Für die Industrie und die anwendungsbezogene Forschung gilt, die Risikodimensionen
in die jeweiligen Technologiezyklen zu integrieren und sie strategisch zu nutzen. So können
auf jeder Diskursebene und in der jeweils geeigneten Phase ausgewählte Instrumente für
klar definierte Akteure und Zielgruppen entwickelt und eingesetzt werden (vgl. Abb. 1).
Seite 92
Literatur
Bechmann, G.; Stehr, N., 2000: Risikokommunikation und die Risiken der Kommunikation wissenschaftlichen Wissens. Zum gesellschaftlichen Umgang mit Nichtwissen. In: GAIA, Bd. 9, Nr. 2,
S. 113-121
Carius, R., Renn, O., 2003: Partizipative Risikokommunikation. Wege zu einer risikomündigen
Gesellschaft. In: Bundesgesundheitsblatt Gesundheitsforschung Gesundheitsschutz. Bd. 46, Nr. 7,
S. 578-585
FAO, 2004: The State of Food and Agriculture
2003-2004. Agricultural Biotechnology: Meeting
the needs of the poor? FAO Report, Rom
Hampel, J.; Renn, O. (Hrsg.), 2001: Gentechnik in
der Öffentlichkeit. Wahrnehmung und Bewertung
einer umstrittenen Technologie. Frankfurt am Main:
Campus
IFOK – Institut für Organisationskommunikation,
2004: Projektbericht „Dialogmanagement Biologische Sicherheitsforschung“ der IFOK GmbH –
Institut für Organisationskommunikation im Auftrag des BMBF. Bensheim
Meili, Chr., 2003: Parallelen zwischen der Gentechnik- und der Nanotechnologie-Debatte. Eskalation
früh verhindern. In: riskBrief. Notizen aus dem
Risiko-Dialog, Nr. 4, Dezember 2003, S. 1-2 (hrsg.
Stiftung Risiko-Dialog, St. Gallen)
Münte, P.; Bora, A., 2004: Strukturprobleme der
Kommunikation zwischen Genehmigungsbehörde
und Bürgern im Verwaltungsverfahren. Rechtspolitische Empfehlungen für das BMBF auf der Grundlage
einer Untersuchung der Kommunikationsstrukturen
im
gentechnikrechtlichen
Anhörungsverfahren.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE
Abschlußbericht im Rahmen des Projektteils „Dialog“ des Projektverbundes „Kommunikationsmanagement in der Biologischen Sicherheitsforschung“ im
BMBF-Förderschwerpunkt
„Sicherheitsforschung
und Monitoring“. Universität Bielefeld: Institut für
Wissenschafts- und Technikforschung (IWT)
Kontakt
Dr. Christoph Rohloff
IFOK GmbH – Institut für Organisationskommunikation
Berliner Ring 89, 64625 Bensheim
Tel.: +49 (0) 62 51 / 84 16 - 958
Fax: +49 (0) 62 51 / 84 16 - 16
E-Mail: christoph.rohloff@ifok.de
Internet: http://www.ifok.de
«»
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 93
REZENSIONEN
REZENSIONEN
Theorien der Technikentwicklung – vom Kopf auf die Füße
gestellt
Aber auf welche Füße? Und auf wie
viele?
U. Dolata: Unternehmen Technik. Akteure,
Interaktionsmuster und strukturelle Kontexte der Technikentwicklung. Berlin:
edition sigma, 2003, ISBN 3-89404-500-0,
Euro 24,90
Rezension von Fritz Gloede, ITAS
1 Fortschritt durch Technik-Theorie?
Fast 10 Jahre sind vergangen, seit Ulrich Dolata seine „Politische Ökonomie der Gentechnik“
vorgelegt hat (Dolata 1996). Deren „Entschleunigung durch demokratische Behutsamkeit“,
wie sie dem Autor damals angeraten schien
(vgl. Gloede 1996), ist offenbar nicht eingetreten. Retardierende Momente ihrer Karriere hat
die Gentechnik allenfalls selbst erzeugt – nicht
zuletzt durch ungehaltene (und wohl auch unhaltbare) Versprechungen.
Dolata hat die Zeit jedoch genutzt, um seine damals oft nur angedeuteten Überlegungen
und Thesen über das „Politikfeld Biotechnologie“ hinaus zu generalisieren und zu vertiefen.
Nicht weniger beansprucht er mit dem 2003
erschienenen Werk „Unternehmen Technik“,
als eine grundsätzliche Auseinandersetzung mit
gängigen Gegenwartstheorien der Technikentwicklung, auch wenn die Gentechnik bei ihm
weiterhin als wichtigste empirische Referenz
und exemplarischer Anwendungsfall fungiert.
Dieser Sachverhalt schlägt sich überdeutlich und – wie ich finde – auch etwas unglücklich nieder, indem das Werk wie einstmals
Deutschland zweigeteilt daherkommt1. Während der erste Hauptteil einen „Theorierahmen
für die Technikanalyse (S.21-142)“ zu entwickeln sucht, widmet sich der zweite Hauptteil
vollständig dem (vom Autor sicherlich am
intensivsten bearbeiteten) Feld der Gentechnikentwicklung (S. 143-303), dies jedoch in der
programmatischen Absicht, die über jenem
Seite 94
lastende „Dizzy Atmosphere“ ein wenig luzider
zu machen, wenn nicht gar zu vertreiben. Obwohl Dolata hier konsequent auf die im ersten
Teil erarbeiteten Erkenntnisse zurückgreift,
muss der dort entfaltete Generalisierungsanspruch darunter leiden, dass das Werk insgesamt nicht mit einer – sozusagen empirisch
gesättigten – Bilanzierung des gewählten Theorierahmens, seiner Stärken und ggf. verbleibenden Schwächen schließt.
Lobend sei demgegenüber hervorgehoben,
dass der Autor seinem Buch „eine kleine Skizze zur Einführung“ vorangestellt hat, die dem
Leser/der Leserin nicht nur die Orientierung im
sperrigen und oft „unfassbar unübersichtlichen“ (S. 239) Gegenstandsbereich erleichtert,
sondern zugleich den Stellenwert der nachfolgenden Argumentationsschritte verdeutlicht.
Diesem Beispiel folgend, möchte ich mich
bei meinem Kommentar auf zwei Aspekte beschränken, die beide bereits eine Rolle in meiner Rezension seiner Arbeit von 1996 gespielt
haben, nämlich
- auf die Frage nach dem Verhältnis von
handlungs- und strukturtheoretischen Konzepten bei einer Theoretisierung der Technikentwicklung (Abschnitt 2), und
- auf die Frage nach den „Totems und Tabus“
bei der konflikthaften Entfaltung der (nationalen wie internationalen) Gentechniknutzung (Gloede 1996, S. 96).
Ein kleines Schlusswort soll meine Bemerkungen dann abschließen.
2 Akteure und Strukturen der Technikentwicklung – oder: Die Quadratur des
Kreises?
Ich hatte damals konstatiert, dass sich in Dolatas Gentechnik-Monografie eine systematisch
entwickelte Antwort auf „grundlegende Fragen
nach dem Verhältnis von strukturellen Zwängen, Handlungsstrategien organisierter Akteure
und sekundären Rationalisierungen sowohl
vermeintlicher Zwänge als auch maßgeblicher
Handlungsmotive“ (Dolata 1996, S. 97) nicht
finden ließe. Soweit sich bereits Widersprüche
zwischen einer strukturtheoretischen und einer
handlungstheoretischen Rekonstruktion der
Gentechnikentwicklung andeuteten, machten
diese sich vor allem geltend im Hinblick auf
Dolatas normatives Plädoyer für jene bereits
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
REZENSIONEN
zitierte „Entschleunigung durch demokratische
Behutsamkeit“.
Das nunmehr vorgelegte Werk geht die
damals nur gestreiften Fragen in der Tat frontal
an. Allerdings antwortet Dolata darauf – man
möge mir die überspitzende Vereinfachung
verzeihen – mit einem entschiedenen „Sowohl
als Auch“.
Er versucht sowohl – und mit guten Gründen – die dominante handlungstheoretische Orientierung auf „strategiefähige“ bzw. „organisierte“ Akteure der Technikentwicklung zu relativeren, als auch die – nur vermeintlich paradoxe –
Kritik an den (ebenfalls handlungstheoretisch
konzeptualisierten) Thesen massiver unternehmerischer Einflussnahme und mangelnden politischen/staatlichen Gestaltungswillens zurückzuweisen. Letztgenannte Kritik beruft sich an
dieser Stelle gern auf ein „System“ administrativer Interessenvermittlung, demgegenüber das
intentionale Handeln einzelner (wenn auch korporativer) Akteure nahezu aussichtslos werde
(vgl. Dolata 2003, S. 298). Freilich führt Dolata
hier selbst eher systemische Referenzen ins
Feld, die nicht so sehr auf die Interessendurchsetzung einzelner Akteure als vielmehr auf die
„strukturelle Ökonomisierung“ politischer Entscheidungsfindung abstellen. Bei der systematischen Betrachtung von „Akteursfigurationen“,
die interagierend für die Technikentwicklung
maßgeblich werden (S. 77 ff.), beharrt der Autor
jedoch darauf, dass klassische handlungstheoretische Kategorien wie Macht, Konkurrenz und
Entscheidung ihre instruktive Bedeutung für die
Analyse behalten. Und bereits in der Einführung
findet sich sein Credo, ein adäquater theoretischer Rahmen der Technikanalyse solle „mit
einem breiten Akteursbegriff arbeiten, der die
zentrale Bedeutung korporativer Akteure betont,
ohne darüber die eigenständige Rolle von
Schlüsselpersonen und nichtorganisierten Kollektiven (...) zu vernachlässigen.“(S. 16 f.).
In der zusammenfassenden Schlussbetrachtung des theoretischen Hauptteils wird noch
deutlicher, wie Dolata die Koexistenz der unterschiedlichen Theorieprogramme verstanden
wissen möchte – als ein, wie ich es interpretiere
– Plädoyer für einen (auch multidisziplinären)
Mehrebenen-Ansatz, der sich sowohl auf die
Interaktionszusammenhänge von Akteuren als
auch auf die diese Zusammenhänge rahmenden
strukturellen und systemischen Randbedingun-
gen (Innovations- und Politiksysteme, ökonomische Strukturen, Techniktypen etc.) richtet.
So weit es ihm also darum geht, ein möglichst weites und heuristisch nützliches Netz zur
Beobachtung und Analyse von Technikentwicklungen aufzuspannen, lässt sich aus meiner Perspektive dagegen wenig einwenden. Für eine
solche Deutung spricht sicher nicht zuletzt auch
Dolatas Eigenanspruch, sein theoretischer Rahmen solle „nicht mit dem Anspruch einer allgemeinen und hermetisch geschlossenen Techniktheorie daherkommen, sondern praxisrelevant
sein.“(S. 17) (obwohl sich das letztgenannte
Wort für einen auf Konkretisierung bedachten
Analytiker eigentlich verbieten sollte).
Gleichwohl möchte ich daran erinnern,
dass die unterschiedlichen Implikationen jener
Theorieprogramme, die Dolata mit seiner „integrativen Perspektive“ unter einem Dach vereinen möchte (S. 83 ff.), von Fall zu Fall in
Widerspruch zueinander geraten können (vgl.
Gloede 1996). Nicht richtig erscheint es mir
jedenfalls, strukturtheoretische Konzepte in
einem Atemzug mit „deterministischen Vorstellungen“ zu nennen (S. 84). Ebenso kann –
etwa mit Referenz auf den Begriff der Kontingenz – auch das Gegenteil zutreffen. So weit
ich es sehen kann, lädt sich Dolata letztlich
(und eher verdeckt) doch den Anspruch einer
„geschlossenen“ Theorie der Technik auf, in
der alle nur denkbaren Vermittlungen realisiert
sind – ohne sich an dieser Stelle seiner Argumentation durch eine ‚konstruktivistische’
Selbstreflexion zu entlasten. Statt also die
durchaus unterschiedlichen Erkenntnisinteressen und Leistungsansprüche der zusammengeführten Theorieprogramme zu berücksichtigen,
rezipiert er sie eher ontologisch – als konkurrierende bzw. komplementäre Beschreibungen
der einen, der „wirklichen“ Welt.
Trotz – oder gerade wegen – der hier nach
wie vor geäußerten Bedenken möchte ich es
abschließend nicht versäumen, meinem Vergnügen an seiner Auseinandersetzung mit der
ubiquitären „Netzwerk“-Metapher (S. 35 ff.)
Ausdruck zu verleihen. Die NetzwerkKategorie scheint ja wie eine rosa getönte Brille zu wirken – wer sie trägt, sieht die Welt
durchweg rosa eingefärbt. Wohin das Auge
auch blickt, entdeckt es nun Netzwerke – in der
Politik, im Innovationssystem, in der Wirtschaft, in nachbarschaftlichen Kommunikati-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 95
REZENSIONEN
onsbeziehungen und so weiter und so fort. Dolata macht gegen diesen soziologischen Hype
drei Einwände geltend (S. 43 f.), die er im Weiteren dann noch ausbaut und präzisiert:
- Netzwerkartige Kommunikations- und Kooperationsbeziehungen stellen nur eine
Teilmenge der tatsächlich anzutreffenden
Kooperationsformen dar. Zudem bedürfte
auch der gemeinte Typ einer weitergehenden Differenzierung.
- Netzwerkartige Kooperationsbeziehungen
unterliegen selbst einer – nicht zuletzt durch
Interessendifferenzen und Machtasymmetrien bedingten – Dynamik und müssen daher
grundsätzlich als temporär und labil gelten.
- Überhaupt sind solche speziellen Kooperationsbeziehungen in der Regel in einen größeren Rahmen weiterhin wirksamer kompetetiver Interaktionsmuster und Handlungsimperative eingebettet – eine Erkenntnis,
die nicht nur die bereits angesprochene Dynamik berührt, sondern auch vorschnell generalisierenden Idyllisierungen der Verhältnisse vorbeugt2.
Diese und weitere erfrischende Auseinandersetzungen mit gängigen techniksoziologischen
Konzepten allein machen Dolatas Buch trotz
einiger Bedenken im Grundsätzlichen m. E.
ausgesprochen lesenswert.
3 „Dizzy Atmosphere“ oder: Neues zur
Gentechnik?
Dolata selbst eröffnet dem Leser des 2. Hauptteils zwei Möglichkeiten der Lektüre (S. 153 f.).
Er könne
- zum einen als Fallstudie zur sozioökonomischen Formierung der Neuen Biotechnologie gelesen werden, welche an seine „Politische Ökonomie der Gentechnik“ von 1996
anknüpft, allerdings mit einem weniger deskriptiven als vielmehr theoriegeleiteten
Anspruch;
- zum andern aber auch als Weiterführung
des theoretischen Hauptteils, dessen Themen am konkreten Fall „weitergesponnen“(?) und vertieft würden.
Jedenfalls ist die Darstellung durch drei Kapitel
strukturiert, deren erstes sich der „Topographie
eines paradigmatisch neuen Technikfelds“
widmet und dementsprechend eher strukturthe-
Seite 96
oretische Beobachtungen anstellt, während sich
das zweite Kapitel unter dem Titel „Fluide
Figurationen“ den Akteuren und Interaktionsmustern im Feld zuwendet. Das dritte Kapitel
schließlich analysiert die Neue Biotechnologie
explizit als Politikfeld unter dem viel sagenden
Heading „Korporatismus plus“.
Ohne an dieser Stelle auf die vielfältigen,
sowohl theoretisch als auch empirisch reichhaltigen Ausführungen des 2. Teils näher eingehen zu können, möchte ich mich um des historischen Bogens willen wiederum auf die Fragen beziehen, die sich mir bei der Lektüre von
Dolatas Buch von 1996 gestellt hatten. Entwickelt sich die Gentechnik tatsächlich zu der
von ihren Befürwortern gern beschworenen
„Schlüsseltechnologie des 21. Jahrhunderts“?
Wie steht es mit den Potenzialen einer an „Bedarfsorientierung, Risikominimierung, Optionenvermehrung, Demokratisierung“ orientierten staatlichen Technologiepolitik oder jenen
auf „Entschleunigung“ und „Behutsamkeit“
gerichteten sozialen Gegenbewegungen? (vgl.
Gloede 1996, S. 95 f.). Neue Antworten auf
alte Fragen verspricht am ehesten das dem
Politikfeld gewidmete 3. Kapitel.
Die den beiden ersten Entwicklungsphasen
der Biotechnologie seit Mitte der 90er Jahre
(also nach Abschluss von Dolatas „Politischer
Ökonomie“) folgende dritte Phase wird nun
gekennzeichnet als „standortorientierte Förderung und Korporatismus plus“ (S. 274 f.), die im
Wesentlichen auf die staatlich gestützte Entwicklung international bedeutsamer Forschung
und international konkurrenzfähiger Industrie
gerichtet ist. Eine breite öffentliche Auseinandersetzung über die dabei leitenden Ziele staatlicher Biotechnologiepolitik findet (abgesehen
von einzelnen Problemfeldern) kaum noch statt.
Vielmehr werden die staatlicherseits zu ergreifenden Maßnahmen in korporativ besetzten
Gremien und Kommissionen maßgeblich vorberaten und vorverhandelt – „gentechnikkritische
Persönlichkeiten oder Organisationen (...) spielen hier keinerlei Rolle.“ (S. 277). So weit im
Westen nichts Neues, könnte man sagen, obwohl sicher nicht davon gesprochen werden
kann, dass die mittlerweile in Subdiskurse ausdifferenzierten Kontroversen um spezifische
Gentechniknutzungen bereits beendet wären.
Für den Bereich der „grünen“ Gentechnik haben
sie vielmehr für hinreichend Irritation gesorgt,
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
REZENSIONEN
um zu politischen wie industriellen Kurskorrekturen Anlass zu geben (S. 282).
Von einer „Entschleunigung“ der Entwicklung kann vor diesem Hintergrund gleichwohl nicht die Rede sein. Auch die Rolle des
Staates in diesem Politikfeld sieht Dolata meinem Eindruck nach inzwischen erheblich skeptischer. Wiewohl „aktiv mitgestaltende Instanz“, sei er doch eng gezogenen „strukturellen Grenzen der Handlungs- und Gestaltungsspielräume“ unterworfen, wobei die Spezifika
der Gentechnik als Querschnittstechnologie
eine maßgebliche Rolle spielten (S. 301).
Auch wenn Dolata selbst noch für die
weitgehend subsidiäre Rolle staatlicher Biotechnologiepolitik deren Legitimationsbedarf
fortbestehen sieht und ihr kein Entkommen aus
den gesellschaftlichen Debatten attestieren
kann (S. 303), bleiben nach dem langen Durchgang durch die Materie aus meiner Sicht zwei
Fragen offen:
- Inwieweit ist die behauptete Begrenzung
staatlicher Interventions- und Gestaltungsmöglichkeiten durch die Akzeptanz und
Übernahme ökonomischer (oft neoliberaler)
Prämissen geprägt? Über weite Strecken
scheint sich Dolata trotz seines kritischen
Impetus solche Prämissen selbst zu eigen zu
machen. Der Bereich staatlicher Förderung
von so genannten Umwelttechnologien zeigt
demgegenüber womöglich, dass es nach wie
vor Alternativen nationaler Technikpolitiken im Horizont unterschiedlicher Spezialisierungsmuster geben könnte, die sich sowohl politisch gut legitimieren lassen als
auch ökonomisch und wissenschaftlichtechnisch „anschlussfähig“ (d. h. kompatibel mit den herrschenden ökonomischen
Strukturen) bleiben. Mutatis mutandis gilt
dies umgekehrt für den in Deutschland vorläufig vollzogenen Ausstieg aus der Atomenergienutzung, die ihren Befürwortern und
Betreibern über lange Jahre – gerade auch
im Licht der internationalen Situation – als
völlig unvorstellbar erschien. Schließlich
indizieren die ehemals heftigen und sich
neuerdings offenbar wiederbelebenden
Kontroversen um eine (nationale bzw. europäische) Gentechnik-Regulierung mit Blick
auf den „Standortwettbewerb“ ein nach wie
vor virulentes Interventionspotenzial.
- Die erste Frage verweist zugleich auf eine
weitere. Wenn es richtig ist, dass die Neue
Biotechnologie nach wie vor keine „reife
Technik“ ist, sondern eine Querschnittstechnologie, die sich durch „enorme Entwicklungsdynamiken, große Unsicherheiten und
oft noch kaum antizipierbare Nutzungsmöglichkeiten“ auszeichnet, wie Dolata schreibt
(S. 301; vgl. auch die von ihm präsentierten
Umsatz- und Unternehmensstatistiken, S.
175 ff.), warum macht sich die staatliche
Technikpolitik deren (nicht unbedingt nur
monetär) massive Förderung dann zu einem
ihrer vornehmsten Anliegen? Eine Antwort
auf diese Frage habe ich bei der Lektüre seines neuen Buchs noch weniger gefunden als
bei seiner „Politischen Ökonomie“.
Es scheint mir daher an der Zeit, dass eine systematische – und im Hinblick auf konkurrierende Problemlösungen vergleichende – Evaluation bisheriger praktischer Erfolge und Misserfolge der Gentechniknutzung in ihren verschiedenen Anwendungsfeldern durchgeführt wird,
die zugleich eine etwas genauere Einschätzung
ihrer weiteren Potenziale erlauben würde. (Man
erinnere sich z. B. daran, wie still es um die vor
wenigen Jahren noch hochgepriesene Entwicklung der Gentherapie geworden ist). Denn
selbst die verbreitete Diagnose einer „unreifen“
Technik enthält ja bereits die implizite Gewissheit auf deren künftige Durchbrüche. Demgegenüber hat die Gegen-Diagnose eines „wishful thinking“ einstweilen mindestens genauso
viel Charme, denke ich.
4 Abruptes Ende – oder: weiterer Forschungsbedarf?
Dolatas neues Werk hat zweifellos mehr Licht
in die nahezu ‚unfassbare Unübersichtlichkeit’
der Technikanalysen gebracht, auch wenn dabei
zwangsläufig nicht nur dunkle Winkel verbleiben, sondern der spezielle Suchkegel seines
Theorierahmens eigene Schatten wirft. Interessant wären sicherlich weitere Fallstudien zu
anderen Technologiefeldern, die sich der hier
entwickelten Analytik und Heuristik bedienen.
Dolata muss es hier mit einigen knappen Andeutungen (S. 95 ff.) sein Bewenden haben lassen.
Interessant wäre es m. E. aber auch, die
grundlegenden Triebkräfte und Rahmenbedingungen für unterschiedliche Technikentwick-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 97
REZENSIONEN
lungen komplementär unter stärker ökonomischem Aspekt zu rekonstruieren, um der – einem alteuropäischen Postulat folgend – vermutlichen Doppelnatur von Innovationen als
Schaffung neuer Gebrauchswerte wie neuer
Verwertungsmöglichkeiten vor dem Hintergrund der sichtbar werdenden Probleme einer
globalisierten kapitalistischen Ökonomie Rechnung zu tragen.
Anmerkungen
1) Inwieweit die Zweiteilung des Buchs auch ursächlich auf die unterschiedlichen geografischen
Orte seiner Entstehung (S. 18) zurückgeht, muss
als Frage offen bleiben.
2) Meines Wissens haben ähnliche Einsichten
bereits vor vielen Jahren auch die damals in der
Betriebswirtschaftslehre gängige Hypertrophierung „strategischer Allianzen“ zwischen Unternehmen in die Ernüchterung geleitet.
Literatur
Dolata, U., 1996: Politische Ökonomie der Gentechnik. Konzernstrategien, Forschungsprogramme,
Technologiewettläufe. Berlin: edition sigma
Gloede, F., 1996: Entschleunigung durch „demokratische Behutsamkeit“? Zur Kritik der „Politischen Ökonomie der Gentechnik“ von Dolata. In:
TA-Datenbank-Nachrichten, Nr. 2, 5. Jg., Juli 1996,
S.
95-99;
http://www.itas.fzk.de/deu/TADN/
TADN0796/diskus.htm
»
U. Albertshauser, N. Malanowski: „Innovations- und Technikanalyse im Management – Perspektiven für die strategische Unternehmensführung“. Frankfurt
a. M., New York: Campus Verlag, 2004,
164 S., ISBN-3-593-37477-3, Euro 26,90
Rezension von Otto F. Bode, Bundesministerium für Bildung und Forschung, Berlin
Shareholder und Stakeholder fordern von den
Unternehmen zunehmend mehr Verantwortlichkeit, Partizipation und Nachhaltigkeit. Dies verlangt einen Wandel im Managementverständnis
und den Einsatz neuer, innovativer Instrumentarien. Die Innovations- und Technikanalyse
Seite 98
(ITA), wie sie das Bundesministerium für Bildung und Forschung (BMBF) versteht, kann
hier als ein Instrument gesehen werden, das sich
an den Schnittstellen zwischen Wissenschaft,
Wirtschaft und Politik bewährt. Als Instrument
strategischer Unternehmensführung ermöglicht
sie den Unternehmen
• effektiver und systematischer als bisher die
Chancen sich abzeichnender Technologien
zu erkennen und in marktfähige Produkte
umzusetzen
• frühzeitig potenzielle Risiken zu antizipieren und durch geeignete Gegenmaßnahmen
möglichst zu vermeiden
• den Bedürfnissen ihrer unterschiedlichsten
Anspruchsgruppen durch eine systematische
Kommunikation und Partizipation gerecht
zu werden.
Der vorliegende Band stellt sich die Aufgabe,
im Rahmen von Fallbeispielen aus der Schweiz,
den Niederlanden und Dänemark die Rolle und
den Nutzen der Innovations- und Technikanalyse nachzuzeichnen. Ulrich Albertshauser und
Norbert Malanowski, beide tätig in der Zukünftige Technologien Consulting der VDI TZ
GmbH, Düsseldorf, geht es vor allem darum,
innovative Trends der Nutzung von ITA in der
Wirtschaft zu beleuchten und „die Erfahrungen
europäischer Nachbarländer für Deutschland
nutzbar zu machen“ (S. 15).
In Teil A der Studie werden vor allem die
Position von ITA in dem „Dreieck“ von Wirtschaft, Wissenschaft und Politik und die damit
verbundenen dreifachen Systembezüge ausführlich dargestellt1 Dies ist für den weiteren Verlauf der Argumentation wichtig, weil diese
Sichtweise in der gesamten Studie konsequent
„durchgehalten“ wird. Gleichwohl wird das
ITA-Konzept des BMBF2 nicht kopiert, sondern
für den Unternehmenssektor nutzbar gemacht,
indem es die systemtheoretische Grundposition,
zwischen den Systemen zu agieren, beibehält,
diese aber auf die Unternehmen wendet, während sich das BMBF-Konzept auf Politik bezieht. Mit anderen Worten: Wo das BMBFKonzept nach den Erkenntnissen und deren
Auswirkungen für das Politiksystem und die
„politischen Intermediäre“ (konkret das Ministerium) fragt, wendet die Studie dieselbe Systemkonstellation (das Dreieck zwischen Wirtschaft,
Wissenschaft und Politik) im Innovationspro-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
REZENSIONEN
zess auf das Wirtschaftssystem und prüft die
Konsequenzen für die Unternehmen. Am Ende
steht ein eigenständiges Beobachtungskonzept,
das sowohl die Tradition der Forschung des
Düsseldorfer VDI Technologiezentrums (Technikfolgenabschätzung, Technologiefrüherkennung, Foresight, ITA) als auch das BMBFKonzept zur ITA aufzunehmen versteht.
Seiner Bewährungsprobe stellt sich der
Band, wenn er die entwickelte theoretische
Sichtweise auf die Aspekte Nachhaltigkeit und
Stakeholder-Dialoge im Rahmen von ITA (S. 33
ff.) anwendet. Die Forderung nach intragenerativer Gerechtigkeit im Rahmen der Nachhaltigkeit verlangt die aktive Auseinandersetzung mit
den Ansprüchen der unterschiedlichsten gesellschaftlichen Anspruchsgruppen eines Unternehmens durch direkten Dialog. Gerade die
partizipative ITA beschäftigt sich mit diesem
Anliegen und versucht, durch Beteiligung von
Bürgern und Interessengruppen Kompromisse
oder Konsens bei Konflikten zwischen Unternehmensinteressen und Stakeholder-Ansprüchen
zu finden. Dabei sollen zumindest die Wissensund Wertebasis abgestimmt und die Legitimation von Entscheidungen erhöht werden.
Im Teil B des Buches finden sich die Fallstudien zu Beispielen aus der Schweiz, den Niederlanden und Dänemark. In Bezug auf die
Schweiz ist besonders bemerkenswert, dass ITA
dort erst 1991 und damit später als beispielsweise in Deutschland eingeführt worden ist, aber
von der Schweiz heute wichtige Impulse für die
Weiterentwicklung und Verankerung von ITA
in der strategischen Unternehmensführung ausgehen. Ferner wird verdeutlicht, dass ein unternehmerisches Engagement in den untersuchten
Teilbereichen von ITA-Netzwerken im Bereich
der Nachhaltigkeit und das „PubliForum“ als
Sonderform der Stakeholder-Dialoge zu einer
ganzen Reihe von Vorteilen für ein Unternehmen führt, die für die Weiterentwicklung von
ITA in Deutschland als wichtige Anreize genutzt werden können (S. 59).
In den Niederlanden besteht demgegenüber eine lange Tradition der Nutzung von
Instrumenten aus dem Bereich der Innovationsund Technikanalyse, die mit der Fokussierung
partizipativer Elemente und dem Aufkommen
des Konzepts der Nachhaltigkeit neue Impulse
erhalten hat. Entsprechend vielschichtig und
tief greifend ist die Verankerung von ITA in
den Unternehmen. So werden gerade die Möglichkeiten von Netzwerken und StakeholderDialogen von den Unternehmen intensiv genutzt (S. 87).
In Dänemark ist die Entwicklung von ITA
geprägt von einer Polarisierung der Entwicklung öffentlicher ITA einerseits und unternehmensbezogener ITA andererseits. In dieser
Hinsicht besteht eine bemerkenswerte Übereinstimmung der dänischen und deutschen Entwicklung. Die Auseinandersetzung mit ITA
findet in Dänemark auf einer außergewöhnlich
breiten Basis statt. Neben verschiedensten Ministerien wie beispielsweise dem Forschungsministerium, dem Umwelt- und auch dem Bildungsministerium, zahlreichen Universitäten
und Forschungseinrichtungen engagieren sich
nicht nur Verbände und andere Interessenvertretungen der privaten Wirtschaft, sondern auch
Verbraucherverbände, Umweltverbände und
Gewerkschaften. Diese flächendeckende Beteiligung spiegelt nicht zuletzt die historische
Bedeutung politischer Partizipation in der dänischen Gesellschaft wider (S. 105).
In Teil C der Studie werden schließlich –
neben einer vergleichenden Analyse – zahlreiche praxisnahe Handlungsoptionen (S. 119 ff.)
zur erfolgreichen Umsetzung der Innovationsund Technikanalyse innerhalb eines Netzwerks
aus Unternehmen, Politik und Wissenschaft
jeweils für die einzelnen Akteure abgeleitet.
Abgerundet wird der Band durch kommentierende Beiträge von Karlheinz Haag (Deutsche
Lufthansa AG), Astrid Zwick (Allianz Zentrum
für Technik) und Utz Schäffer (European Business School) in Teil D, die einerseits den Praxisbezug der ermittelten Ergebnisse reflektieren
und anderseits zukünftige Fragen an Forschung
und Praxis skizzieren. Es wäre sehr wünschenswert, wenn die Erfahrungen des Auslandes und
die daraus entwickelten Handlungsoptionen für
Deutschland in gemeinsamen Anstrengungen
von Politik, Wirtschaft und Wissenschaft eine
hinreichende Nutzung fänden – im rauen Klima
des internationalen Wettbewerbs eine große
Chance zur Stärkung des Standortes.
Insgesamt bietet die Studie den an TA und
ITA interessierten Leserinnen und Lesern eine
lohnenswerte Lektüre, die durchaus zu kontroversen Diskussionen Anlass geben kann:
• Wirtschaftspraktiker dürften über den Ausgangspunkt eines dreifachen Systembezugs
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 99
REZENSIONEN
„stolpern“, zumindest, wenn sie der neoklassischen Ökonomie anhängen.
• Die „traditionelle“ TA kann die starke Orientierung an den Unternehmensinteressen
und die Abkehr von der reinen politischen
Beratungsfunktion beklagen, die in der Studie im Mittelpunkt stehen.
• Vertreter der „reinen“ (soziologischen) Systemtheorie werden den Versuch der Anwendung auf einer Akteursebene (und damit
die Verzerrung der soziologischen Systemtheorie) kritisieren können.
Ihnen allen bietet der Band aber Anschlussfähigkeit und eine Vielzahl von Denkanstößen,
die mit praktischen Fällen verknüpft sind.
Anmerkungen
1) Eine kontroverse und anregende Diskussion zu
dieser Thematik findet sich zum einen nach einem „Seed-Artikel“ von Malanowski et al. in
der vorliegenden Zeitschrift (Heft 2/2003) im
Heft 3-4/2003. Zum anderen wurde eine Diskussion zu Aspekten der partizipativen ITA mit
dem Sonderheft 1 der Zeitschrift Development
& Perspectives im Winter 2003 gestartet.
2) Otto F. Bode: Die ITA der Gesellschaft – Praxisbeobachtungen zur Innovations- und Technikanalyse auf der Grundlage der Theorie sozialer Systeme. In: Development & Perspectives,
No. 2, 2002, S. 36-68.
»
Wissenschaftsbewertung als
integraler Bestandteil wissenschaftlicher Arbeit
W. Bender, J.C. Schmidt (Hrsg.): Zukunftsorientierte Wissenschaft. Prospektive Wissenschafts- und Technikbewertung. Münster: agenda Verlag, 2003
(Darmstädter interdisziplinäre Beiträge),
230 S., ISBN 3-8968-8199-X, 25,00 Euro
Rezension von Frank Vogelsang,
Ev. Akademie im Rheinland
Seit einigen Jahren ist es zumindest in der Wissenschaftstheorie kaum noch bestritten, dass
sich Wissenschaft als Prozess der Erkenntniser-
Seite 100
weiterung nicht hermetisch den Wertorientierungen verschließen kann. Bei den Vertretern
der Einzelwissenschaften und im öffentlichen
Diskurs dominiert aber nach wie vor eher ein
Wissenschaftsbild, das trotz aller Diskussionen
an dem alten überkommenen Modell von Wissenschaft festhält. Diesem hartnäckig sich haltenden Verständnis von Wissenschaft wollen
sich die Autoren des neu erschienenen Sammelbandes „Zukunftsorientierte Wissenschaft“ entgegenstellen. Der vorliegende Sammelband
bleibt dabei nicht allein auf der Ebene einer
metawissenschaftlichen Diskussion, sondern
versucht, das Konzept eines erweiterten Wissenschaftsbildes mit konkreten einzelwissenschaftlichen Fragestellungen in Beziehung zu setzen.
Die Herausgeber stellen zu Beginn eine
doppelte normative Wende in den Wissenschaften fest: Da ist erstens die innerwissenschaftliche Infragestellung eines Wissenschaftsverständnisses, das sich allein auf objektive Sachaussagen gründen will: wissenschaftliche Aussagen sind bei näherem Hinsehen immer wertdurchdrungen. Der gesellschaftliche Horizont ist
der Schlüssel, um die zweite normative Wende
zu verstehen. Wissenschaft kann auch nicht
mehr sinnvoll von der Technik als einer alle
gesellschaftlichen Bereiche durchdringenden
Größe getrennt werden, Wissenschaft und
Technik sind zwei Seiten einer Sache. Dieser
Erkenntnis folgend unterscheiden viele Beiträge
des Sammelbandes auch nicht mehr strikt zwischen Wissenschaft und Technik. Die Beiträge
des Bandes lassen sich entsprechend dem Konzept in zwei Gruppen aufteilen, in eine solche,
die eher metawissenschaftliche Beträge umfasst,
und in eine solche, die aus fachwissenschaftlichen Perspektiven das Thema aufbereitet.
Auf einige Beiträge möchte ich kurz eingehen. Der konzeptionelle Vorschlag von Gerhard
Gamm besteht darin, Technik nicht als Artefakt
oder Instrument oder als eine spezifische Handlungsform zu deuten, sondern viel umfassender
als Medium zu beschreiben. Ein Medium ist
zum einen ubiquitär, es lässt sich nicht einem
bestimmten, begrenzten Raum zuordnen, zum
anderen ist es aber auch zugleich einem gestaltenden Zugriff entzogen. Der so entstehende
Zusammenhang von Wissen und Nichtwissen
schlägt sich in der Bedeutung des Risikobegriffs
nieder: Die Grenze des Nichtwissens wird im
Zuge der Ausweitung des Wissens als Risiko
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
REZENSIONEN
bewusst. Die Tendenz, die Gamm für die moderne Gesellschaft diagnostiziert, ist die, dass
alle historischen Transzendenzerfahrungen, also
alle gesellschaftsexternen Einflüsse, nun gesellschaftsintern als Risiko reformuliert werden. Mit
seinem Beitrag weist Gamm also auch auf die
Grenzen einer prospektiven Wissenschaftsbewertung: Es könne nicht darum gehen, alle Risiken einem vollständigen Kalkül unterwerfen zu
wollen. Allerdings ist die Risikoanalyse in einem bescheideneren Rahmen doch zu aufklärenden Hilfestellungen in der Lage, was in diesem Text ein wenig unterbetont bleibt. Bedenkenswert ist die Diagnose von Gamm, dass es in
unserer Gesellschaft einen Zug zur Aufrechnung
aller Transzendenzerfahrungen in immanente
Risikokalküle gibt.
Wolfgang Liebert knüpft in seinem Beitrag
an die Diskussion um die Wertfreiheit oder
Wertbindung von Wissenschaft an. In 10 Thesen
zeichnet Liebert die Diskussion in den wichtigsten Stationen seit dem Werturteilstreit um Max
Weber nach und plädiert für ein umfassenderes
Wissenschaftsverständnis, das nicht einer objektivistischen Selbstinterpretation aufsitzen darf.
Dabei unterscheidet Liebert zwischen einer
schwachen und einer starken Form der Wertfreiheitsthese. Die schwache Form fordert ein
vorurteilsfreies wissenschaftliches Vorgehen,
also auch die Hinterfragung aller vorgegebenen
Werte, die starke Form will alle wertenden Urteile aus der Wissenschaft heraushalten. Der
ersten These kann schwerlich widersprochen
werden, wenn denn Wissenschaft ein offenes
Ringen um die bessere Erkenntnis sein soll.
Wenn sich die Wissenschaft der Wertproblematik offensiv und selbstkritisch stellen soll, dann
muss andererseits die starke Form der Wertfreiheitsthese verworfen werden. Deshalb ist die
Vorstellung, Wissenschaft erziele mit ihren
Bemühungen „objektive“ Ergebnisse, unhaltbar
und kann, so der Verdacht von Liebert, eigentlich nur dazu benutzt werden, die Wissenschaft
gegenüber unliebsamen ethischen oder gesellschaftlichen Ansprüchen zu immunisieren.
Paul Gottlob Layer weist in seinem Beitrag
auf untergründige Entwicklungen in den herrschenden Erkenntnisparadigmen der Wissenschaften hin, die für das Selbstverständnis der
Wissenschaft erhebliche Bedeutung haben können. Dies führt er am Beispiel der Molekularbiologie vor, deren Paradigma der bausteinähnli-
chen Grundstruktur der lebendigen Natur die
Biologie in ihrem Selbstverständnis massiv verändert hat. Moderne Biowissenschaftler werden
so zu Biomedizinern, da die Interessen in der
Humanmedizin um ein Vielfaches größer als in
anderen Biologiebereichen sind. Mit den Interessen wachsen aber auch – so die Gefahr, die
Layer diagnostiziert – die Verflechtungen mit
den anderen gesellschaftlichen Systemen.
Jan C. Schmidt gibt in seinem Beitrag einen Überblick über die verschiedenen Konzeptionen des Technikbegriffs und diskutiert sie
unter der Leitfrage der Gestaltbarkeit von Technik. Hier unterscheidet er sich in der Akzentuierung seines Interesses deutlich von dem Beitrag
von Gerhard Gamm. Das gesuchte Konzept von
Technik muss einerseits gestaltungsoffen sein,
darf andererseits aber auch nicht der Suggestion
Raum geben, alles Technische sei auf einfache
Weise beherrschbar. Die Technik muss sich in
dem gesuchten Konzept als zugleich gestaltbar
und widerständig gegenüber Gestaltungsoptionen darstellen lassen. Es ist deutlich, dass sich
hier sehr fundamentale Beschreibungen (anthropologische Notwendigkeit, Medium) nicht für
die Frage nach Gestaltbarkeit eignen, aber auch
zu einfache Beschreibungen (Instrument) sind
wenig tauglich. Am ehesten sieht der Autor das
Anforderungskriterium bei dem Entwurf von
Günther Ropohl (Technik als soziotechnisches
System) gegeben.
Setzt man mit diesem analytischen Ergebnis die Gestaltbarkeit von Technik (und damit
wohl auch von Wissenschaft) voraus, so fragt es
sich, welche Methode zur Anwendung kommen
soll, um die Gestaltung in die Tat umzusetzen.
Hier nun bietet Wolfgang Bender einen Überblick über einige Wege ethischer Urteilsbildung
und ihre Umsetzung in praktische Felder. Ethische Urteilsbildungen müssen in einem Verfahren konkretisiert werden. Bender erläutert dann
die Verfahren, die in der praktischen Arbeit von
IANUS, der Interdisziplinären Arbeitsgruppe
Naturwissenschaft, Technik und Sicherheit an
der Technischen Hochschule Darmstadt, zur
Anwendung kommen und führt dies für zwei
Technikfelder, die Atomtechnik und die Biotechnologien, genauer aus.
Weitere Beiträge des Bandes widmen sich
eingehender den Problemen der einzelnen Forschungsfelder. Eine Vermutung wird durch die
Lektüre der unterschiedlichen Forschungs-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 101
REZENSIONEN
schwerpunkte gestärkt, nämlich die, dass die
metawissenschaftliche Erkenntnis der Wichtigkeit der Implementierung wertorientierter Reflexion in dem wissenschaftlichen Betrieb nicht
einfach schematisch in den einzelnen Bereichen umgesetzt werden kann. Die Forschungsfelder unterscheiden sich in erheblichem Maße
bezüglich ihrer politisch-ökonomischen Einbettung und der dort vorherrschenden Zwänge,
aber auch der wissenschaftsimmanenten Argumentationsformen.
Der Text von Nicole Christine Karafyllis
behandelt das Thema der nachwachsenden
Rohstoffe. Sie bezieht sich zur Analyse insbesondere auf die von Meinolf Dierkes ausgearbeitete Leitbildtheorie. Das „Nachwachsen“ ist
ein Bild, das an andere gesellschaftliche Bilder
wie „Wachstum“ anknüpfen kann. Das kann zu
Problemen führen, etwa wenn sich in den Studien zu nachwachsenden Rohstoffen zwei konflikthaltige Bilder vermengen: Nachhaltigkeit
und Wachstum.
Christoph Pistner und Alexander Glaser berichten von Bemühungen der Technikfolgenabschätzung bei neueren Nukleartechnologien, die
von IANUS im Rahmen eines TA-Programms
im Auftrag des Schweizerischen Wissenschaftsrates vorgenommen worden sind. Es geht darum, das Potenzial zukünftiger Nukleartechnologien abschätzen zu lernen. Dazu wird von den
Autoren ein 7teiliges Bewertungsraster aufgestellt, zu dem Kriterien wie Sicherheit, Proliferationsfähigkeit, Nachsorge, aber auch Ökonomie,
Einsatzfähigkeit und andere gehören.
Kathryn Nixdorf und Wolfgang Bender untersuchen in einem Beitrag die Dual-UseProblematik der biotechnologischen Forschung, also die Frage, inwieweit Forschungsergebnisse militärische Relevanz haben können. Die Autoren zeigen, dass ein erhebliches
Missbrauchspotenzial in der biotechnologischen Forschung vorhanden ist.
Christine Hauskeller untersucht die ethischen Implikationen und gesellschaftlichen
Kontexte des Forschungsfeldes humane Stammzellen. In ihrem kurzen Überblick über die wichtigsten Faktoren zeigt sie, wie weit reichend die
Verbindungen eines scheinbar sehr begrenzten
Forschungsfeldes in die Gesellschaft sind, denn
um das Projekt der Stammzellforschung angemessen verstehen zu können, sind fundamentale
Faktoren des gesellschaftlich verankerten Men-
Seite 102
schenbildes zu berücksichtigen, wie etwa das
Bild von Gesundheit und Krankheit.
Zum Abschluss des Bandes behandelt Jan
C. Schmidt die Nanotechnologien. Hier liegt
nun ein Forschungsbereich vor, bei dem zumindest nicht behauptet werden kann, dass die
ethische Urteilsbildung zu spät komme, denn
dieser Bereich ist erst dabei, sich zu formieren
und eigene Standards auszuarbeiten. Die Situation ist eigentümlich: Noch zeichnen sich keine
gemeinsamen Forschungsstandards ab, aber die
Verkünder der neuen Technologie sehen in ihr
die künftige Basistechnologie aller anderen
Technologien. Damit ist der Weg zu einem
technokratischen Selbstverständnis gebahnt.
Angesichts des nach wie vor dominanten
Selbstverständnisses in unserer Gesellschaft
und insbesondere im Wissenschaftsbetrieb,
dem gemäß es eine tiefe Kluft zwischen der
sachorientierten Wissenschaft und ihrer Bewertung gibt, kann man den aufklärerischen Anspruch, der die Autorinnen und Autoren der
Texte des Sammelbandes eint – Wertorientierungen offen zu legen und ihren Diskurs einzuklagen –, nur begrüßen. Bei der Lektüre des
Buches wird deutlich, dass die größte Hürde
nicht so sehr in der allgemeinen Feststellung
der Notwendigkeit ethischer Orientierung der
Wissenschaft liegt, sondern in der jeweils konkreten Umsetzung in den Einzeldisziplinen.
«
N.C. Karafyllis, T. Haar (Hrsg.): Technikphilosophie im Aufbruch. Festschrift
für Günter Ropohl. Berlin: edition sigma, 2004, 278 S., ISBN 3-89404-516-7,
Euro 17,90
Rezension von Armin Grunwald, ITAS
Auf der jüngsten deutschsprachigen Konferenz
über Technikphilosophie (Cottbus im Juli 2002,
vgl. die Dokumentation in Kornwachs 2004)
hielt Günter Ropohl einen Abendvortrag mit
dem Titel zur „unauffälligen Abwicklung der
Technikphilosophie“ (abgedruckt in Ropohl
2004). Dort malte er in düsteren Farben die
Gegenwart und, mehr noch, die Zukunft der
Technikphilosophie an deutschen Universitäten
aus. Dass die Festschrift zu Ropohls 65. Ge-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
REZENSIONEN
burtstag unter dem Titel „Technikphilosophie
im Aufbruch“ als absolutes Kontrastprogramm
zu diesem Vortrag wirkt, ist möglicherweise
ein Zufall – vielleicht ist der Titel aber doch
motiviert durch den energischen Protest vor
allem der jüngeren Garde der Technikphilosophen nach dem pessimistischen Vortrag auf
jener Konferenz. Der Wunsch, mit dem Buch
dem Jubilar eine Technikphilosophie im Aufbruch zu zeigen, findet sich jedenfalls im Vorwort der Herausgeber explizit wieder.
Ganz in der Tradition der akademischen
Festschriften haben Nicole Karafyllis und Tilmann Haar als Schüler Günter Ropohls Beiträge von Weggefährten und Kollegen Ropohls
versammelt und unter das begriffliche Dach der
Technikphilosophie gestellt. Die Beiträge sind
geprägt durch persönliche oder thematische
Beziehungen zu Günter Ropohl, zu seinem
wissenschaftlichen Werk bzw. zu seinen über
die Wissenschaften hinaus reichenden gesellschaftlichen Wirkungen. Die wissenschaftliche
Laufbahn Ropohls begann als Ingenieur in der
Fertigungstechnik und führte über die Habilitation (Systemtheorie der Technik) bei Hans
Lenk in Karlsruhe zur Professur für Allgemeine Technologie im Fachbereich Arbeitslehre an
der Universität Frankfurt. In der TA ist Ropohl
vor allem in zweierlei Hinsicht bekannt: zum
einen als scharfer Kritiker der vermeintlich viel
zu sehr folgenorientierten und auf Politikberatung fokussierten statt gestaltungsorientierten
frühen TA-Ansätze, zum anderen durch sein
Engagement im Arbeitskreis Mensch und
Technik des VDI und insbesondere seine prägende Mitarbeit an der VDI-Richtlinie 3780
zur Technikbewertung.
Das Buch „Technikphilosophie im Aufbruch“ bietet eine anregende Mischung aus
teils bekannten Thesen und neueren Arbeiten
aus den verschiedenen Themenfeldern, mit
denen Günter Ropohl sich wissenschaftlich
auseinandergesetzt hat: von Technikwissenschaften über Technikphilosophie, Systemtheorie, Arbeitswissenschaften und Technikbewertung (ein Verzeichnis der wissenschaftlichen
Schriften von Günter Ropohl ist dem Band
beigefügt). Damit ermöglicht die Festschrift
auch einen Einblick in aktuelle Felder und
Kontroversen der Technikphilosophie.
Ziel des Buches ist es, Antworten auf die
Frage „Was kann und was soll Technik heute
sein und leisten?“ (Umschlagrückseite). Dabei
werden sehr weite Begriffe von Technik und
Technikphilosophie unterstellt: das Spektrum
der behandelten Schlüsselworte reicht von der
deutschen Restaurantkultur bis zur Energiepolitik, von der Naturvergessenheit der Technik zu
technischen Utopien in der DDR, von der Zukunft der Arbeit bis zur Globalisierungskritik,
von Innovationstheorie zur Technikethik und
zum Ort der Technik in der ökonomischen
Wertschöpfung. Diese anregende Vielfalt ist
inhaltlich in fünf Teile untergliedert:
(1) Technik und Kultur: Galt Technik lange
Zeit, besonders im deutschen Bildungsbürgertum, als „das Andere“ der Kultur, so ist in den
letzten Jahren ein wachsendes Interesse an den
vielfältigen Verbindungen zwischen Technik
und Kultur zu beobachten. Wolfgang König
(Zum Italiener gehen! Forschungsüberlegungen
zur Ethnisierung und Differenzierung der Restaurantlandschaft) setzt mitten im lebensweltlichen Verständnis von Kultur an und thematisiert
die historischen Veränderungen der Restaurantlandschaft vor dem Hintergrund allgemeiner
gesellschaftlicher Entwicklungen. Dieses Thema
im Kontext der Technikphilosophie zu betrachten, dürfte eine sehr schöne Innovation sein und
nur den verwundern, der nicht die kulinarischen
Neigungen von Ropohl kennt. Gerhard Banse
(Zwischen Zukunftsprojektion und Pragmatik.
Technische Utopien in der DDR) widmet sich
ebenfalls einem in der Technikphilosophie eher
randständigen Thema. Wenn auch die Technikgeneseforschung auf die Rolle von „Leitbildern“
in der Technik hingewiesen hat, und technische
Visionen und ihre Ambivalenzen gegenwärtig
wieder ein aktuelles Thema sind, vor allem in
der Nanotechnologie und ihrer gesellschaftlichen Rezeption (Coenen 2004), so klafft doch
im Verständnis der Rolle von technischen Utopien zu verschiedenen Zeiten und in verschiedenen Gesellschaften eine deutliche Lücke. Das
Unternehmen, die Rolle technischer Utopien
und die Debatten um sie herum in der DDR zu
beleuchten und nach verschiedenen Zeitstadien
zu unterteilen, führt zu einer Reihe von erstaunlichen Einsichten in ein in vielen Facetten doch
weithin unbekanntes System, das der Reflexion
der Technik deutlich früher Aufmerksamkeit
gewidmet hat als die westliche Welt (allerdings
auf durch die Marxsche Gesellschaftstheorie
vorgegebene Weise). Zu diesen Einsichten ge-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 103
REZENSIONEN
hört die Beobachtung, dass es durchaus wesentliche parallele zeit- und geistesgeschichtliche
Entwicklungen in beiden Systemen gegeben hat,
was die Einschätzung der Rolle, der Machbarkeit und Grenzen technischer Utopien betrifft
(übrigens ein Ergebnis, das gut zur vergleichenden Analyse von Planungsverständnissen passt?;
vgl. hierzu Grunwald 2000).
(2) Technik und Natur: Das Verhältnis zwischen
Technik und Natur stellt ein Dauerthema der
Technikphilosophie dar. Peter Wehling (Die
„natürliche Symbolgewalt technischer Neuerungen“. Zur Aktualität von Walter Benjamins
Technikphilosophie und -soziologie) erschließt
wenig bekannte technikphilosophische Aussagen von Walter Benjamin für die gegenwärtige
Diskussion. Er kommt zu dem Ergebnis, dass
Benjamins Sicht auf Technik nicht nur frühzeitige Folgenanalysen, ethische Beurteilung und
demokratische Willensbildung einfordert, sondern auch zur Einbettung der technischen Perspektiven in die gesellschaftlichen Handlungsspielräume und ihre Verknüpfung mit den Akteuren verpflichtet. Friedrich Rapp (Die technologische Entfremdung von der Natur) variiert
die kulturskeptische These, dass der technische
Fortschritt zu einer immer weiter fortschreitenden Entfremdung des Menschen von der Natur
führe, und stellt dieser Entwicklung die Unabdingbarkeit der Natur (auch der Natur des Menschen) als Bezugsgröße entgegen. Nicole Karafyllis (Natur als Gegentechnik. Zur Notwendigkeit einer Technikphilosophie der Biofakte)
wendet geschickt und provokativ die Ropohlsche These von der Technik als Gegennatur in
ihr vermeintliches Gegenteil. Damit macht sie
auf den zirkulären Charakter der Gegenüberstellung von Natur und Technik aufmerksam: wird
Technik in der aristotelischen Tradition als das
Nicht-Naturhafte bestimmt, funktioniert dies
nur, wenn beantwortet wird, was denn Natur sei
– mit der Gefahr, Natur als das Nicht-Technische zu begreifen. Damit macht Karafyllis auf
den reflexiven Charakter der Unterscheidung
von Natur und Technik aufmerksam als einer
Unterscheidung an den Gegenständen, nicht als
einer Unterscheidung der Gegenstände. Die
Wortschöpfung „Biofakte“ in Entgegensetzung
zu den traditionellen „Artefakten“ bringt dies
auf den Begriff.
Seite 104
(3) Technik und Dialektik: Christoph Hubig
(Technik als Mittel und Medium) führt in aktuelle, der Hegelschen Tradition folgende Diskussionen in der Technikphilosophie ein, nach
denen Technik – sicher fern ab von Ropohlschen Gedanken – nicht nur im Sinne der klassischen Handlungstheorie als Mittel, sondern
darüber hinaus auch als Medium (z. B. der
Welterschließung) konzeptualisiert wird. Hans
Heinz Holz (Systemtheorie und Dialektik) führt
auf anregende Weise eine langjährige Diskussion mit Günter Ropohl weiter, indem er –
nicht ohne weiteres erwartbare – Bezugspunkte
zwischen der systemtheoretischen und der dialektischen Annäherung an die Konstitution von
wissenschaftlichen Gegenständen betrachtet.
Michael Weingarten (Produktivkräfte, Produktionsinstrumente und schöpferische Entwicklung. Überlegungen im Anschluss an Schumpeter) setzt einer seiner Meinung nach wieder
modisch werdenden Marx-Rezeption (der Anschluss an Marx als Technikphilosophen findet
sich in der Festschrift mehrfach wieder) die
Theorie der „schöpferischen Zerstörung“ von
Schumpeter entgegen und kommt auf dieser
Basis zu dem Schluss, dass eine dynamische,
entwicklungsfähige Wirtschaft mehr nichtplanbare Innovationen und damit auch mehr
Risikobereitschaft benötigt.
(4) Technikethik und Technikbewertung: Ethik
und Technikbewertung (so auch der Titel eines
Standardwerkes von Ropohl) gehören zu den
großen Themen von Günter Ropohl. Tilmann
Haar (Sachzwang. Technik zwischen natürlichen und institutionellen Tatsachen) geht in
seinem – auf seine Dissertation bei Ropohl zurückgehenden – Beitrag auf Sachzwänge in der
Gestaltung und Anwendung von Technik ein
und formuliert im Anschluss an Gehlen die Forderung nach einer „Sachzwangkritik“, um mögliche ideologische Verwendungen von Sachzwangargumenten zu verhindern. Hans Lenk
und Matthias Maring (Technikethik – pragmatisch und synthetisch) bekräftigen ihre These,
dass ethische Aspekte der Technik sich nicht auf
individualistische Aspekte beschränken, sondern
die soziale Verortung und die systemische Vernetzung moralischer Probleme berücksichtigen
müssen. Individualistische und korporatistische
Ansätze der Ethik müssen sich danach ergänzen.
Konrad Ott (Klimapfade. Energiepolitik in Zeiten steigender Temperaturen) wendet Ropohls
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
REZENSIONEN
ethische Prinzipien auf die Zukunft der deutschen Stromerzeugung an. Ausgehend von Ropohls Satz „Übel muss man auf jeden Fall verhindern, Güter dagegen braucht man nicht unbedingt zu vermehren“ gelangt Ott bis zu Empfehlungen die Ausgestaltung der zukünftigen
Strompolitik und des Zertifikatehandels angesichts einer „Weggabelung“ zwischen zwei
möglichen Zukunftspfaden in der Stromversorgung betreffend. Ethik-Skeptiker mögen sich
bestärkt fühlen, wenn sie bei Ott im Postscriptum nachlesen, dass der gemäß der gewählten
ethischen Perspektive „rationale“ Weg aufgrund
der Interventionen der Kohle- und Energielobby
gerade nicht beschritten werden wird.
(5) Technik und Innovation: Technik wirkt nicht
von sich aus gesellschaftsverändernd, sondern
erst als konkrete Innovation. Dieser Teil der
Festschrift enthält Arbeiten, die die gesellschafts- und zukunftsprägenden Folgen von
Technik und Technisierung thematisieren. Hans
Poser (Innovation: The Tension between Persistence and Dynamics) stellt fest, dass die Anschlussfähigkeit von radikalen Innovationen und
damit ihr Erfolg eine gewisse gesellschaftliche
Kontinuität und Beständigkeit voraussetzen.
Klaus Kornwachs (Technik wissen. Präliminarien zu einer Theorie technischen Wissens) vertritt die These, dass technisches Wissen in vielen
Fällen nicht das Resultat eines Erkenntnisprozesses, sondern das Ergebnis einer verstandenen
Mitteilung ist, der man vertraut, und leitet hieraus die weiterführende Frage nach den Bedingungen ab, unter denen diese „Mitteilungen“
verstanden werden können. Alfons Schmid und
Silvia Krömmelbein (Informationstechnischer
Wandel und Zukunft der Arbeit) untersuchen die
Auswirkungen des technischen Fortschritts auf
die Arbeitswelt und damit die Verbindung zweier Hauptthemen von Günter Ropohl. Sie lehnen
technikdeterminstische Vorstellungen ab und
heben stattdessen die Bedeutung wirtschaftsorganisatorischer Einflüsse auf die Arbeitswelt
hervor. Richard Huisinga (Spezifische Wissensbasen und Exemplarik. Relevanz und Reichweite für die Berufsbildung im Bereich der Hochtechnologie) befasst sich bildungstheoretisch mit
der gesellschaftlichen Konstitution und Verarbeitung dessen, was unter „Hochtechnologie“
verstanden wird, und kommt zu dem Schluss,
dass auf der Ebene der Berufsbildung bislang
keine zufrieden stellende Konkretion erreicht
sei. Manfred Mai (Moderne und antimoderne
Strömungen in der Gesellschaft. Von der „konservativen Revolution“ zur Globalisierungskritik) schlägt den Bogen zu zeitdiagnostischen
Reflexionen der Befindlichkeit der gegenwärtigen Gesellschaft.
Diese kurze Inhaltsbeschreibung macht deutlich,
dass die große thematische Bandbreite sich nur
schwer den gewählten Überschriften der einzelnen Teile, aber auch nur teilweise dem begrifflichen Dach der Technikphilosophie unterordnet.
In diesem Zusammenhang ist es bedauerlich,
dass der einführende Beitrag der Herausgeber
zwar den viel versprechenden Titel „Technikphilosophie – Stand einer Disziplin“ trägt, den
damit erhobenen Anspruch aber leider in keiner
Weise einlöst (was sicher auch auf zwei Seiten
unmöglich wäre). Ein einführender Beitrag hätte
in diesem Fall die Aufgabe, in der thematischen
Heterogenität der verschiedenen Beiträge eine
oder mehrere durchgängige Fragestellungen zu
formulieren oder, da es um Technikphilosophie
geht, den zugrunde liegenden Begriff der Technik oder die aktuelle Situation der Technikphilosophie darzulegen. Dass dies nicht erfolgte,
stellt eine verpasste Chance dar – ist allerdings,
das ist den Herausgebern zugute zu halten, in
der Technikphilosophie nicht so selten, was mit
der Unabgeschlossenheit dieses nie so recht
etablierten Teilgebietes der Philosophie zusammenhängen mag.
Ob sich die Technikphilosophie wirklich
im Aufbruch statt in der Abwicklung (s. o.)
befindet, wird die weitere Entwicklung zeigen.
Die Festschrift selbst vermittelt, entgegen ihrer
Programmatik, einen eher ambivalenten Eindruck. Damit man von einem Aufbruch reden
kann, sollten neue Themen und Fragestellungen, neue Relevanzen und Nachfragen oder
neue Akteure in der Technikphilosophie sichtbar werden. Dies ist jedoch in dem Buch wenig
zu erkennen. Einigen neuen Themen – wie etwa
die Rolle technischer Utopien, der Biofakte oder
die technikphilosophische Entdeckung Schumpeters – stehen eine ganze Reihe vertrauter Fragestellungen und auch zumindest teilweise
vertrauter Antworten gegenüber.
Nun weisen akademische Festschriften
vom Grundgedanken her selten programmatisch in die Zukunft. Im Mittelpunkt stehen –
dem festlichen Anlass gemäß – eher eine Bestandsaufnahme des Gegenwärtigen und ein
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 105
REZENSIONEN
würdigender, vielleicht mehr oder weniger
kritischer Blick auf das Erreichte. Von daher
wäre ein Urteil zu streng, das sich ausschließlich am programmatischen Titel „Technikphilosophie im Aufbruch“ und dessen nur teilweiser Einlösung orientieren würde. Stattdessen
erstreckt sich die positive Würdigung des Buches durch den Rezensenten auf die thematische Vielfalt, die neue Perspektiven erlaubt,
und die kritische Reflexion des aktuellen Diskussionsstandes im Umkreis der Ropohlschen
Themen, weniger auf die nur teilweise zum
Ausdruck kommende Aufbruchstimmung.
Zu guter Letzt seien – verbunden mit der
herzlichen Gratulation zum 65. Geburtstag –
zwei Hoffnungen geäußert: dass Ropohls Diagnose der Abwicklung der Technikphilosophie sich als unzutreffend erweisen und dass
die Festschrift zu seinem Geburtstag eine gute
Verbreitung erfahren möge.
Literatur
Coenen, C., 2004: Nanofuturismus: Anmerkungen
zu seiner Relevanz, Analyse und Bewertung. Technikfolgenabschätzung – Theorie und Praxis 13.
Jahrgang, Nr. 2 (Juni), S. 67-76
Grunwald, A., 2000: Handeln und Planen. München: Fink
Kornwachs, K. (Hrsg.), 2004: Technik – System –
Verantwortung. Münster: LIT Verlag
Ropohl, G., 2004: Gelegenheiten zur unauffälligen
Abwicklung der Technikphilosophie. In: Kornwachs, K. (Hrsg.): Technik – System – Verantwortung. Münster: LIT Verlag, S. 115-128
»
St. Bannas: Faire Marktwirtschaft. Ein
Modell zu ‚No Logo’. München: Ökom
Verlag, 2003, 89 S., ISBN 3-936581-17-7,
Euro 16,80
Rezension von Jürgen Kopfmüller, ITAS
Die Frage, wie die Grundprinzipien und Rahmenbedingungen des Wirtschaftens auf lokaler,
nationaler oder globaler Ebene beschaffen sein
sollten, damit die Wirtschaft den Menschen
und ihren Bedürfnissen etwa nach Existenzsicherung und Lebensqualität – also ihrer ur-
Seite 106
sprünglich als „dienend“ charakterisierten
Funktion – gerecht wird, beschäftigt die Gesellschaften und auch die Wissenschaft seit
langer Zeit. Mit dem, was heute als „soziale
Marktwirtschaft“ bezeichnet wird, wurde, beginnend vor rund fünfzig Jahren, in Deutschland und auch in anderen Industriestaaten ein
vielschichtiges System unterschiedlichster Institutionen und Regeln geschaffen, das vor
allem auf einen Ausgleich zwischen den grundlegenden Handlungsprinzipien Effizienz und
Gerechtigkeit zielt. Zwar hat dieses System
wohl seine relative Überlegenheit gegenüber
den wesentlichen Alternativen – insbesondere
der Planwirtschaft und dem kurzzeitigen Experiment der sozialistischen Marktwirtschaft –
aus vielfältigen Gründen nachgewiesen. Dennoch sind die heutigen Gesellschaften mit zahlreichen Phänomenen konfrontiert, die auch im
Sinne der Verletzung der beiden Prinzipien
oder ihrer nicht gelingenden Verschmelzung
ein Problem darstellen und in vielen Fällen
noch an Schärfe zunehmen: Arbeitslosigkeit
und Armut sind ebenso Indizien für zumindest
partielle Schwächen der existierenden Systempraxis wie die Zerstörung der natürlichen Lebensgrundlagen, die Bildungsmisere oder auch
eine wachsende Zahl von Menschen, deren
Krankheitssymptome den im Räderwerk aus
täglichen Leistungszwängen oder Verteilungsund Machtkämpfen entstehenden Stressfaktoren zugeschrieben werden.
Mit dem vorliegenden Buch stellt Stephan
Bannas auf rund 80 Seiten seine Überlegungen
zur Gestaltung einer „fairen Marktwirtschaft“
vor. Bei seinem Ansatz – er verwendet dafür
den Begriff „Modell“ – geht er von der Grundthese aus, dass die heutigen Probleme eher
durch der Marktwirtschaft wesensfremde Faktoren verursacht werden und weniger durch
Systemversagen des marktwirtschaftlichen
Prinzips selbst (S. 1). Dem will er sein Modell
als „umfassendes Gesellschafts- und Wirtschaftskonzept“ entgegensetzen. Es soll wesentlich gekennzeichnet sein durch eine wieder
stärkere Orientierung an ursprünglichen Grundideen der Marktwirtschaft, an den Menschen
sowie an den Prinzipien einer flexiblen und
freiheitlichen Wirtschaftsordnung (S. 5). Er
leistet damit einen auf einer prinzipiellen Ebene angesiedelten Beitrag zu einer ordnungsökonomischen bzw. ordnungspolitischen De-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
REZENSIONEN
batte, die in den letzten Jahren eher auf Detailfragen ökonomischer Steuerung gerichtet war.
Dieser Schritt ist a priori sehr begrüßenswert,
weil angesichts der zu lösenden Probleme und
ihrer Dimension eine Debatte auch über grundsätzlichere Veränderungen der institutionellen
Rahmenbedingungen des Wirtschaftens und
deren Umsetzung dringend erforderlich ist.
Vor dem Hintergrund seiner Erfahrungen
und Erkenntnisse als Unternehmer sowie als
Wirtschafts- und Geisteswissenschaftler, der
ein „Ur-Vertrauen“ in die marktwirtschaftlichen Grundprinzipien zum Ausgangspunkt
seiner Überlegungen macht, geht Bannas von
der Problemdiagnose vielfach verfälschter
Marktergebnisse und daraus resultierender
unerwünschter Effekte aus. Er führt dies vor
allem auf zwei Faktoren zurück: zum einen auf
die institutionalisierte Ausblendung der Emotion Angst auf der Produktionsseite – Angst vor
Risiko und vor den Folgen des eigenen Tuns –
insbesondere durch die Ende des 19. Jahrhunderts eingeführten haftungsbegrenzenden Regelungen des Aktien- und des GmbH-Rechts;
zum anderen auf die umfangreichen Werbekampagnen und Marketingstrategien, die er als
kommunikative Beeinträchtigung der Menschen und als Verletzung ihrer kommunikativen
Integrität und Selbstbestimmung interpretiert
und die er im Wesentlichen als dem Zweck der
Erhaltung bzw. Konzentration von Marktmacht
dienend charakterisiert. Der Autor spricht hier
von „Informationsmüll“ und „Aufmerksamkeitsokkupation“, die Folgen davon bezeichnet er als
„emotionale externe Effekte“, in Erweiterung
des in der Umweltökonomie eingeführten, dort
jedoch auf materielle Komponenten beschränkten Begriffs der externen Effekte.
Im Verständnis des Autors besteht die
Grundidee des vorliegenden Ansatzes darin,
die (lebenden) Menschen in den Vordergrund
ordnungstheoretischer Überlegungen zu stellen
und dem Kapital – als tendenziell vergangenheitsbezogenem und von Verstorbenen übernommenem Faktor – keine eigenständige und
strukturierende Funktion zuzumessen. Anstelle
des Kapitals und dessen Wachstum soll vor
allem den Menschen und ihren Emotionen die
Funktion des „dynamischen Elements“ des
Wirtschaftens zukommen. Er versucht damit,
eher an den Überlegungen von Adam Smith
zur „Theorie der ethischen Gefühle“ anzuknüp-
fen und diese mit seinem wesentlich später
erschienenen Hauptwerk „Der Wohlstand der
Nationen“ zu verbinden, anstatt sich in die
gegenwärtige Globalisierungsdebatte einzureihen, die er als Aufguss der SozialismusKapitalismus-Kontroverse kritisiert.
Bannas’ „Gegenmodell“ der „Fairen
Marktwirtschaft“ beruht auf drei konstituierenden Elementen: Erstens bleiben mit der freien
Preisbildung, der wettbewerblichen Marktorganisation und dem Privateigentum wesentliche
Elemente der gegenwärtigen marktwirtschaftlichen Grundordnung prinzipiell erhalten. Dabei
ist hinsichtlich des Eigentums vorgesehen, dass
machtbildende Rechte von Verstorbenen nicht
vererbt bzw. weitergegeben werden können,
sondern der Allgemeinheit zugänglich gemacht
werden, mit dem Ziel, die Chancen und Gestaltungsspielräume kommender Generationen immer wieder neu und damit intergenerativ fairer
zu verteilen. Eigentumsrechte an Sachen – und
damit auch gegebenenfalls existierende Machtelemente – sollen dagegen wie bisher übertragen
werden können. Auch der Anreiz, aus unterschiedlicher Kreativität oder Innovationsbereitschaft ökonomische Vorteile erzielen zu können,
soll im Sinne der „Philosophie“ von Wettbewerb und Dynamik konstitutiven Charakter
behalten. Die Grundzüge von Geld- und Finanzverfassung, Steuer- und Sozialgesetzgebung
bleiben ebenfalls erhalten.
Das zweite Element besteht darin, dass
Haftungsbegrenzung bzw. -ausschluss bei wirtschaftlichen Aktivitäten nicht mehr vorgesehen
ist. Es wirtschaften nur noch voll haftende Einzelkaufleute oder Zusammenschlüsse solcher
Kaufleute – d. h. juristische Personen sind nicht
wirtschaftlich aktiv – und das Aktienrecht und
das GmbH-Gesetz werden abgeschafft, d. h.
Aktionäre und GmbH-Anteilseigner gibt es
nicht mehr. Vereine oder Vereinigungen mit
eigener Rechtspersönlichkeit sind zwar zugelassen, sie werden jedoch steuerlich benachteiligt
um zu vermeiden, dass die neue Regelung durch
das Vereinsrecht unterlaufen werden kann und
dass Vereine primär wirtschaftlich tätig sind.
Bannas knüpft damit an klassische Ökonomen
wie Adam Smith oder Walter Eucken an, die
Haftungsbeschränkungen bzw. Kapitalgesellschaften im Prinzip ablehnten. Als Folge dieser
Modifikation erwartet er, dass Kapital vermehrt
innerhalb der Unternehmen – d. h. durch nicht
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 107
REZENSIONEN
ausgeschüttete Gewinne – oder durch Bankkredite geschaffen wird und dass sich die Kapitalmobilität wieder der menschlichen Mobilität
annähert, da Vertrauen gegenüber den Kapitalnachfragern eine wesentlich größere Rolle spielen wird. Er prognostiziert eine wachsende Zahl
von unternehmerisch Tätigen (nicht zuletzt
ehemalige Aktionäre) sowie einen aufgrund des
Wegfalls des Haftungsausschlusses einsetzenden strukturellen Wandel in der Finanzbranche
weg von Großbanken und hin zu kleineren, regional orientierten Banken, die sich aufgrund
des Rufschädigungsrisikos durch gefährdete
Einlagen wesentlich weniger an Unternehmen
beteiligen werden.
Das dritte konstitutive Element besteht in
einem erheblich eingeschränkten Markenschutzrecht. Es erlischt mit dem Tod des Inhabers und
ist nicht auf andere Personen übertragbar. Die
Marke wird sofort frei und für die Mitbewerber
nutzbar, die sich jedoch an die vom ursprünglichen Inhaber festlegbaren Anforderungen an die
Marke halten müssen. In der Einschätzung des
Autors wird dies zur Folge haben, dass Marken
in der Unternehmensstrategie keine dominierende Bedeutung mehr zukommt, Investitionen in
Marken risikoreicher werden und Marketingund Werbestrategien sich an diese Gegebenheiten anpassen werden.
Wesentliches Ziel dieser Änderungen der
gegenwärtigen Haftungsbeschränkungs- und
Markenschutzregelungen ist es, eine sich über
Generationen fortpflanzende Konzentration
von ökonomischer Macht zu begrenzen und
letztlich eine Alternative zur Dominanz von
internationalen Konzernen und Marken zu ermöglichen. Neben den genannten drei konstitutiven Elementen werden zwei ergänzende Regelungen eingeführt, die die Akzeptanz des
Modells erleichtern sollen. Zum einen wird
eine Risikobegrenzung für die Unternehmer
dadurch vorgesehen, dass sie in begrenztem
Umfang (maximal 5 Mio. Euro) Kapital ansammeln können, das nicht pfändbar ist und
das nur zum Lebensunterhalt, nicht für wirtschaftliche Aktivitäten, verwendet werden darf.
Zum anderen wird die Möglichkeit, Vermögen
zu vererben, auf die Summe von fünf Mrd.
Euro begrenzt, darüber hinaus gehende Beträge
sollen dem Staat zufallen.
Im Anschluss an die Skizzierung seines
Ansatzes versucht sich der Autor an einer quali-
Seite 108
tativen Überprüfung der Funktionsfähigkeit in
zweierlei Hinsicht: Zum einen geht er unter
einer eher immateriellen, visionären Perspektive
der Frage nach, inwieweit es mit dem Modell
gelingen kann, die gewünschten menschlichen
„Energien“ freizusetzen, zum anderen betrachtet
er in einer eher pragmatischen materiellen Perspektive die ökonomische und gesellschaftliche
Effizienz seines Modells. Die „Energie-Frage“
beantwortet er insoweit positiv, als nach seiner
Einschätzung die Umsetzung seines Modells zu
einer veränderten Wirtschaftsweise führen würde, die „die Vielseitigkeit der Welt und die Vielfältigkeit der Lebensenergien widerspiegelt“ (S.
23). Nicht anonyme, langfristig bestehende
Konzerne, sondern dem menschlichen Lebenszyklus unterworfene, a priori stärker regional
orientierte Eigentümer-Unternehmer würden die
wirtschaftliche Realität prägen. Dadurch erhielten die Elemente Muße und Langsamkeit wieder
mehr Bedeutung gegenüber Elementen wie Beschleunigung und Geschwindigkeit. Der Spannungsbogen der gesamten Verhaltensbandbreite
zwischen „Dienst am Nächsten“ und „Egoismus“ würde wieder mehr zum alltäglichen Bild
des Wirtschaftens gehören. Dabei soll es letztlich dem Spiel der Marktkräfte überlassen bleiben, welche der vom Autor idealtypisch unterschiedenen Energien – die an Kosten- oder Produktivitätsgrößen orientierte „betriebswirtschaftlich-pragmatische“ oder die an menschlicher
Nähe, regionaler Identität oder Altruismus orientierte „betriebswirtschaftlich-charismatische“
– dominieren wird, sowohl im Verhältnis zwischen Unternehmen als auch innerhalb eines
Unternehmens. Diese, durch das Modell intendierte tendenzielle Chancengleichheit für beide
„Energietypen“ markiert er als wesentlichen
Unterschied zur gegenwärtigen Praxis.
Hinsichtlich der Effizienz-Frage beschränkt
sich der Autor zwangsläufig auf grundlegende
Argumentationslinien, da Maßnahmen der vorgeschlagenen Art in ihren vielfältigen Wirkungen natürlich erst nach eingehenderen Analysen
angemessen evaluiert werden können. Er argumentiert dabei unter drei Gesichtspunkten. Zunächst richtet er den Blick auf die Frage nach
der Erreichbarkeit der anvisierten Ziele. Die
Reduzierung von unerwünschter (d. h. nicht
durch z. B. höhere Produktqualität begründete)
Marktmacht und die daraus resultierende erhöhte Fairness sieht er bereits durch die starke Ein-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
REZENSIONEN
schränkung des nach seiner Einschätzung zentralen Faktors für die Entstehung von Marktmacht, der Marke und des Markenschutzrechts,
gewährleistet. Darüber hinaus bewirke die Verknüpfung mit der vorgesehenen Veränderung
des Gesellschaftsrechts, dass in den Markt neu
eintretende bzw. dies beabsichtigende Wettbewerber bessere Chancen haben werden, da sie
nicht mehr mit langfristig präsenten Marken und
davon profitierenden kapitalstarken Unternehmen konkurrieren müssen. Auch die Frage nach
der Möglichkeit, die „emotionalen externen
Effekte“ zu reduzieren und Emotionen stärker
ins Wirtschaften zu integrieren, beantwortet er
positiv. Er verweist dabei zum einen auf die
erwartete Reduzierung der vor allem durch den
bislang unbegrenzten Markenschutz entstehenden (und die externen Effekte bewirkenden)
Marketing- und Medienmacht; zum anderen
führt er die verbesserten Chancen an, ein Unternehmen zu gründen und leitet daraus Effekte ab
wie „vermehrten Stolz auf die eigene Arbeit“,
Berücksichtigung der „Würde der Menschen“
oder auch eine stärkere regionale Orientierung
und damit gesellschaftliche Identitätsbildung vor
Ort. Spätestens hier bewegt sich Bannas allerdings deutlich im Bereich der Spekulation.
Der zweite Aspekt betrifft das Thema
Verbraucherschutz. Der Autor stellt hier dem
Argument, die Existenz von Marken würde eine
durch bessere Information bedingte Kauferleichterung für Kunden und damit mehr Verbraucherschutz bewirken, seine Beobachtung der
Praxis und Thesen aus der betriebswirtschaftlichen Literatur gegenüber. Demnach sind Werbestrategien in den letzten Jahren zunehmend
dadurch charakterisiert, dass in ihnen die funktionalen Qualitäten eines Produkts zunehmend
durch psychologische Qualitäten und die Vermittlung eines psychologischen Zusatznutzens
ergänzt bzw. abgelöst werden. Die ursprüngliche Funktion von Marken, Produktinformation
und -unterscheidbarkeit zu erhöhen, verliere zu
Gunsten des Ziels des Aufbaus von Produzentenmacht an Bedeutung. In einem System mit
zeitlich befristetem Markenschutz könne dagegen Werbung den Verbraucherschutzgedanken
wieder neu entdecken.
Schließlich widmet sich Bannas der klassischen Frage nach der volkswirtschaftlichen Effizienz. Hinsichtlich des hierfür zentralen Kriteriums, der Allokation der Produktionsfaktoren,
misst er seinem Modell eine der gegenwärtigen
Praxis vergleichbare Effizienz zu. Ein effizienter
Kapitaleinsatz werde vor allem dadurch gewährleistet, dass die Prinzipien freie Preisbildung,
Privateigentum, Gewinnanreiz und dezentrales
Angebot erhalten bleiben. Der Faktor Arbeit
werde aufgrund der steigenden Marktchancen,
Arbeitsleistung als Selbständiger anzubieten,
und der vermehrten Wahrnehmung dieser Chancen aufgrund der stärkeren Gewinnanreize ebenfalls tendenziell effizienter eingesetzt. Bezogen
auf die Distributionseffekte konstatiert der Autor
die Überlegenheit des Modells, da die tendenziell wachsende Spreizung sowohl in der funktionalen als auch in der personalen Einkommensverteilung abgebaut werde, zurückzuführen vor
allem auf die fairere Chancenverteilung für unternehmerisches Handeln und auf die wachsende
Zahl von Unternehmen bzw. Unternehmerfamilien. Schließlich attestiert Bannas dem Modell
auch Ordnungskonformität, einerseits aufgrund
der Beibehaltung der oben genannten Prinzipien
zu Preisgestaltung oder Produktangebot, andererseits unter der Maßgabe, dass durch die Gewährung angemessener Anpassungszeiträume
für die Umsetzung der markenschutzrechtlichen
Veränderungen auch dem Eigentumsschutzgedanken Rechnung getragen werden kann.
Im letzten Teil benennt der Autor zunächst
einige Punkte, die im Rahmen einer Weiterentwicklung bzw. Präzisierung des Modells der
genaueren Betrachtung bedürfen, etwa den
Übergangsprozess zu den neuen Regelungen,
die Funktion des Staates als Unternehmer oder
die Regeln zum Vererben und zum pfändungsfreien Vermögen betreffend. Im Anschluss daran geht Bannas kurz auf einige ihm bisher besonders häufig gestellte, teils kritische Fragen zu
seinem Ansatz ein. Zum Abschluss skizziert er
erste aus seiner Sicht denkbare Maßnahmen zur
geeigneten Gestaltung des Transformationsprozesses der beiden Rechtsbereiche in Richtung
einer „fairen Marktwirtschaft“.
Was die Einschätzung des vorliegenden
Buches betrifft, will ich zunächst drei Punkte
herausstellen: Zunächst ist es dem Autor gelungen, auf wenigen Seiten ziemlich komplexe
wirtschaftssytemare und -politische Sachverhalte auf der Ebene der Diagnose sowie der Problemlösungsstrategie auch für Nicht-Experten
recht verständlich darzustellen. Unter inhaltlichen Gesichtspunkten ist sehr zu begrüßen, dass
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 109
REZENSIONEN
hier die Begriffe bzw. Grundgedanken der Fairness und der Chancengleichheit (vielleicht
sollte man eher von Chancenvergleichbarkeit
sprechen) im Zusammenhang mit dem wirtschaftlichen Geschehen in den Mittelpunkt
gerückt werden. In der ordnungsökonomischen
bzw. -politischen Debatte stellt dies eine eher
seltene Ausnahme dar. Wenn auch in dem Buch
nach meiner Erinnerung kein einziges Mal der
Begriff „Nachhaltigkeit“ verwendet wird, so
stellen doch Fairness und Chancenvergleichbarkeit unter dem Stichwort der inter- und intragenerativen Gerechtigkeit Grundorientierungen in
der Nachhaltigkeitsdebatte dar. Insoweit kann
(und sollte) die Kernthese des Buches durchaus
auch in diesen Kontext gestellt werden. Gleiches
gilt für die beiden strategischen Ansatzpunkte
der Veränderung des Gesellschafts- und des
Markenrechts, die auf eine Begrenzung von
ökonomischer Macht sowie auf die Institutionalisierung von individueller Verantwortung für
wirtschaftliches Handeln zielen.
Wenn auch die hier vorgelegten Grundüberlegungen zur „Vision“ einer veränderten
marktwirtschaftlichen Ordnung vom Autor
selbst mit dem Etikett der noch erforderlichen
Präzisierung und Weiterentwicklung versehen
worden sind, will ich dennoch einige kritische
Anmerkungen zu einigen eher grundlegenden
Punkten anfügen:
- Insbesondere mit der Verwendung des Begriffs „umfassendes Gesellschafts- und Wirtschaftskonzept“ für seinen Ansatz hat sich
der Autor – wie ich finde unnötigerweise –
die Messlatte des eigenen Anspruchs und vor
allem der induzierten Lesererwartungen sehr
hoch, ich denke zu hoch gelegt. Zwar stellen
die beiden Vorschläge zur Veränderung des
Gesellschafts- und Markenrechts das im
Kern neue bzw. innovative und, gemessen an
der gegenwärtigen Praxis, ohne Zweifel weit
reichende Element des Buches dar. Aber
selbst wenn man berücksichtigt, dass diese
ordnungspolitischen Neuerungen Auswirkungen auf gesellschaftliche Aspekte haben
und dass der Autor eine explizite Verknüpfung zum Thema menschliche Emotionen
herstellt, sollte man doch mit dem Begriff
des „Umfassenden“ in diesem Zusammenhang etwas vorsichtiger umgehen.
- Ohne Zweifel liefert Bannas mit den beiden
Reformvorschlägen zum Gesellschafts- und
Seite 110
Markenrecht einen sehr interessanten und
innovativen Beitrag zu der Frage, wie die
existierenden ordnungsökonomischen Rahmenbedingungen zu reformieren wären, um
bestimmte Problemphänomene zielgerichtet
eindämmen zu können. Weniger überzeugend erscheint mir dagegen die starke Betonung der menschlichen bzw. emotionalen
Komponente in den betrachteten Prozessen,
die für beide Reformvorschläge als expliziter Begründungskontext herangezogen wird.
So wird für die Abschaffung der bestehenden
Haftungsbeschränkungsregelungen nicht nur
das Argument der verstärkten Zuschreibung
individueller Verantwortung für wirtschaftliches Handeln, sondern auch die Auseinandersetzung mit der Emotion Angst und mit
dem Unbekannten angeführt. Auch die Beschränkung des Markenschutzes wird nicht
nur mit den Zielen Abbau von Marktmacht
und Stärkung der Chancengleichheit, sondern auch mit der Verringerung emotionaler
Beeinträchtigungen der Menschen durch
Werbe- und Marketingstrategien begründet.
Insbesondere mit der Prüfung seines Ansatzes hinsichtlich des Gelingens der „Freisetzung bestimmter menschlicher Energien
und Regungen“ begibt sich der Autor auf
problematisches Gelände. Manche Argumentation wirkt hier ziemlich gezwungen,
zumindest jedoch sehr spekulativ, und nur
bedingt nachvollziehbar.
Zumindest in dem Maße wie Anschlussfähigkeit an eine existierende Debatte, Nachvollziehbarkeit und vor allem eine den
Grundthesen zu wünschende Akzeptanz bei
den relevanten Institutionen als ein erstrebenswertes Ziel betrachtet werden, hielte ich
eine weniger starke Betonung der emotionalen Aspekte der Vorschläge für zuträglicher.
- Mit seiner – nur mit der Sicht des überzeugten „Marktwirtschaftlers“ erklärbaren – absoluten Fokussierung auf das Funktionsprinzip „Markt“ (er spricht auch von seinem
Ansatz als „radikal liberalem Wirtschaftskonzept“) blendet der Autor die gesamte Palette dessen aus, was seit langem und weitgehend konsensual als „Marktversagen“ bezeichnet wird. Anders als in seiner Einschätzung spielt dieses Phänomen in der
Praxis eine erhebliche Rolle, da mit seinem
Erscheinen immer dann zu rechnen ist,
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
REZENSIONEN
wenn die Realität von der idealtypischen
ökonomischen Modelltheorie abweicht:
d. h. wenn es um öffentliche Güter geht
(was den gesamten Umweltbereich betrifft,
aber auch z. B. das Thema Bildung), wenn
(ökologische oder soziale) externe Effekte
vorliegen oder wenn die Akteure nicht über
„vollständige Information“ hinsichtlich Produktpreisen und -qualitäten und die Pläne
aller Marktteilnehmer verfügen. Es ist zumindest fraglich und weiteren Untersuchungen vorbehalten, ob bzw. inwieweit es mit
der Umsetzung der Vorschläge des Autors
(eher) gelingen könnte, die aus diesen Phänomenen resultierenden Probleme zu lösen
und ob es beispielsweise ergänzender Mechanismen bedürfte. Gleiches gilt für die
unterstellte Tendenz hin zu mehr Muße und
Langsamkeit anstatt Geschwindigkeit und
Dynamik im Wirtschaftsprozess.
- Ein ebenfalls grundsätzlicheres Problem
scheint mir darin zu liegen, dass der Autor
seine Vorschläge, die ja nicht zuletzt verteilungsbeeinflussenden Charakter besitzen und
die er daher zu Recht mit den Begriffen
„Fairness“ und „Chancengleichheit“ in Verbindung bringt, einer mehr oder weniger
klassischen Effizienzprüfung zu unterziehen
versucht. Selbst wenn man einen breiteren
Effizienzbegriff zu Grunde legt, gilt doch,
dass die Realisierung von Fairness zumindest
auch nach anderen Kriterien als dem der Effizienz zu bemessen ist. Der Autor unterzieht
sich bzw. seinen Ansatz damit einem unnötigen, weil sachlich unangemessenen Erklärungs- bzw. Rechtfertigungszwang, der –
und das ist natürlich die Interpretation des
Rezensenten – den Umstand widerspiegelt,
dass Bannas hin und her gerissen ist zwischen
neoklassisch-marktwirtschaftlichen
Grundüberzeugungen und dem Wunsch, in
diesem System „revolutionäre“ Ideen zu
verwirklichen. Nicht zuletzt auch weil die
von ihm vorgebrachten Argumente für die
Möglichkeit eines effizienten Einsatzes der
Produktionsfaktoren in seinem Modell meist
sehr kursorisch, spekulativ und nur bedingt
nachvollziehbar sind (etwa den Faktor Arbeit
betreffend), scheint mir dieser – bewusst
oder unbewusst vollzogene – Spagat nicht
ganz geglückt zu sein.
- Schließlich sei noch auf eine zumindest
sprachliche „Unsauberkeit“ hingewiesen.
Wenn der Autor von „Kapital“ spricht, dieses als tendenziell vergangenheitsbezogen
bezeichnet und ihm keine eigenständige und
strukturierende Funktion zumessen möchte,
meint er offenkundig das Sachkapital in
Form von Anlagen, Gebäuden, Maschinen
usw. Unter dem Kapitalbegriff werden jedoch vielfach – man mag sich über die Angemessenheit streiten – auch ökologische
(„Naturkapital“) und soziale bzw. menschliche Faktoren („Sozial-, Wissens- und Humankapital“) subsumiert. Da diesen im Sinne
des Autors wohl durchaus eine eigenständige
Funktion zuzumessen ist, wäre hier größere
sprachliche Genauigkeit ratsam gewesen.
Als Fazit möchte ich festhalten: Auch wenn man
sich nicht die Terminologie des Autors zu eigen
macht, der im Zusammenhang mit seinem Ansatz und dessen Umsetzung die Begriffe „Ungeheuerlichkeit“ und „Heldentat“ verwendet, sind
die weit reichenden Veränderungen der bestehenden wirtschaftlichen Rahmenbedingungen,
die mit den unterbreiteten Vorschlägen verbunden sind, offenkundig. Sie sind im Kern positiv
zu bewerten, zumindest jedoch der eingehenden
Diskussion würdig. Die kritischer zu betrachtenden Teile des Buches liegen eher im „Umfeld“, genauer in einigen der vom Autor gewählten Begründungskontexte und Bewertungskriterien. Aus der Sicht des Rezensenten wäre eine
Beschränkung auf die Ziele Zuschreibung von
individueller Verantwortung für wirtschaftliches
Handeln und Reduzierung von Marktmacht
völlig ausreichend und unter Akzeptanzgesichtspunkten erfolgversprechender gewesen,
um im Rahmen der existierenden (Nachhaltigkeits)Debatten für die – ohnehin schon für viele
schwer verdaulichen – Thesen zur Veränderung
des Gesellschafts- und Markenrechts zu werben.
Letztlich werden die Intensität und die Richtung
der allgemeinen Rezeption und Diskussion des
Buches in der nächsten Zeit zeigen, wie die vom
Autor gewählte Strategie zu beurteilen ist.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
«»
Seite 111
NACHRICHTEN
NACHRICHTEN
gramme name and, where necessary, a brief
description, including the name of the leading organisation.
Transport Research Knowledge Centre: Launch of the revamped website
The “European Transport Research Knowledge
Centre” is a EU-funded website that connects
transport research solutions to European transport policy.
The newly structured Transport Research
Knowledge Centre was launched in July 2004
at the World Congress on Transport Research
(WCTR’04) in Istanbul. At
In order to ensure that these results are harmonised, a common European Transport Research Reporting Scheme has been developed
with the support of an Advisory Board composed of representatives from national transport ministries.
For making submissions, transport project
co-ordinators can use the Word forms for
download (Project Profile, Progress Summaries
and Result Summary) or directly use the online
reporting facility via a secure extranet (go to
http://www.transport-research.info).
«
http://europe.eu.int/comm/transport/extra/
web/index.cfm
the website offers information on how European (e.g. FP4, FP5, etc.) and national transport
research programmes and projects can help “to
develop guidelines and innovative tools to support sustainable mobility”.
The website currently features summaries
of 206 international, European and national
research programmes.
At the project level, FP4 results have all
been re-categorised according to a multidimensional thematic structure. Thematic findings are provided once final results are available while policy implications are analysed
across the results contributing to specific
themes and presented in thematic reports. In
the future, results from all 30 countries represented will be made available to the research
and business communities, as well as public
service providers and governments.
In addition to the Programmes database a more
concise guide is now available for distribution
to a wider audience.
For each country, you will find:
- A short introduction outlining the main
actors and organisation of transport research.
- A list of government departments (ministries) and state agencies involved in transport research and their web sites.
- A list of programmes sponsored by these
government bodies. This includes the pro-
Seite 112
Bibliographie zu Fragen der Inter- und Transdisziplinarität
Seit Anfang Juni 2004 steht die in den letzten
Jahren von der Forschungsgruppe Inter-/Transdisziplinarität (IKAÖ, Universität Bern) aufgebaute Bibliographie zu Fragen der Inter- und
Transdisziplinarität als Online-Datenbank mit
ca. 3.000 Eintragungen auf dem Netz zur Verfügung:
http://www.interdisciplinarity.ch/
Das Ziel der Forschungsgruppe besteht darin,
zur Verbesserung inter- und transdisziplinärer
Prozesse beizutragen. Sie nimmt eine gesamtheitliche Perspektive ein und versucht,
Theorie und Praxis zu verbinden, den Bogen
von der Forschung bis zur Lehre zu schlagen
und dabei möglichst sämtliche Aspekte interund transdisziplinären Arbeitens in den Blick
zu nehmen.
Kontakt
Dr. Antonietta Di Giulio
E-Mail: digiulio@ikaoe.unibe.ch
«»
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
DISKUSSIONSFORUM
DISKUSSIONSFORUM
Innovationspolitische Aspekte
der geplanten Einführung eines
elektronischen Maut-Systems
in Deutschland*
von Günter Halbritter, Torsten Fleischer
und Christel Kupsch, ITAS
Die vornehmlich als industriepolitische Panne angesehene, bisher an technischen und
organisatorischen Problemen gescheiterte
Einführung des technisch anspruchsvollen
elektronischen Mautsystems Toll Collect in
Deutschland offenbart auch innovationspolitische Defizite, die in Deutschland vorliegende politische Rahmenbedingungen für die im
Augenblick intensiv diskutierten Innovationen betreffen. Nachfolgend werden innovationspolitische Aspekte der geplanten Einführung eines elektronischen Maut-Systems in
Deutschland auf der Grundlage von Erfahrungen aus mehreren vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungsprojekten, die am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Forschungszentrums
Karlsruhe durchgeführt werden und wurden,
und die den Vergleich von Innovationsstrategien im Bereich der Verkehrstelematik in
verschiedenen Ländern zum Untersuchungsgegenstand haben, kommentiert.
Vergleichende Untersuchungen von Innovationsstrategien im Bereich der Verkehrstelematik
(VT) in verschiedenen Ländern, die vom ITAS
durchgeführt wurden bzw. zurzeit noch laufen,
zeigen, dass infrastrukturbasierte Innovationen,
d. h. solche. deren Realisierung mit dem Aufbau von Infrastrukturleistungen verbunden ist,
nicht nur einer konzeptionell-strategischen,
sondern auch einer organisatorischen Begleitung durch staatliche Institutionen bedürfen,
wenn sie erfolgreich realisiert werden sollen
(Halbritter u. a. 1999; Halbritter u. a. 2002). In
Deutschland hingegen wird Innovationsmanagement vornehmlich als Aufgabe der Industrie
angesehen. Komplexe Aufgaben wurden auch
im Falle von Toll Collect als Ganzes an die
Industrie übergeben, in der Hoffnung, ihr wer-
de die Realisierung schon gelingen. Die gesamte Einführungsstrategie, die Überprüfung vorgegebener bzw. festgelegter Schritte während
der Einführungsphasen stehen damit nicht
mehr im Einflussbereich der Politik. Die fehlenden Möglichkeiten des Eingreifens staatlicherseits bei der Koordinierung sind unter anderem als ein Grund für die Probleme bei der
Einführung der satellitengestützten Lkw-Maut
anzusehen.
Unstrittig ist der eigentliche Grund für die
in den Medien als Maut-Desaster beschriebene
Technikpanne eine Fehleinschätzung der Komplexität, die mit der Einführung neuer IuKTechniken im Rahmen integrativer Konzepte im
großtechnischen Maßstab verbunden sind. Dabei
ist im Rahmen von Toll Collect im Wesentlichen das organisatorische Problem der Systemintegration von Komponenten zu leisten, deren
Basistechniken, wie z. B. GPS und GSM, weitgehend bekannt und erprobt sind. Das Scheitern
dieser Systemintegration weist darauf hin, dass
in jüngster Vergangenheit die Entwicklung
technischer und organisatorischer Kompetenzen,
die früher eine besondere Stärke der deutschen
Industrie darstellten, hinter ökonomische Prioritätensetzungen zurückgetreten ist. So beklagen
heute viele Ingenieure gerade der fortgeschrittenen Altersstufen, dass in den vergangenen Jahren der kreative, gestalterische Einfluss ingenieurwissenschaftlicher Kompetenz zurückgedrängt wurde. Diese Tendenz kennzeichnet besonders auch die Entwicklung im Bereich der
Bahntechnik. Das Tragische an dieser Entwicklung ist, dass bei der Vielzahl der Pannen bei der
Einführung neuer Techniken auch die ökonomischen Erwartungen nicht in Erfüllung gingen.
Insgesamt lässt sich in jüngster Vergangenheit die widersprüchliche Entwicklung beobachten, dass einerseits neue technische Produkte,
wie Digitalkameras und Mobiltelefone, sich
großen Interesses sowohl seitens der breiten
Öffentlichkeit als auch der Medien erfreuen.
Dem steht jedoch nur ein sehr schwach ausgeprägtes Interesse an den eigentlichen technischen Konzepten gegenüber, die Grundlage für
diese neuen Produkte und Dienstleistungen sind.
Dies spiegelt sich auch wider in dem schweren
Stand, den kompetenter Technikjournalismus in
Deutschland besitzt. So war und ist auch die
mediale Diskussion im Falle der LkW-Maut gar
nicht von technischen Problemen geprägt, selten
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 113
DISKUSSIONSFORUM
ist von ihnen überhaupt die Rede, vielmehr spielen vornehmlich Spezialfragen der Vertragsgestaltung eine viel bedeutendere Rolle. Auch vom
Verkehrsministerium vergebene Beraterverträge
zielen dem Vernehmen nach vornehmlich auf
rechtliche und wirtschaftliche Fragestellungen
und nicht auf die technische Umsetzung von
Mautkonzepten, andernfalls hätten kritische
technische Machbarkeitsaspekte zumindest als
mögliches Umsetzungsproblem angesprochen
werden müssen.
Dieser mangelnde Bezug von Entscheidungsträgern und Multiplikatoren zu den grundsätzlichen Funktionsweisen technischer Konzepte ist auch ein Grund für unrealistische Visionen
zu deren Leistungsfähigkeit und notwendiger
Umsetzungszeiträume. Toll Collect ist ein Beispiel für eine solche utopischen Visionen entspringende Überschätzung technischer Systeme.
Diese Überschätzung geht sogar so weit, dass in
Deutschland, wie das Beispiel von Toll Collect
ebenfalls zeigt, verkehrspolitische Überlegungen
technischen und industriepolitischen Konzepten
untergeordnet werden. Dies kann in kaum einem
anderen Land so deutlich beobachtet werden wie
in Deutschland. So besteht seit vielen Jahren bei
den großen Parteien Konsens darüber, dass der
Güterverkehr angemessene Anteile an den Infrastrukturkosten zu tragen hat und dass streckenbezogene Straßenbenutzungsgebühren das geeignete Instrument hierzu seien. Aber anstatt
diese Einschätzung schon vor Jahren mit verfügbaren und erprobten terrestrischen Techniken
umzusetzen, wird ein „Hightech“-Konzept entwickelt, dass bezüglich seiner technischen Auslegung – Gebührenabbuchung auch bei hohen
Geschwindigkeiten und gleichzeitigem Spurwechsel – für den LkW-Verkehr absolut überdimensioniert ist. Die Realisierung einer vernünftigen verkehrspolitischen Einsicht muss
daher auf die Entwicklung eines überdimensionierten „Hightech“-Konzepts warten.
1 Der Staat als Innovationsmanager?
Ein wesentliches Ergebnis der oben genannten,
vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungsprojekte
des ITAS, die sich mit Innovationsstrategien im
Bereich der Verkehrstelematik in verschiedenen
Ländern befasst haben, war, dass infrastrukturbasierte Projekte, d. h. Vorhaben, deren Reali-
Seite 114
sierung mit dem Aufbau von Infrastrukturleistungen verbunden ist, nicht nur einer konzeptionell-strategischen, sondern auch einer organisatorischen Begleitung durch staatliche Institutionen bedürfen, um erfolgreich zu sein. Diese
Erkenntnis der Notwendigkeit staatlichen Engagements über vertragsrechtliche Regelungen
hinaus findet nicht nur in den USA, sondern
auch auf der Ebene der Europäischen Union und
einer Reihe europäischer Staaten Beachtung, die
verkehrstelematische Konzepte entsprechend
verkehrspolitischen Strategien teilweise bereits
erfolgreich umgesetzt haben. So etwa in Frankreich, Italien, den Niederlanden, dem Vereinigten Königreich, Schweden, Finnland, Tschechien und Österreich. Deutschland hingegen
verzichtet bisher auf die Entwicklung verkehrsstrategischer Konzepte zum Einsatz der Verkehrstelematik und hofft auf die Wirkung autonomer Marktmechanismen, ohne dass vorher
entsprechende Rahmenbedingungen für einen
solchen Markt entwickelt wurden. Dies geschieht auf der Grundlage von Fehlinterpretationen von Konzepten, wie das der „Public Private
Partnership (PPP)“.
Besonders überraschend ist die innovationsstrategische Praxis in den USA, dem Land,
das zumeist als Vorbild für erfolgreiche Innovationsaktivitäten gilt. Im Vergleich zu
Deutschland ist dort ein bemerkenswert hohes
staatliches Engagement bei der Konzeption und
Durchsetzung von Innovationsstrategien im
Bereich der Verkehrstelematik, dort ITS – Intelligent Transportation Systems genannt, festzustellen. Die Entwicklung und der Einsatz der
neuen Techniken wird dabei keineswegs der
Industrie allein überlassen, vielmehr fördern
staatliche Institutionen nicht nur die Einführung von ITS in einer systematischen und konsequenten Weise, sondern begleiten diese auch
in der Einführungsphase (deployment) und
üben einen gezielt lenkenden Einfluss im Hinblick auf die angestrebten Zielvorgaben aus.
Man ist geneigt, angesichts des Fördervolumens für nationale ITS-Programme von einem
gigantischen staatlichen Technikeinführungsprogramm zu sprechen.
Die Vielzahl staatlicher Aktivitäten in diesem Bereich erweckt den Anschein eines Planungsperfektionismus, bei dem staatlichen Institutionen vornehmlich die Vorgabe der strategischen Ausrichtung zukommt. Insbesondere vier
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
DISKUSSIONSFORUM
Aspekte kennzeichnen die US-amerikanischen
Aktivitäten: So werden von den für die Verkehrspolitik verantwortlichen staatlichen Institutionen nicht nur zukunftsorientierte Programme
festgelegt, sondern diese Programme bestimmen
auch gesetzliche Regelungen zur Einführung
und Umsetzung neuer Techniken und Dienste.
Noch konkreter bezüglich der Umsetzung der
neuen Techniken und Dienste sind die Vorgaben
der so genannten nationalen Architektur, die
sich nicht nur auf die Schnittstellenabstimmung
verschiedener technischer Einzelmodule beziehen, sondern grundsätzliche Aspekte und Anforderungen für die Einführung neuer Techniken
und Dienste beschreiben. Schließlich ist das
systematische Projektmanagement nicht nur bei
der Entwicklung, sondern auch beim Einsatz der
neuen Techniken und Dienste in konkreten Anwendungszusammenhängen zu erwähnen.
Um dieses systematische Projektmanagement leisten zu können, wurden in den USA
auch institutionelle Voraussetzungen im administrativen Bereich und bei der wissenschaftlichen Begleitung der Programme geschaffen. So
wurde in den USA nicht nur im US-Verkehrsministerium (US-DoT) mit dem „Joint
Program Office“ eine ressortübergreifende
Querschnittsorganisation für die verschiedene
Verkehrsträger betreffenden ITS-spezifischen
Fragen eingerichtet, sondern auch spezielle
wissenschaftliche Institutionen, wie das Volpe
Center mit Begleituntersuchungen beauftragt,
das mit seinen vielfältigen Kompetenzen im
Bereich der strategischen Innovationsplanung
und der unmittelbaren wissenschaftlichen Politikberatung in diesem Bereich sehr hilfreich ist.
Auch in der EU wurde, wie bereits erwähnt, die Notwendigkeit einer konzeptionellen Gestaltung der Verkehrstelematik im Hinblick auf verkehrs- und umweltpolitische Anforderungen erkannt und auch umgesetzt. So
wurde eine „EU Rahmenarchitektur“ der Verkehrstelematik entwickelt, die Strukturen und
Funktionen der neuen Techniken und Dienste
beschreibt. Sie soll als Grundlage für die Entwicklung von „nationalen Architekturen“ dienen. Ein Großteil der EU-Länder haben die
entsprechenden Vorgaben der EU auch in Form
von „nationalen Plänen“ und „nationalen Architekturen“ bereits umgesetzt bzw. sie sind
dabei, diese umzusetzen. In Deutschland wurde
bisher jedoch keine Notwendigkeit gesehen,
von Seiten der Regierung strategische und organisatorische Vorgaben zu machen.
Als wir im Jahre 1999 die US-amerikanische Vorgehensweise vor Vertretern des BMBF
und des damaligen BMV, heute BMVBW, vorstellten, war der lakonische Kommentar des
Vertreters des Verkehrsministeriums zu unseren
Ausführungen, eine nationale Architektur werde
es in Deutschland nicht geben. Von Seiten der
Politik sei alles getan, jetzt sei die Industrie am
Zuge und der Markt werde die Einführung der
neuen Techniken und Dienste regeln. Eine Einschätzung, die schon deshalb sehr erstaunlich
ist, da die USA nicht gerade das Land ist, wo
Marktprozesse eine unbedeutende Rolle spielen.
2 Unterschiedliches Verständnis von
„Public Private Partnership (PPP)“
Die unterschiedliche Einschätzung der Notwendigkeit staatlichen Engagements bei der Realisierung von Innovationsstrategien wird auch aus
der unterschiedlichen Bedeutung des Begriffs
„Public Private Partnership (PPP)“ deutlich.
Dieser Begriff erfreut sich in Deutschland einer
Beliebtheit, die weit über diejenige anderer Anglizismen hinausgeht. Dabei ist jedoch bemerkenswert, dass in den USA ganz andere Vorstellungen über die grundsätzliche Bedeutung und
die praktische Realisierung von PPP bestehen
als in Deutschland. Dort werden, wie bereits
erwähnt, PPP-Projekte im Bereich der Verkehrstelematik vornehmlich auf der Grundlage
staatlicher Strategiekonzepte und Programme
durchgeführt. Privaten Unternehmen werden im
Rahmen der Realisierung dieser Programme klar
umrissene Arbeitspakete zugewiesen. Umfangreiche staatlich koordinierte Evaluationsprogramme begleiten die praktische Umsetzung.
Um diese konzeptionellen Arbeiten zu leisten,
wurden sowohl in der einzelstaatlichen wie auch
der Bundes-Administration entsprechende organisatorische Voraussetzungen geschaffen. Auch
stehen, wie bereits erwähnt, kompetente Einrichtungen zur wissenschaftlichen Politikberatung für diese komplexen Innovationsvorhaben
zur Verfügung. Für mit deutschen Verhältnissen
Vertraute erstaunt auch immer wieder die Deutlichkeit mit der in den Evaluationsberichten die
noch vorliegenden Defizite benannt werden. So
wird in dem Evaluationsbericht zu einem vom
US-Verkehrsministerium in vier US-Ballungs-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 115
DISKUSSIONSFORUM
räumen durchgeführten Projekt zur Einführung
von Telematikdiensten klar ausgesprochen,
dass bisher kein einziges erfolgreiches PPPProjekt realisiert werden konnte („...there was
no successful PPP-project“; US-DoT 2001).
In Deutschland hingegen wird Innovationsmanagement vornehmlich als Aufgabe der
Industrie angesehen. Es wurden zwar eine Reihe
von Innovationsbeiräten gegründet, diese haben
jedoch bisher keine wirklich gestaltenden Aktivitäten entfaltet. Im administrativen Bereich auf
der Ebene des Bundes werden bestimmte technische Entwicklungslinien im Rahmen von Programmen des BMBF gefördert. Diese werden
aber häufig – zumindest in der Frühphase –
unter einseitig industriepolitischen Aspekten
ohne Einbeziehung der jeweils verantwortlichen
Fachressorts und damit auch ohne frühzeitige
Analyse der praktischen Umsetzungsmöglichkeiten vorangetrieben. Dies kann, wie das Beispiel des Magnetschwebebahnsystems Transrapid zeigt, zu erheblichen Problemen führen.
Technisch durchaus interessante und viel versprechende Projekte scheitern, weil der Analyse
der Umsetzbarkeit und der staatlichen Begleitung der Umsetzung (deployment) nicht frühzeitig der notwendige Stellenwert gegeben wird. In
den angelsächsischen Ländern sind die Förderung von Technikentwicklungen wie auch die
Einführung neuer Techniken zumeist Gegenstand der Fachadministrationen, die dadurch
gezwungen sind, Einführungsstrategien zu entwickeln und entsprechende organisatorische
Strukturen aufzubauen, die sich an den spezifischen Bedingungen der Einführung der neuen
Techniken zu orientieren haben.
3 Ineffektiver Innovationsdiskurs
Das Beispiel des Mautsystems Toll Collect zeigt
somit auch die erheblichen Auswirkungen, die
Defizite im administrativen Bereich haben können. Komplexe Aufgaben wurden auch in diesem Fall als Ganzes an die Industrie übergeben,
in der Hoffnung, ihr werde die Realisierung
schon gelingen. Die gesamte Einführungsstrategie, die Überprüfung vorgegebener bzw. festgelegter Einführungsphasen stehen damit nicht
mehr im Einflussbereich der Politik. Da weder
nationale Programme noch entsprechende Gesetze für die Einführung der neuen Techniken
als notwendig erachtet werden, sind diese auch
Seite 116
nicht Gegenstand parlamentarischer Beratungen.
Ohnehin ist die parlamentarische Arbeit in
Deutschland nicht durch innovationspolitische
Diskurse oder Initiativen gekennzeichnet, sieht
man von wenigen Ausnahmen, wie dem Gentechnikgesetz, einmal ab. Das Parlament besitzt
zwar kompetente Beratungseinrichtungen zur
Problematik der Einführung von neuen Technologien, diese werden aber zumeist zur Beratung
über langfristige Entwicklungen und weniger
zur unmittelbaren Technikeinführung herangezogen. An dieser Situation ändert auch die vor
kurzem initiierte Innovationsdebatte nichts, die
bisher in keinem Fall konkret geworden ist oder
Visionen derjenigen Innovationen entwickelte,
die für die Zukunft von Bedeutung sein sollten,
z. B. um die oft geforderte „nachhaltige Entwicklung“ zu befördern.
Dieser neuerlich in Deutschland initiierte
Innovationsdiskurs, wenn man den Äußerungen der vergangenen Monate diese anspruchsvolle Bezeichnung zuordnen kann, bleibt auch
deshalb oberflächlich, da dem mit der Forderung nach Innovationsbereitschaft verbundenen
Anspruch an die Politik, in Legislative und
Exekutive, nur unzureichend entsprochen wurde. Innovationen sind Umsetzungen technischer und organisatorischer Neuerungen in die
gesellschaftliche Praxis. Sie erfordern daher
auch entsprechende politische Rahmenbedingungen, um verwirklicht zu werden. Insbesondere die neuen Informations- und Kommunikationstechniken (IuK-Techniken) können ihre
Systemvorteile erst dann entfalten, wenn die
entsprechenden Bedingungen vorliegen.
Als Fazit bleibt zu betonen, dass es zu einfach wäre, die Panne bei Toll Collect allein der
Industrie anzulasten, ebenso große Versäumnisse sind auch den politisch Verantwortlichen zu
zuschreiben. Hier wird zwar gerne von Innovationen gesprochen, aber weder im Ministerialbereich noch auch im Parlament wurden Strukturen aufgebaut, um den mühsamen Prozess –
Innovationsmanagement als Umsetzungen technischer Neuerungen in der Gesellschaft – zu
begleiten, so wie es in anderen Staaten geschieht. Es besteht die Gefahr, dass die am Beispiel Toll Collect deutlich gewordene mangelnde Bereitschaft, technischen Problemen eine
entsprechende Bedeutung zuzumessen, zusammen mit dem mangelnden Interesse in der Gesellschaft, technische Probleme bezüglich ihrer
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
DISKUSSIONSFORUM
Komplexität zur Kenntnis zu nehmen, auch
andere Bereiche, wie etwa die Energieversorgung, treffen kann. Dies würde erhebliche Auswirkungen auf unsere technisch-zivilisatorisch
geprägte Gesellschaftsstruktur haben. In diesem
Sinne kann das Debakel von Toll Collect sogar
einen positiven Besinnungsprozess auslösen
über die Rolle, die der Technikentwicklung in
der Gesellschaft zukommen sollte und wie diese
zu gestalten und zu begleiten wäre.
* Überarbeitete Version des zuerst in der Zeitschrift
Internationales Verkehrswesen, Band 56, Heft
9/2004, S. 363-366 veröffentlichten Beitrags.
Literatur
Halbritter, G.; Bräutigam, K.-R.; Fleischer, T.;
Klein-Vielhauer, S.; Kupsch, Chr.; Paschen, H.,
1999: Umweltverträgliche Verkehrskonzepte: Entwicklung und Analyse von Optionen zur Entlastung
des Verkehrsnetzes und zur Verlagerung von Straßenverkehr auf umweltfreundlichere Verkehrsträger. Berlin u. a.: Erich Schmidt Verlag (Beiträge zur
Umweltgestaltung A 143)
Halbritter, G.; Bräutigam, K.-R.; Fleischer, T.; Fulda, E.; Georgiewa, D.; Klein-Vielhauer, S.; Kupsch,
Chr., 2002: Verkehr in Ballungsräumen: Beiträge
von Verkehrstelematiktechniken und -diensten für
einen effizienteren und umweltverträglicheren Verkehr. Berlin u. a.: Erich Schmidt Verlag (Beiträge zur
Umweltgestaltung A 149)
US-DoT, 2001: Deploying and Operating Integrated
Intelligent Transportation Systems. US-DoT Pub. No.
13599
ISBN: 3-5030-4805 7; Preis: EUR 44,80
Kontakt
Prof. Dr. Günter Halbritter
Forschungszentrum Karlsruhe in der HelmholtzGemeinschaft
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Postfach 36 40, 76021 Karlsruhe
Tel.: +49 (0) 72 47 / 82 - 48 71
Fax: +49 (0) 72 47 / 82 - 48 06
E-Mail: halbritter@itas.fzk.de
Internet: http://www.itas.fzk.de
ISBN: 3-503-06686-1; Preis: EUR 29,80
«»
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 117
TAGUNGSBERICHTE
TAGUNGSBERICHTE
Of Visions, Dreams and Nightmares: The Debate on Converging Technologies
Report on the Conference „Converging
Technologies for a Diverse Europe“,
Brussels September 14 – 15, 2004
by Christopher Coenen, TAB, Michael Rader
and Torsten Fleischer, ITAS
1 The context
The occasion for the conference “Converging
Technologies” was the launching of a public
discussion on the report of a High-Level Expert
Group (HLEG) “Foresighting the New Technology Wave”. The report, entitled “Converging
Technologies – Shaping the Future of European
Societies”, was edited by the philosopher Alfred
Nordmann. Additionally, there were reports
from several special interest groups (or working
groups of the panel as a whole), position papers
from individual members of the HLEG, a collection of state of the art reviews and related papers, and finally a set of comments by invited
experts submitted prior to the conference.*
The exercise was organised by the foresight
unit (K2) within the European Commission’s
Directorate General Research. The HLEG was
set up towards the end of 2003 and met formally
four times between February and mid-June
2004, with communication within the special
interest groups (SIGs) organised by their respective chairpersons. It was composed of a total of
25 experts coming from a broad range of scientific disciplines and chaired by the historian
Kristine Bruland of the University of Oslo.
The HLEG was set up largely in reaction
to activities on the convergence of nanotechnology, biotechnology, information technology
and cognitive science (abbreviated and hence
forward referred to as NBIC) by the National
Science Foundation in the US, most notably the
publication of a conference report “Converging
Technologies for the Improvement of Human
Performance” (Roco, Bainbridge 2002; see
section 2 below) and subsequent annual conferences on the topic.
Seite 118
2 The background
Converging Technologies (CT) emerged as an
issue of scientific and political discussion in the
US. It takes up the notion of ‘convergence in the
digital world’ which was developed in the IT,
multimedia and entertainment industries in the
nineties, and applies it to a current technological
trend: Nanotechnology enables many new approaches, processes and materials at the nanoscale as well as analytical access to and theoretical understanding of fundamental chemical,
physical and biological processes at atomic and
molecular level. The implications of these
trends, and their synergies with information
technology are described in a RAND report
published in 2001 (RAND 2001). On December
3-4, 2001, the National Science Foundation
(NSF) and the US Department of Commerce
(DoC) at the request of the National Science and
Technology Council (NSTC), Subcommittee on
Nanoscale Science, Engineering and Technology (NSET), organized a workshop on “Convergent Technologies to Improve Human Performance”. The outcomes of this workshop and
contributions submitted after that meeting were
published in June 2002 in a report of the same
title (Roco, Bainbridge 2002).
According to the report, “the phrase ‘convergent technologies’ refers to the synergistic
combination of four major “NBIC” (Nano-BioInfo-Cogno) provinces of science and technology, each of which is currently progressing at a
rapid rate: (a) nanoscience and nanotechnology; (b) biotechnology and biomedicine, including genetic engineering; (c) information
technology, including advanced computing and
communications; (d) cognitive science, including cognitive neuroscience. Accelerated scientific and social progress can be achieved by
combining research methods and results across
these provinces in duos, trios, and the full quartet. (…) This progress is expected to change
the main societal paths, towards a more functional and coarser mesh instead of the less organized and finer one we have now.”
Topic as well as content of this report almost immediately attracted great attention from
the technology assessment and foresight communities as well as national R&D policies.
After the publication of the US report they
became the subject of international discussions.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
Other reports (TAB 2003; Paschen et al. 2004)
characterized the US approach as being very
futuristic and open to the ideas of “visionary
engineers” (such as Ray Kurzweil) and the
“transhumanist” movement. It has been criticized for mixing science and science fiction
(Royal Society, Royal Academy of Engineering 2004) as well as for displaying a disquieting “insouciance” towards problematic aspects
of the pursuit of human enhancement that
could eventually lead to a “humanly diminished” Brave New World (President’s Council
on Bioethics 2003). It was also a task of the
European HLEG to deal with the questions
raised in the US report. Some of the, from our
perspective, most problematic aspects of the
US NBIC initiative will be outlined below.
• enhanced performance in all areas of human
life,
• “wholly new kinds of rigorous research on
the nature of both culture and personality”
and a unification of knowledge by combining natural sciences, social sciences, and
humanities,
• a global !networked society of billions of
human beings”, comparable to “one single
interconnected ‘brain’” or to “a larger form
of a biological organism”, and
• a “predictive science of societal behaviour”,
allowing “advanced corrective actions”,
based on NBIC and with the goal “to interdict undesirable behaviors before they cause
significant harm to others and to support
and encourage behaviors leading to greater
social goods”.
3 Problematic Features of the US Initiative
on Converging Technologies
While some critics ridiculed this vision, criticized it for its conceptional vagueness and disregard for mainstream science (Royal Society,
Royal Academy of Engineering 2004) or dismissed it as a slippery slope to a Brave New
World (President’s Council on Bioethics 2003),
others appraised it as a pioneering work with
necessarily provocative features that should not
be taken too seriously.
The proponents of the initiative, however,
seem indeed to take their visions seriously: In a
publication on the results of the second NBIC
workshop in February 2003 (Roco, Montemagno 2004), there is some new wording within
the rhetorical framework (e.g. “social responsibility”, “democratic rights”, “deliberate
choices”, “democratization”, “satisfying the
needs of different lifestyles, cultures, and ‘value
sets’”) – and even the idea of starting a NNI
research project “to think about the language
that can best be used to advance our common
cause” (Bond 2004). Problematic features of the
initiative’s approach are nevertheless retained
and even radicalized: In one contribution (Canton 2004) possible misuses of CT by autocratic
regimes and the “specter of eugenics” are mentioned, but it is also deterministically stated that
human enhancement and designed evolution
will inevitably be future tools for shaping societies. In another paper (Bainbridge 2004), a rather
bizarre and polemical piece, the author predicts
that a biology-inspired approach to social sciences “will allow us to engineer culture” and,
The US public-private NBIC initiative could be
seen as a by-product of the US nanotechnology
initiative (NNI) and certain characteristics of
NNI prepared the ground for the CT visions.
The US nanotechnology strategy focussed from
its beginnings - in the middle of the last decade on new forms of transdisciplinarity and the unity
of concepts among disciplines. Along with this
soon came a highly optimistic rhetoric concerning the prospects of technological change. In an
NSF workshop report on nanotechnology research directions published in 1999, an important proponent of the NBIC initiative wrote:
“The convergence of nanotechnology with the
other three power tools of the twenty-first century – computers, networks, and biotechnology
– will provide powerful new choices never experienced in any society at any time in the history of humankind” (Canton 1999). In the
NSF/DOC report (Roco, Bainbridge 2002) this
bold vision is further elaborated: CT can potentially bring about
• a “new renaissance” within the 21st century,
based “on a comprehensive understanding
of the structure and behavior of matter from
the nanoscale up to the (…) human brain”,
• “world peace, universal prosperity and an
evolution to a higher level of compassion
and accomplishment”,
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 119
TAGUNGSBERICHTE
among other things, recommends “memetics”
(cf. Strong, Bainbridge 2002), internet research,
Friedrich Nietzsche’s “The Birth of Tragedy”
and Oswald Spengler’s “The Decline of the
West” as useful starting points for the elaboration of such an approach.
There’s nothing to be said against new
tools of quantitative research, and organic
metaphors, as well as biological concepts, are
quite well established in social sciences and
cultural theory. Even “memetics” may deserve
attention. But the initiative’s long-term goal to
merge different disciplines into a single “hard”
human science is questionable and seems to be
rather unrealistic. In any case, polemics won’t
help to reduce the notorious gap between the
“two cultures” of scientists and humanists. It is
therefore an encouraging sign that some parts
of the US NBIC community seem to be – increasingly – interested in a thorough and comprehensive analysis of the subject. Noteworthy
works are included in the publications of the
initiative (e.g. Gorman 2004, Khushf 2004a, or
earlier Turkle 2002).
The initiative had a useful role in starting
the discussion, and “could be understood in a
more general way as a forum for exploring the
future impact of all science and engineering”
(Khushf 2004b). But it still serves as a vehicle
for some highly idiosyncratic ideas, exhibits
many biases and overly opinionated views, and
suffers from a lack of forthrightness with regard
to its proximity to “transhumanist” and other
radically futuristic thinkers. Overall, the initiative is technology-driven, seems to be heavily
influenced by new governmental perspectives
on national security after 9/11, and conceals that
many of the assumed technical breakthroughs
presuppose scientific knowledge and technological capabilities that will very likely not be
available in the foreseeable future. Cognitive
science is crucial for achieving most of the technological visions but its opportunities and limits
are least addressed. Discussions of ethical, legal
or social issues related to NBIC are largely
avoided. Assessments of hazards and risks as
well as the discussion of values and moral
boundaries are missing. Among the most serious
flaws are the technocratic understanding of society and culture, the dubious evocation of the
renaissance, the vision of a perfect future, the
carefree siding with the proponents of a neural
Seite 120
turn in social sciences and humanities, the
alarmingly deep fascination with man-machinesymbiosis, and a certain degree of disregard for
diversity and for relevant research findings of
other scientists and scholars.
4 Positions of the European High Level
Expert Group – Analysis of the Report
HLEG (2004) starts the discussion by citing
three rather futuristic passages from the
NSF/DoC report (Roco, Bainbridge 2002), but
then concentrates on the development of an
alternative vision of CT. By doing so, HLEG
avoided a direct critique of the US report – a
prudently chosen modus operandi, given the
report’s highly problematic features, the complicated US context of the NBIC initiative, and
the short length of time at the HLEG’s disposal
In its discussion of the potentials, limits
and implications of convergence, the HLEG
reacted both implicitly and explicitly to the
abovementioned problematic aspects of the US
NBIC initiative:
• The report of the HLEG, perhaps mischievously, adds socio, anthro, philo, geo, eco,
urbo, orbo, macro and micro to the four
“big Os” in NBIC convergence and proposes a distinctively European concept for
convergence, which it calls CTEKS, standing for Converging Technologies for the
European Knowledge Society. A major
aim of this concept is to advance the socalled Lisbon agenda, the European path to
the knowledge society.
• The group developed its own definition of
converging technologies: “Converging technologies are enabling technologies and
knowledge systems that enable each other in
the pursuit of a common goal” (p. 14).
While this definition is very broad, at least
nanotechnology, biotechnology and information technology have undisputed key
roles in convergence. Their mutual enablement is characterized as evident. In addition
the HLEG argues for a special role for the
social sciences and humanities, including
cognitive science in this category rather
than in a group with the NBI part of convergence. It also refrains from hastily taking
sides in the emergent new round of debate
over free will versus (neuro)determinism.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
• HLEG stresses the importance of specific
societal needs that must be identified in order to take advantage of and preserve
Europe’s cultural diversity and to create
economic opportunity. Social sciences and
humanities should provide orientation
where CT could disrupt traditional ways of
life, serve as intermediaries between political actors, CT researchers and society, and
help to assess risks. The report obviously
appreciates the methodological and theoretical diversity of social sciences and humanities as a reflection of the cultural and
political diversity of modern societies.
Moreover, these disciplines are seen as enablers for a human-centered and demanddriven CT applications design.
• The HLEG favors an approach to CT that
prioritizes “engineering for the mind” as opposed to “engineering of the mind”. It is
skeptical towards brain-machine interfaces
and brain implants to enhance mental capabilities and recommends instead the development of tools that can support and improve
social interaction and decision-making in a
diverse Europe and for ageing societies. The
HLEG takes a reserved stance on technological enhancements of mental and physical capabilities that could create a divide between
enhanced and non-enhanced humans – with
the latter being increasingly perceived as
“imperfect” or inferior. Furthermore the
HLEG report warns that an idea of man as
machine could lead to a mechanistic world in
which there is no genuine moral choice. One
may add that far-reaching transformations of
the human body by technological means
would raise questions of identity, e.g. with
respect to the distinction between “having”
and “being a body” (“Körper” and “Leib”, as
in the phenomenological tradition).
• The report includes a set of recommendations for European policy concerning
CTEKS, including quite ambitious endeavours, such as an initiative to widen circles of
convergence (WiCC), starting with the creation of a coordinating office. Although very
good as a starting point for a debate on challenges arising from current developments in
science and technology, further reflection
on and elaboration of some of the ideas
would have been helpful.
5 Structure of the conference
Following an introductory session with speakers from the commission and the HLEG, there
were sessions on understanding convergence
and the process of convergence which mainly
featured presentations by members of the
HLEG and of similar activities elsewhere. A
similar format was employed by sessions on
the next day which examined opportunities for
Europe from the new technology wave and
discussed new research models. Then followed
a panel session involving speakers from various commission services on the role of converging technologies in the current EU research
policy framework. The closing session was a
summing up, in particular, on implications for
European research policies.
6 Notes on the sessions
The major differences between the European
CTEKS and the US American NBIC are perhaps that CTEKS are conceived as a bottom-up
approach, starting from societal needs and involving many scientific disciplines other than
the core of three or four (depending on the
strategic importance of cognitive science),
while NBIC has a strong focus on the improvement of human capabilities and performance, fuelled no doubt by military and security
concerns, and is concentrated on the three established “big Os” (Nano, bio, info) and a
promising newcomer (cogno). The US program
is also extremely ambitious, culminating in the
declaration of a “new renaissance” of science
and including such projects as “mapping the
human cognome” or “memetics” as a new scientific discipline, designed to overcome perceived dead-ends in the social science. The
European program has no such ambitions and
cautions against unbridled technological optimism. The HLEG proposes the involvement of
social sciences and the humanities from the
outset to consider societal needs and concerns
(Bruland, Nordmann in their presentations).
Cognitive sciences are seen as a key field
for CTEKS, which should receive greater
attention at the European and national levels.
The cognitive sciences are marked by a high
degree of interdisciplinarity and include areas
of psychology, neuroscience, linguistics and
philosophy with important impulses coming
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 121
TAGUNGSBERICHTE
from the social sciences. In the past much
attention was given to artificial intelligence
(AI) which, depending on perspectives, can be
seen as an area of cognitive sciences or as a
separate endeavour which uses many results
from the cognitive sciences. There was great
interest in AI in the late 1980s and early 1990s
which ebbed, when promised spectacular progress did not take place. At the moment, neuroscience is at the forefront of cognitive sciences. Cognitive science is making a major
contribution to the understanding of the human as a social being which is essential for
the construction of converging technologies if
these are not to be misused or suffer rejection
(presentation by the philosopher and cognitive
scientist Daniel Andler).
The NBIC initiative has also attracted the
attention of its northern neighbour, Canada,
which concerned itself with convergence in its
own pioneer foresight study on “Biosystemics”, the Canadian variant of convergence,
which gives special attention to ecological
science in addition to the NBIC quartet. Correspondingly, the Canadian foresight program
has devoted special attention to health-related
applications, materials science, food system
integrity and disease mitigation (presentation
by Canadian Foresight director Jack Smith).
No doubt because of the military connotations of the American NBIC concept, there are
concerns that the social aspects of convergence
might be of even greater importance and more
controversial than in such cases as genetic engineering. Since societal attitudes in Europe towards CTs are uncertain, due not least to lacking
awareness at present, it is extremely difficult to
undertake any kind of risk assessment, additionally so, since experts are few and far between
(presentation by Raoul Kneucker). In the US,
social science on nanotechnology is part of the
program outlined in the “21st Century Nanotechnology Research and Development Act”
(108th Congress, 1st Session, p. 189, signed by
the President on December 3, 2003) with funds
earmarked for the purpose. In the NBIC report
(Roco, Bainbridge 2002), there is a proposal to
actually train social scientists in the NBIC sciences during their professional education.
A problem arising from visions for perfecting humans through NBIC is the ethical question of the acceptance of imperfection, such as
Seite 122
disabilities of physical or mental nature, i.e. a
“right to imperfection” which is being debated
in philosophical circles. There is also doubt
about the adequacy of the existing legal framework to deal with questions arising from the
availability of products of converging technologies, .e.g. “right to life”, privacy concerns or the
right to access of certain products in health care.
Convergence is already taking place in
such concepts as “ambient intelligence”, which
relies heavily on nanotechnology to enable
cognition (presentation by José Encarnação,
Chairman of the Information Society Technologies Advisory Group (ISTAG)).
A recurring theme in the conference was
the need for cooperation between scientific
disciplines in such endeavours as CTEKS.
There are various kinds of such cooperation,
including multidisciplinarity, where each discipline as assigned its own tasks and there is
mainly an exchange of results and transdisciplinarity, where cooperation is closer necessitating an exchange on approaches, underlying
assumptions, concepts etc. to be successful
(Eleonora Barbierie Masini). There was seen to
be a need to embed socio-economic aspects in
technological development.
The development of CTEKS in four different scenarios for the future development of
Europe was discussed, with each scenario producing different accents with respect to the
development and application of CTEKS.
There was a recommendation to emphasise
European values in the development of CTEKS,
such as solidarity, justice, cultural diversity and
plurality, employing constructive technology
assessement (Jan Staman). Another recommendation concerned the justification of decisions
on technology policy by decision makers, such
as the European Commission (Françoise Roure
in her presentation). Concerns and worries could
be used to advantage in conceiving new research. New roles emerge for disciplines that are
traditionally focussed on regulation issues and
gatekeeping functions. E.g. toxicology may
serve as a point of information that allows you
to generate more biocompatible materials – the
US chemist Vicky Colvin was cited. In a similar
way, social sciences could be used to generate
more socially and culturally beneficial technologies (Nordmann).
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
Presentations from commission officers
showed that much research which could fall
under the heading of CTEKS in future is already in hand in the sixth framework program.
7 Prospective Outlook
Much space in the report of the HLEG is devoted to issues of interdisciplinary work which
are obviously of great importance but not restricted to convergence of the type which was
the subject of the report. There is thus a need to
discuss various approaches to integration of
relevant disciplines, such as education of social
scientists in the NBIC disciplines as proposed
in the NSF/DoC report (Roco, Bainbridge
2002), or the concept of “embedded social
scientists” as being implemented at the
Nanoscience Centre at the University of Cambridge (UK) (Wilsdon 2004).
In further work, it might be helpful not
only to analyze the US NBIC visions in greater
depth, but also to put them into perspective.
The 2002 NSF/DoC report should not be
treated as an isolated document, but seen
within the context of US and international debates on NBIC and other enabling technologies
and knowledge systems. As the US debate
seems to be heavily influenced by two poles –
an “extremely conservative reluctance” and a
“quasi-religious embracement” of CT (Baird
2003) – it may be possible to learn from these
highly polarised discussions.
In some senses the NBIC debate is reviving
many of the arguments exchanged in the late
1980s – early 1990s debate on artificial intelligence, in which Hans Moravec published a
controversial book with the title “Mind Children” (Moravec 1988), which contains many
central arguments of the “trans-humanists”.
Moravec’s and Ray Kurzweil’s mentor, Marvin
Minsky, a pioneer of artificial intelligence from
the 1950s on, in fact argues for a central role
for nanotechnologies in a 1994 article for the
“Scientific American” asking the provocative
question “Will robots inherit the Earth?”:
“…our nanotechnologies should enable us to
construct replacement bodies and brains that
won’t be constrained to work at the crawling
pace of ‘real time’” (Minsky 1994). At this time,
there was also a lively debate in parts of Europe
on many aspects of artificial intelligence fuelled
largely by public and industrial interest in “expert systems”. At the time, a distinction was
made between applications designed to replace
human beings (experts) and those designed to
support them. Many of the issues discussed
then are resurfacing in connection with NBIC,
so it is instructive to revisit the debate ongoing
at that time for lessons which can be learnt –
especially against the background of a developing societal framework and changing individual
perspectives on and growing societal acceptance
of new medical and pharmaceutical opportunities like cosmetic surgery or drugs to improve
muscle mass and endurance as well as moods,
attention or memory.
Besides the ethical and social concerns
which are the topic of a drifting debate about
CT, there are major doubts about the technological feasibility of many CT applications discussed in the various reports. Although science
and technology have made enormous progress
in the NBIC fields over the last years, many of
the underlying fundamental processes of nature
still are not sufficiently understood. Information
on the state-of-the-art of related technologies is
highly fragmented and often not transparent
(since many research efforts in these fields are
funded by defense research programs). Progress
reports more often than not seem to be biased
because of commercial interests, undisputed
facts and widely accepted research results are
rare. There is a clear need for reliable and wellstructured information on opportunities, challenges and limitations for CT, linked with foresight activities and an analysis of the actual relevance of CT for research policy. Interestingly
enough, the political discussion on CT shows
signs of the same paradox as the debate on
nanotechnology. Much simplified: “It is not
clear, what it really is, what it will enable and
where it will lead to, but in any case it is very
important and will have enormous impact”.
Moreover, the atmosphere in the US now seems
to be rather poisoned: In “transhumanist” and
other technophile circles the members of the US
President’s Council on Bioethics are often seen
as reactionary fanatics. A member of the Council, Francis Fukuyama, recently characterized
“transhumanism” as one of the world’s most
dangerous ideas. There is still a real danger that
the loudest voices will shape the public debate.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 123
TAGUNGSBERICHTE
In any case, it would be unwise to model a
European approach to CT only in opposition to
a single US initiative or by adapting some of its
elements in a European context without careful
consideration: Shared cultural roots - like older
occidental traditions - as well as the specificities of US and European societies and historical experience have to be taken into account.
Otherwise relevant human, ethical and social
aspects of CT and their potentially disruptive
qualities may be neglected. A critical appraisal
of US discussions may also help to avoid a
biased perception of the US cultural climate,
the scientific state of the art and the similarities
and differences between Europe and the US
with regard to CT. Rational curiosity about the
synergistic effects of new technologies, coupled with historical and ethical awareness,
seems to be the stance that is most appropriate
for the forthcoming discussions.
* Most of the material is available at the Conference website (NTW 2004)
Bibliography
Bainbridge, W.S., 2004: The Evolution of Semantic
Systems. In: Roco, M.H.; Montemagno, C.D. (eds.):
The Coevolution of Human Potential and Converging Technologies, op. cit., pp. 150-177
Baird, D., 2003: Testimony at a Full Committee
Hearing on Nanotechnology of the US Senate Committee on Commerce, Science, and Transportation.
01.05.2003
http://commerce.senate.gov/hearings/
testimony.cfm?id=745&wit_id=2012 (17.11.2004)
Bond, P.J., 2004: Vision for Converging Technology
and Future Society. In: Roco, M.H.; Montemagno,
C.D. (eds.): The Coevolution of Human Potential and
Converging Technologies, op. cit., pp. 17-24
Canton, J., 1999: The Social Impact of Nanotechnology: A Vision to the Future. In: NSTC-IWGN (ed.):
Nanotechnology Research Directions. Workshop
Report, The National Science and Technology Council’s Interagency Working Group on Nano Science,
Engineering, and Technology, workshop on January
27-29, 1999, pp. 178-180 (chapter 11.7.13)
http://www.wtec.org/loyola/nano/IWGN.Research.
Directions/IWGN_rd.pdf (17.11.2004)
Canton, J., 2004: Designing the Future: NBIC
Technologies and Human Performance Enhancement. In: Roco, M.H.; Montemagno, C.D. (eds.):
The Coevolution of Human Potential and Converging Technologies, op. cit., pp. 186-198
Gorman, M.E., 2004: Collaborating on Convergent
Technologies: Education and Practice. In: Roco,
Seite 124
M.H.; Montemagno, C.D. (eds.): The Coevolution
of Human Potential and Converging Technologies,
op. cit., pp. 25-37
HLEG – High Level Expert Group ‘Foresighting the
New Technology Wave’, 2004: Converging Technologies – Shaping the Future of European Societies.
By Alfred Nordmann, Rapporteur. Brussels
Khushf, G., 2004a: Systems Theory and the Ethics
of Human Enhancement: A Framework for NBIC
Convergence. In: Roco, M.H.; Montemagno, C.D.
(eds.): The Coevolution of Human Potential and
Converging Technologies, op.cit., pp. 124-149
Khushf, G., 2004b: The Ethics of Nanotechnology.
Vision and Values for a New Generation of Science
and Engineering. In: National Academy of Engineering (ed.): Emerging Technologies and Ethical
Issues in Engineering. Papers from a Workshop,
October 14-15, 2003. The National Academies
Press; http://books.nap.edu/books/030909271X/html/
29.html#pagetop (17.11.2004)
Minsky, M., 1994: Will Robots Inherit the Earth?
Scientific America, October 1994
Moravec, H., 1988: Mind Children – The Future of
Robot and Human Intelligence. Cambridge, Mass.,
London: Harvard University Press
NTW, 2004: Conference Website http://www.europa.
eu.int/comm/research/conferences/2004/ntw/index_
en.html
Paschen, H.; Coenen, C.; Fleischer, T.; Grünwald,
R.; Oertel, D.; Revermann, C., 2004: Nanotechnologie – Forschung, Entwicklung, Anwendung. Berlin:
Springer-Verlag
President’s Council on Bioethics, 2003: Beyond
Therapy: Biotechnology and the Pursuit of Happiness. Washington DC; http://www.bioethics.gov/
reports/beyondtherapy/beyond_therapy_final_report_
pcbe.pdf (25.11.2004)
RAND, 2001: The Global Technology Revolution.
Bio/Nano/Materials Trends and Their Synergies
with Information Technology by 2015. By Philip S.
Antón, Richard Silberglitt and James Schneider.
RAND National Defense Research Institute
Roco, M.H.; Bainbridge, W.S. (eds.), 2002: Converging Technologies for Improving Human Performance: Nanotechnology, Biotechnology, Information Technology and Cognitive Science.
http://www.wtec.org/ConvergingTechnologies
(17.11.2004)
Roco, M.H.; Montemagno, C.D. (eds.), 2004: The
Coevolution of Human Potential and Converging
Technologies. New York: New York Academy of
Sciences (Annals of New York Academy of Sciences, Vol. 1013, May 2004)
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
Royal Society; Royal Academy of Engineering,
2004: Nanoscience and nanotechnologies: opportunities and uncertainties. RS policy document 19/04.
London, July 2004
Strong, G.; Bainbridge, W.S., 2002: Memetics: A
Potential New Science. In: Roco, M.H.; Bainbridge,
W.S.: Converging Technologies for Improving Human Performance: Nanotechnology, Biotechnology,
Information Technology and Cognitive Science.
http://www.wtec.org/ConvergingTechnologies, pp.
279-286 (17.11.2004)
TAB – Office of Technology Assessment at the
German Parliament, 2003: Summary of TAB
working report No. 92 “Nanotechnology”.
http://www.tab.fzk.de/en/projekt/zusammenfassung/
ab92.htm (07.11.2003)
Turkle, S., 2002: Sociable Technologies: Enhancing
Human Performance when the Computer is not a
Tool but a Companion. In: Roco, M.H.; Bainbridge,
W.S.: Converging Technologies for Improving Human Performance: Nanotechnology, Biotechnology,
Information Technology and Cognitive Science.
http://www.wtec.org/ConvergingTechnologies, pp.
133-140 (17.11.2004)
Wilsdon, J., 2004: Nanotech needs to listen to its
public, and now. Financial Times, 1 September 2004
auch die universitäre und außeruniversitäre
Forschung waren vertreten. Es ging, wie der
die Ministerin vertretende Staatssekretär Dudenhausen einleitend betonte, u.a. darum herauszufinden, für welche Ideen und Entwicklungen die im kommenden Jahr zur Verfügung
stehenden F+E-Mittel (30 Mio. Euro) eingesetzt werden sollen. Dudenhausen forderte
dazu auf, sich die präsentierten Projekte anzusehen, die dann am interessantesten seien,
wenn sich Gebiete überkreuzten, wie z. B. Telekommunikation und Nanoelektronik. Die
heutige mobile Kommunikation sei erst durch
die Nanoelektronik möglich geworden, „und
zugleich ist heute die Mobilkommunikation ein
Hauptmotor für die Nachfrage nach Nanoelektonik“. Forschung und Industrie sollten enger
kooperieren.
Für uns war die Tagung Gelegenheit, eine
Zwischenbilanz zu unserem Forschungsprojekt
über „i-mode“ (das unter dem Programm für
Innovations- und Technikanalysen des BMBF
gefördert wird) auf der Postersession zu präsentieren (http://www.itas.fzk.de/deu/projekt/
webe0333c.htm).
»
1 Struktur und Themenblöcke
Mobilfunkbranche peilt auf
dem Petersberg die Zukunft an
Zukunftsforum Mobiles Internet 2010,
14. - 15. September 2004
Tagungsbericht von Bernd Wingert und
Arnd Weber, ITAS
Der Ort war gut gewählt, das Gästehaus der
Bundesregierung auf dem Petersberg in Königswinter, denn er passte mit seinem prachtvollen Ambiente gut zu der wieder zu Optimismus neigenden Stimmungslage der Mobilfunkbranche. Die Konferenz war Gelegenheit
zur Standortbestimmung, zum Rückblick auf
bisherige Entwicklungen und das darin Versäumte, wie zum Ausblick auf komplexer werdende Infrastrukturen und ein unübersichtlicher
werdendes Feld von Akteuren.
Die Konferenz versammelte weit über 300
Teilnehmer: Mobilfunkbetreiber, Chip- und
Gerätehersteller, Dienste- und Inhalteanbieter,
Die Konferenz ging über zwei Tage; es gab am
ersten Tag eine ‚Keynote’ von René Obermann
(Vorstandsvorsitzender der T-Mobile International AG), und am folgenden Tag sogar zwei
Keynotes, die erste von Thomas Ganswindt
(Siemens, IuK-Netzwerke), die zweite von
Jeffrey Funk (Hitotsubashi University, Tokio).
Die Beiträge am Nachmittag des ersten Tages
waren den Themen „Infrastruktur“ und „Endgeräte“ gewidmet.
Nach den beiden Keynotes des zweiten
Tages waren „Internationale Trends“ Gegenstand der Betrachtung, danach „Anwendungsfelder und Geschäftsmodelle“. Am Nachmittag
ging es erneut um Infrastrukturen, nun aber
explizit um „Mobile Netze der Zukunft“.
Da es wenig informativ wäre, alle Beiträge
mit der gleichen Intensität zu beleuchten, wählen wir aus und sparen die Sektionen über ‚Gerätetechnik’ und jene zu ‚Anwendungen’ ganz
aus und gehen auch innerhalb der Sektionen
nicht auf jeden einzelnen Beitrag ein.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 125
TAGUNGSBERICHTE
2 Infrastruktur: Wie sehen Betreiber und
Ausrüster Stand und weitere Entwicklung?
Diese Sektion wurde von Gerhard Fettweis geleitet, der an der TU Dresden die Vodafone Stiftungsprofessur innehat. Der einführende Vortrag
von René Obermann sei ebenfalls hier subsumiert. Während sich Wiemann (Vodafone) mit
der unmittelbar anstehenden Zukunft befasste
(der Übergang auf DVB-T und -H, „Digital
Video Broadcasting-Terrestrisch bzw. –Handheld“) und Möglichkeiten auslotete, welche
Marktnischen ein Handy-angepasstes TV besetzen könnte, gingen Wulf (Alcatel, Vorstand
Marketing, Vertrieb) und Horn (T-Mobile, Geschäftsführer Technik) auch schon auf die Auslegung künftiger konvergierender Netze ein. Im
Vergleich dazu nahmen die Vertreter der beiden
Netzbetreiber (Obermann für T-Mobile und
Dirks für E-Plus) auch einen kritischen Rückblick vor, der in seiner deutlichen Sprache und
Offenheit überraschte. Kritisch kommentiert
wurden von Obermann u. a. die unterschätzte
Komplexität des mobilen Internet, der Konfigurierungsaufwand für den Nutzer, der nicht immer zufrieden stellend arbeitende Bildtransport,
oder der Umstand, dass das Marketing zu lange
über die Technologie aufgezogen worden sei
und in Zukunft „mehr Kundenverständnis“ aufgebracht werden müsse.
Die Komplexität des mobilen Internet sei,
nicht nur von T-Mobile, unterschätzt worden,
angefangen bei der Netztechnologie, über die
Dienstebereitstellung, die Endgeräte und das
Schaffen eines gesamten „Ökosystems“, was
wir dahin interpretieren, eine Vielzahl von
Beteiligten untereinander abzustimmen (Inhalteanbieter, Netzbetreiber, Handyhersteller).
Natürlich sei es gut, wenn die Geräte immer
besser würden, aber es stehe, so Obermann
wörtlich, „wenn wir ganz ehrlich sind, in der
Nützlichkeit der Dienste, in der Einfachheit der
Bedienung und die günstigen Preise, die wir
alle brauchen und wollen für den Massenmarkt,
noch nicht in allen Bereichen zum Besten.“
Freilich zeigte sich Obermann auch vom Erfolg
des mobilen Internet überzeugt.
Wo muss nach Ansicht von René Obermann in Zukunft anders gehandelt werden? Er
ging auf fünf Punkte ein: 1) Zwar müsse man
alternative Technologien zu UMTS wie WiFi,
WiMAX oder OFDM verfolgen, aber sie wür-
Seite 126
den in Zukunft ein Netz sehen, das aus verschiedenen Komponenten aufgebaut sei. Das
Ganze müsse einfach tarifiert werden. 2) Die
Kunden wollten Mobilität und seien bereit,
dafür zu bezahlen. Das heutige relativ hohe
Preisniveau im Mobilfunk sei aber nicht zu
halten. Wichtig sei „Ende-zu-Ende-Qualität“.
3) „Schaffe das mobile Ökosystem!“ war eine
weitere Forderung. Man könne in Zukunft
nicht mehr alles alleine machen, „walled garden“-Modelle seien nicht mehr aktuell. 4) Man
müsse für den Kunden die Komplexität reduzieren, den Techno-Jargon verlassen, die
Dienste einfacher machen und auch an die älteren Nutzer denken. 5) Bessere Geräte, mehr
Speicher, bessere Displays – das alles sei richtig, aber entscheidend sei, die Gerätesubventionierung herunterzufahren, auch auf die Gefahr
hin, dass ein Anbieter dann 1% Marktanteil
verliere. Die Zeit, so Obermann resümierend,
wo es um schiere Kundenzahlen ging, sei vorbei. Die Branche müsse sich daran gewöhnen,
unter „reifen Marktbedingungen“ zu agieren.
Im kritischen Rückblick auf die bisherige
Entwicklung traf sich Thorsten Dirks in vielen
Punkten mit René Obermann, so etwa darin,
dass die Branche zu technikgetrieben sei und die
Kundenorientierung vernachlässigt habe, oder
dass die „walled garden“-Strategie in einem
mobilen Internet nicht mehr gehen würde. Aber
er teilte nicht den Optimismus über den Erfolg
von „public hot spots“. Man prüfe zwar auch die
neuen Möglichkeiten (wie WiMAX), aber als
Technologie im Hintergrund, nicht für die Kundenseite. Was künftige Geschäftsmodelle angeht, plädierte Dirks weder für ein völlig offenes
Modell, wo der Betreiber nur als „Pipe“ fungiert, noch für ein völlig geschlossenes. Nach
seiner Einschätzung liege das Optimum in der
Mitte, also in etwa ‚kontrollierte Offenheit’.
3 Mobiles Internet – was ist das eigentlich?
In den beiden Keynotes am Mittwochvormittag
ging es zum einen schwerpunktmäßig um „machine to machine communication“ (von Thomas Ganswindt; Siemens, Bereichsvorstand
Information and Communication Networks)
und zum anderen um „mobile Internet“ (von
Jeffrey Funk, Tokio). Wir konzentrieren uns
auf den zweiten Beitrag und schlagen, um das
von Obermann Gesagte und das Folgende bes-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
ser einordnen zu können, drei Varianten von
„mobilem Internet“ vor.
(1) Eine erste Variante bezieht sich auf die
drahtlose Nutzung herkömmlicher InternetDienste, z. B. mittels Laptop oder PDA. Damit
kann etwa ein Außendienstmitarbeiter über
UMTS oder WiFi Daten aus dem Internet holen kann. Bei dieser Variante kommen Handys
noch nicht ins Spiel. (2) Geht es um Angebote
wie ‚Vodafone live’ ‚T-Zones’ von T-Mobile
oder ‚i-mode’ von E-Plus, dann handelt es sich
um Portale der Betreiber, die per Handy zugänglich sind (per Vertrag), um etwa Nachrichten abzurufen oder die aktuelle Wetterkarte
anzusehen. Aufgrund des kontrollierten Zugangs nennt man ein solches Konzept „walled
garden“. (3) Die dritte Variante liegt vor, wenn
Internet-Standards implementiert sind, wie bei
„i-mode“ in Japan, so dass man vom Handy
aus direkt eine URL anklicken und die hinterlegte Information abrufen kann (sinnvollerweise für die Bildschirmgröße von Handys angepasst). Diese Variante hat Funk im Auge, wenn
er über „Solving the start up problems in Western mobile Internet markets“ spricht.
Zunächst ging es ihm darum, gängige Vorurteile über den japanischen Mobilfunkmarkt zu
zertrümmern, so wenn betont werde, dass die
Beschäftigten in Japan sehr viel und lange mit
dem Zug fahren, weniger den PC nutzen und
Japan eben, auch kulturell, anders sei: „Success
of Japan’s mobile Internet has nothing to do
with trains and low PC Internet usage“.
Für die hohe Handy-Nutzung in Japan sei
vor allem entscheidend, was er „push-based
Internet Mail“ nannte. Damit werde es möglich, Mails vom PC direkt auf das Handy zu
leiten, in die Nachricht eine URL aufzunehmen, die dann wiederum klick- und nutzbar ist,
oder es komme zu einer „combination of Internet and other media“.
Das Start-up Problem sieht Funk darin, „to
create a critical mass of users and technology
providers in industries that have network effects“. Maßnahmen, das ‚start up Problem’ zu
lösen, sind nach Funk u. a. eine Vielzahl von
solchen einfachen Anwendungen. Der Markt
entstehe nicht dort, wo Nutzer über einen Browser nach Informationen suchten, sondern wo sie
sich für spezifische Informationen registrieren
lassen, die ihnen per Mail dann zugeht (z. B.
dass ein bekannter Künstler dann und dann auf-
tritt, so dass gleich ein Ticket bestellt werden
kann). Warum würden hiesige Service Provider
solche Dienste nicht einrichten?
Funk sieht solche Gründe etwa darin, sich
das SMS-Geschäft nicht kaputt zu machen,
oder in einem nicht ausreichenden Verständnis
der Bedeutung von ‚Internet mail’: „In my
conversation with service providers I've met
very few people who understand the importance of push-based Internet mail. When you
talk about mail they think, oh yes, business
people want to access their PC mail by their
phone. And I say, that’s important, but that’s
not the most important thing. It’s for all the
other things I've talked about“. Und dazu gehöre auch die Frage, ob Regierungen da nicht
Einfluss nehmen sollten. „The mobile Internet
is too important to leave it to the service providers ... And so I think that governments need
to consider doing some of these things, and the
exact way they do them I don't claim to know“.
Es bleibt abzuwarten, ob sich auch die
hiesigen Anbieter langfristig auf ein solches
offenes Modell zu bewegen werden, wie es
Funk skizzierte.
4 Internationale Trends: DoCoMo in München, Siemens in China und WWRF international
Hendrik Berndt (Senior Vice President der
DoCoMo Euro-Labs in München) befasste sich
mit der Architektur von Netzwerken der nächsten Generation (4G). Das von ihnen favorisierte Modell arbeitet mit offenen Plattformen auf
jeder Ebene; wichtig seien „programmability &
adaptability“ dieser Netzwerke. Auch Berndt
betonte wie andere Referenten (Obermann,
Horn, Wulf), dass das Management solcher
Netzwerke komplizierter werde. In ihrer Sicht
sei 4G eine Kombination von mobiler Welt und
einem „ubiquitous networking environment“,
das sich gegenüber dem Nutzer auch initiativ
verhalten könne. In der Diskussion gefragt,
welche Gründe ein japanisches Unternehmen
denn bewegen würden, in Deutschland ein
Forschungslabor aufzumachen, nannte Berndt
u. a. die in Europa und zumal in Deutschland
vorhandene lange Tradition von Forschung und
die Notwendigkeit, dass DoCoMo im Zuge
einer stärker internationalen Positionierung die
unterschiedlichen „Räume“ (vermutlich auch
als ‚Kulturräume’ gemeint) besser verstehen
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 127
TAGUNGSBERICHTE
müsse. Es gäbe neuerdings auch Labors in den
USA und in China.
Im Vortrag von Peter Weiss (Siemens China) wurde von kulturellen Gegebenheiten immer
wieder gesprochen, und Siemens müsste Bescheid wissen, sind sie doch schon länger als
100 Jahre in China geschäftlich tätig. Bei Siemens China arbeiten 30.000 Beschäftigte (mit
einem Umsatz von 3,3 Mrd. Euro). Ziel sei es,
in den kommenden fünf Jahren den Umsatz zu
verdoppeln. Weiss erläuterte das Ausbildungssystem (allein im IuK-Bereich 350.000 Absolventen pro Jahr), das forschungspolitische System (im Programm „873“ seien auch Forschungsmittel für „Beyond 3G“ enthalten) und
die Telekommunikationsbranche. Sowohl der
führende chinesische Festnetz- als auch der
Mobilfunkbetreiber sind die größten der Welt.
China werde zu einem „lead market“ für den
Mobilfunk, im Jahre 2010 rechnet man mit 500
Mio. Mobilfunkteilnehmern, aber der Markt ist
noch immer stark durch die Regierung reguliert.
Zwischen China, Korea und Japan entwickeln sich engere Formen der Kooperation,
auch um Industriestandards abzusprechen und
sich europäischer und amerikanischer Interessen stärker erwehren zu können. Trotz dieses
‚Bollwerkes’ sieht der Referent eine Chance,
sich in diesen Dialog einzubringen. Ihr Ansatz
sei, in China für den chinesischen Markt zu
produzieren, auch mit guten Ideen und Innovationen, die in Deutschland entstünden. Die
Chinesen hätten „einen unheimlichen Drang,
ihr eigener Chef zu sein“, so Weiss in seinem
Exkurs über die dortige Mentalität.
Aus nahe liegenden Gründen gab es zu
diesem Vortrag viele Nachfragen, so u. a., wie
es mit IPR (intellectual property rights) stehe
und wie sich Siemens gegen den Diebstahl von
Ideen wehre. Hierzu meinte Weiss, eine „no
risk situation“ gebe es nicht; man könne nicht
verhindern, dass etwas kopiert werde. Aber das
sei nicht entscheidend. Wichtiger sei die Frage,
was passiere, wenn sie in diesem Markt überhaupt nicht präsent wären.
Mikko A. Uusitalo erläuterte als Chairman
des WWRF (Wireless World Research Forum)
Aufgabenverständnis, Ziele und Arbeitsgruppen,
Mitglieder und kommende Konferenzen dieser
Organisation. Die 150 Mitglieder des WWRF
kommen aus allen Kontinenten, wenn auch, wie
in der Diskussion klargestellt wurde, „the Euro-
Seite 128
pean way of doing“ noch dominiere. Die
WWRF ist in einem vorwettbewerblichen Bereich tätig und sucht den internationalen Konsens: „Develop a consistent vision of the future
Wireless World“, wie eines der Hauptziele umschrieben wurde. Diese Ideen und Modelle sind
in einem voluminösen Band zusammengefasst,
dem „Book of Visions“. Die Modellvorstellung
ist die einer evolutionären Entwicklung hin zu
3G- und 4G-Systemen, nicht eines revolutionären Wandels, der mit „disruptive technologies“
verbunden wäre. Eine solche Gefahr, so Weiss
in der Diskussion, sehe er aber in zwei oder drei
Jahren aus dem asiatischen Raum heraufziehen.
Wir interpretieren diese Hinweise dahin, dass
(1) mit neuen Technologien Sprach- und Datendienste billiger als mit UMTS erbracht werden
können, (2) neue breitbandige Datennetze, wie
sie derzeit in Japan und Korea aufgebaut werden, gemeint sind, wie auch (3) drahtlose
Sprachkommunikation über das InternetProtokoll („voice over IP“).
Dem Thema „Disruptive Technologien in
Telekommunikationsnetzen – Verifikation
anhand von Prototypen“ war der erste Vortrag
von Georg Haubs (Siemens) gewidmet. Der
zweite Vortrag von Rainer Fechner (Lucent
Technologies Network Systems) befasste sich
mit „ABC – Always Best Connected: Konvergenz der Dienste und Systeme“ und betonte
den personalisierten Bezug auf einzelne Nutzer
und Nutzergruppen. Etwas näher eingehen
wollen wir auf Fiona Williams, die über „Towards Ambient Networks“ sprach und in Aachen das Ericsson Research Lab aufgebaut hat.
Einleitend wies sie darauf hin, dass angesichts
der Sättigungskurven in den Industrienationen
das kommende Wachstum im Mobilfunk von
den Entwicklungsländern erzeugt werde, so
dass man gehalten sei, gängige Annahmen zum
Bedarf zu überdenken. Konkret malte sie ein
Szenario eines mobilen Rockkonzerts aus, das
Teil einer Reihe von Projekten im WWIVerbund ist, der ‚Wireless World Initiative’,
die im Kontext des 7. Rahmenprogramms der
EU auf eine ‚Wireless Communications Technology Platform’ hinauslaufen solle, damit
Europa mit den ehrgeizigen Aktivitäten von
China, Korea und Japan mithalten könne. Forschungsanstrengungen in diesem Bereich seien
nötig, denn heute schon gelte, was erst wenige
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
so sehen würden: „mobile & wireless have an
economic impact greater than the Internet“.
Bernhard Walke, der Moderator dieser
Sektion, lieferte selbst noch einen kleinen Beitrag, bevor er die Diskussion eröffnete. Die
Diensteerbringung sei in den heutigen Netzen
noch ineffizient. Er schlug ein Konzept vor,
nach dem man die mit zunehmender Entfernung von der Basisstation stark abnehmende
verfügbare Datenrate für die Nutzer durch Aufstellen von kleinen Relais verbessern kann.
Eine solche Komponente sei im WiMAXStandard (IEEE 802.16) als Mesh-Komponente
vorgesehen, im Übrigen auf Forschungen basierend, die früher an der TH Aachen gemacht
wurden. Deutschland solle die Forschung an
Mesh-Konzepten vorantreiben. Das sei eine
„disruptive technology“, weil u. a. die Festnetzanschlusskosten dramatisch reduziert werden könnten.
Damit endet unser Einblick in die Konferenz, die auch ein „Zukunftsforum“ sein sollte,
und kommen noch einmal auf jenen Ausblick
zurück, den man vom Petersberg hat – Modell
für den Ausblick in eine ungewisse Zukunft?
„Der beste Weg, die Zukunft vorherzusagen ist,
sie zu gestalten“ – so zitierte Ganswindt, seinen
Vortrag abschließend, Peter Drucker. Gewiss
richtig. Nur zeigte die Konferenz gerade an
jenen Stellen, wo „disruptive technologies“
angesprochen wurden, wie hoch-kontingent
dieses Gestaltungshandeln in einem globalen
Kontext geworden ist, wenn mit neuen Techniken die über Jahre gepflegte Technologielinie
überrollt zu werden droht.
»
Auf dem Weg zu interdisziplinären Methodologien
Karlsruhe, 24. - 25. Juni 2004
Tagungsbericht von Armin Grunwald, ITAS,
und Jan C. Schmidt, Zentrum für Interdisziplinäre Technikforschung, TU Darmstadt
Am 24. und 25. Juni 2004 fand in Karlsruhe
der Sondierungsworkshop „Auf dem Weg zu
interdisziplinären Methodologien. Forschungsstand und offene Fragen“ statt. Veranstalter
waren das Zentrum für Interdisziplinäre Technikforschung an der TU Darmstadt (ZIT) und
das Institut für Technikfolgenabschätzung und
Systemanalyse des Forschungszentrums Karlsruhe (ITAS).
1 Fragestellung und Zielsetzung
Die fortschreitende Differenzierung der Wissenschaften seit der Neuzeit folgte in erster
Linie den inneren Bedürfnissen und Entwicklungen der Wissenschaften, weniger den äußeren Anforderungen. In Disziplinen und Subdisziplinen wurden immer spezialisiertere Felder
hoch komplizierter Fragestellungen bearbeitet.
Das rasche Wachstum und die enorme Leistungssteigerung der Wissenschaft beruht im
Wesentlichen auf dieser funktionalen Ausdifferenzierung und Spezialisierung im Wissenschaftssystem.
Im Gegenzug erwartet jedoch die Gesellschaft seit einigen Jahrzehnten verstärkt wissenschaftliche Problemlösungen – z. B. in den
Bereichen Umwelt, Energie, Gesundheit -, die
sich nicht der disziplinären Spezialisierung
fügen. Besondere Bedeutung kommt dabei der
Zusammenarbeit zwischen Natur- bzw. Technikwissenschaften einerseits und den „Reflexionswissenschaften“ (Philosophie, Soziologie,
Psychologie, Rechtswissenschaften und Ökonomie) andererseits zu. Technikfolgenabschätzung und interdisziplinäre Technikforschung
sind einschlägige Gebiete. Inter- und Transdisziplinarität als gesellschaftliche Antwort auf
die fortschreitende disziplinäre Spezialisierung
der Wissenschaften soll die Wissenschaften
wieder stärker an praktischen Problemen der
Gesellschaft orientieren und die Parzellierung
des Wissens aufheben.
Diese Diskussion um Inter- und Transdisziplinarität dauert seit den siebziger Jahren an.
Nach wie vor herrscht der appellative Duktus
vor, dass Inter- und Transdisziplinarität dringend benötigt werden. In der Forschungsförderung wird sie häufig erwartet, und in institutionellen Evaluierungen stellt sie mittlerweile
meist einen Pluspunkt dar.
In vielen Feldern sind Inter- und Transdisziplinarität mittlerweile fest etabliert, partiell
sogar als Teil der Selbstverständnisse von Forschungseinrichtungen oder ganzer Forschungsrichtungen wie z. B. der Nachhaltigkeitsfor-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 129
TAGUNGSBERICHTE
schung. Eine Vielzahl von Antworten auf die
praktischen Fragen, wie denn interdisziplinäre
Forschung zu organisieren sei und worauf man
in konkreten Projekten achten müsse, kann
mittlerweile aufgrund empirischer Erfahrung
gegeben werden.
Demgegenüber scheint die theoretische
und methodische Aufarbeitung und Erfassung
von inter- und transdisziplinärer Forschung
hinterher zu hinken. Folgende Fragen einer
Theorie interdisziplinärer Forschung (hier
könnte auch ein etwas weniger stark belastetes
Wort stehen) sind ungelöst:
- Funktionen: Soll Interdisziplinarität nur
Wissen für wissenschaftsexterne Zwecke
erzeugen bzw. bündeln oder soll sie in die
Disziplinen zurückwirken? Welche Funktionen soll sie dort in Forschung und Ausbildung haben?
- Objekt: Was sind die Gegenstände interdisziplinärer Forschung und wie werden sie
konstituiert? Arbeiten verschiedene Disziplinen, die an einem gemeinsamen Projekt
forschen, an den gleichen Gegenständen,
oder sind die Gegenstände disziplinär unterschiedlich konstituiert?
- Methode: Gibt es eine Methodologie interdisziplinärer Forschung und wie sieht sie
aus? Was soll sie leisten? Wo sind die
Schnittstellen zu den disziplinären Methodologien?
- Qualitätskriterien: Wie kann gute von weniger guter Interdisziplinarität unterschieden
werden? Wie sieht die Qualitätssicherung
aus und welche Kriterien werden verwendet?
Besonders problematisch ist das Fehlen anerkannter Qualitätskriterien, da vielleicht nichts
so sehr das Selbstverständnis der Wissenschaften und auch ihre externe Anerkennung bestimmt wie die Ausbildung einer internen Qualitätssicherung die – trotz gelegentlicher Irrtümer – im Ganzen ausgezeichnet arbeitet. Dieser
Punkt betrifft sowohl die externe Anerkennung
der interdisziplinären Forschung als auch ihre
Anerkennung seitens der – traditionell qualitätsgesicherten – disziplinären Forschung.
Auf dem Sondierungsworkshop „Auf dem
Weg zu interdisziplinären Methodologien. Forschungsstand und offene Fragen“ standen die
wissenschaftstheoretisch und wissenschaftssoziologisch, aber auch in praktischer Hinsicht
Seite 130
interessierenden Fragen der Methodologie und
ihrer Konsequenzen für die Definition von
Qualitätsmerkmalen im Mittelpunkt. Dies in
doppelter Hinsicht (wobei auf dem Workshop
die erstgenannte Perspektive im Vordergrund
stand, was auch teils kritisiert wurde):
- In wissenschaftstheoretischer Perspektive
interessierten die Grundlagen der Geltung
von Resultaten inter- und transdisziplinärer
Forschung. Geltungsfragen disziplinärer
Aussagen werden im Regelfall durch den
Verweis auf die adäquate Verwendung anerkannter disziplinärer Methodik beantwortet. Wie sieht dies für inter- und transdisziplinäre Forschung aus?
- In wissenschaftssoziologischer Perspektive
wurde gefragt, wie sich die empirische Forschungspraxis im inter- und transdiziplinären
Bereich darstellt, welche forschungsorganisatorischen und institutionellen Erfahrungen
vorliegen und welche Qualitätsstandards in
der Praxis implizite Anwendung finden.
Das Ziel des Workshops bestand darin zu erkunden, inwieweit das Thema der in inter- und
trandisziplinärer Forschung verwendeten Methoden und Verfahren einer eigenen Methodologie bedarf oder wenigstens eine solche zulässt.
2 Referate
Jürgen Mittelstraß (Universität Konstanz; Vortragstitel „Methodische Transdisziplinarität“)
setzte bei der Diagnose einer neuen Unübersichtlichkeit des Wissenschaftssystems an. Diese sei zum einen dem raschen Wachstum, aber
auch der institutionellen und fachlichen Partikularisierung geschuldet. Sie liegt nicht in der
Natur der Sache, sondern ist historisch kontingent. Fachübergreifende transdiziplinäre Strukturen (wie z.B. themenorientierte Zentren an
Universitäten) seien punktuell erforderlich, um
die Problemlösekapazität der Wissenschaften zu
erhalten oder zu vergrößern sowie die Einheit
der wissenschaftlichen Rationalität wiederherzustellen. Charakteristisch hierfür müsste sein,
dass die Themen dieser Forschungsrichtungen
wissenschaftsextern definiert sein müssten. Disziplinarität und Transdisziplinarität seien hierbei
Idealformen, während die Forschungsrealität
zumeist aus Mischformen bestehe. Disziplinen
sind nach Mittelstraß notwendig, aber nicht
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
hinreichend zur Aufgabenerfüllung der Wissenschaften. Transdisziplinarität sei eine „Forschungsform“, das Problemwahrnehmung und
Problemlösung anleitet und weit reichende institutionelle Folgen hat, jedoch keine eigene Methodologie und keine „Theorieform“. Methodische Transdisziplinarität zerfalle in praktische
Transdisziplinarität (in der es auf kluge und
effiziente Koordination von Forschung ankomme) und theoretische Transdisziplinarität, wenn
es um die interne Weiterentwicklung der Disziplinen geht, z. B. an ihren Rändern. Das „Methodische“ an der Transdisziplinarität sieht Mittelstraß „in der argumentativen Erzeugung des
Wissens“ über Disziplingrenzen hinweg. Dies
sei schließlich unabdingbar, um Nachvollziehbarkeit und Transparenz zu ermöglichen.
Gotthard Bechmann (ITAS; Vortragstitel
„Gibt es eine interdisziplinäre Methodologie?“)
deutete die Disziplinbildung als Konstitution
einer Innen/Außen-Differenz, d. h. als eine funktionale Differenzierung gegenüber einer Disziplinumwelt. Der Behauptung, interdisziplinäre
Forschung habe eine größere Realitätsnähe als
disziplinäre, setzte er entgegen, dass interdisziplinäre Forschung wie die disziplinäre neben
Wissen auch Nichtwissen produziert, allerdings
ein anderes Wissen und Nichtwissen. Es komme
darauf an, welche Wissen/Nichtwissen-Kombinationen für eine bestimmte Art der Problembearbeitung adäquat seien. Um dies zu beurteilen,
müssten Problemkonstitution, Wissensproduktion, Handlungsorientierung, Wissenstransfer und
die Folgenbeobachtung als Gesamtkomplex
gesehen werden. Dabei seien methodologische
Fragen nachrangig neben Fragen der Organisation und des Transfers von wissenschaftlich
produziertem Wissen in praktische Handlungskontexte.
Günter Ropohl (Universität Frankfurt, Vortragstitel „Allgemeine Systemtheorie als transdisziplinäre Integrationsmethode“) begann mit
der Diagnose, in wissenschaftsphilosophischen
und wissenschaftspolitischen Debatten sei bislang vernachlässigt worden, dass „Transdisziplin-Wissenschaften“ einem anderen Paradigma unterliegen als die Disziplin-Wissenschaften. Dies betreffe gleichermaßen die Definition
der Probleme, die Sprache und Begrifflichkeit,
die Denkmodelle, die Methoden und die Qualitätskriterien. Da nach Ropohl die Probleme in
einer transdisziplinären Wissenschaft nicht ana-
lytisch, sondern synthetisch verstanden werden,
seien dementsprechend statt der analytischen
vor allem synthetische Methoden angezeigt.
Hierzu nannte Ropohl einige Methoden, die
abseits der klassischen disziplinären Methoden
stehen wie z. B. die Szenario-Methode. Als
synthetische Methoden seien die pragmatische
Situationsmodellierung der Allgemeinen Systemtheorie und ihre zahlreichen Konkretisierungen – wie etwa die Modelle soziotechnischer
Systeme – hervorragende Ansätze zur synthetischen Bewältigung der komplexen Probleme in
Weltdeutung und Weltgestaltung. Transdisziplinarität finde letztlich ihren theoretischen Ort in
einer synthetischen Philosophie. In Gegensatz
zu Mittelstraß und Bechmann sah Ropohl damit
einen klaren Bedarf an inter- und transdisziplinärer (vielleicht auch a-disziplinärer) Methodik
sowie erste Ansätze der wissenschaftlichen Entsprechung dieses Bedeafs.
Peter Euler (TU Darmstadt, Vortragstitel
„Interdisziplinarität als ‚Bildungsprinzip’ der
Forschung: methodologische Konsequenzen“)
begriff Interdisziplinarität in der Tradition kritischer Bildungstheorie als Reaktion auf die
Zerrissenheit der Wissenschaften sowie die
negativen Folgen von Wissenschaft und Technik, die im 20. Jahrhundert unübersehbar und
auch zum Politikon wurden. Interdisziplinarität
in dieser Perspektive sei der Ort kritischer
Auseinandersetzung um die den gegenwärtigen
gesellschaftlichen und zivilisatorischen Verhältnissen angemessene Form der Forschung.
Interdisziplinarität werde damit sowohl zur
Wundstelle als auch zum Ansatzpunkt der ReVision unserer Wissenschaftsverfassung. Euler
sieht methodologische Konsequenzen dieses
kritischen Verständnisses von Interdisziplinarität deshalb, weil die Generierung von Methoden entscheidend ist, wenn interdisziplinäre
Forschung bewusst disziplinäre Engführungen
überwinden will. Im Sinne einer „Resozialisierung der Wissenschaften“ gehe es um „reflektierte Sachkompetenz“ statt um isoliertes Expertentum und enggeführte „Fachkompetenz“.
Interdisziplinarität sei, in reflexiver Wendung,
entscheidend zur Erreichung einer „guten“
Disziplinarität und zum Verstehen des eigenen
Faches, was dann auch entsprechenden Reflexionsbedarf hinsichtlich der disziplinären Methodologie nach sich ziehe.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 131
TAGUNGSBERICHTE
Paul Burger (Universität Basel, Vortragstitel „Kognitive Aufgaben in transdisziplinären
Wissenschaftspraktiken und ihre methodologischen Implikationen“) fokussierte auf transdisziplinäre Wissenschaftspraktiken im Bereich der
sustainability science. Nachhaltige Entwicklung
ist ein neues, internationales Entwicklungsleitbild und benennt eine gesellschaftliche wie auch
wissenschaftliche Querschnittsaufgabe. Von
Forschung werde in diesem Bereich mehr erwartet als das Beschreiben und Erklären des IstZustands. Gefragt seien darüber hinaus Diagnosen (z. B. im Hinblick auf Nachhaltigkeitsdefizite), Zielevaluationen (z. B. Prioritätensetzungen)
und die Erarbeitung und Bewertung von Maßnahmen (z. B. durch Effizienzanalyse) mit Blick
auf rationale Entscheidungsgrundlagen. Ausgehend von einer handlungstheoretischen Grundstruktur argumentierte Burger, dass die Erreichung dieser Ziele aus systematischen Gründen
sowohl eine Zusammenarbeit von Natur- und
Sozialwissenschaften als auch den Einbezug
gesellschaftlicher Akteure verlangt. Methodisch
klares Vorgehen sei unverzichtbar, um Nachvollziehbarkeit und Transparenz wissenschaftlich zu sichern und nach außen dokumentieren
zu können. Z. B. mittels der Szenariotechnik
könnten Teilergebnisse systematisch und produktiv integriert werden. Die Weiterentwicklung
und Ausweisung interdisziplinärer Methodologien sei dringend erforderlich, um interdisziplinäre Institutionen in ihren wissenschaftlichen
Handlungen zu stärken. Burger betonte, dass in
der Praxis der inter- und transdisziplinären Forschung vieles bereits etabliert sei bzw. getestet
werde, so dass theoretische Reflexion sich stärker auf bereits vorliegende Erfahrungen stützen
könnte, als dies zumeist geschieht.
Rudolf Wille (TU Darmstadt, Vortragstitel
„Allgemeine Wissenschaft als transdisziplinäre
Methodologie?“) fokussierte auf die Disziplinen
und ihre jeweilige Disziplinarität. Es sind die
Defizite der Disziplinen, ihre Isolierung untereinander und von der Gesellschaft, die zu einem
wissenschaftlichen wie auch gleichermaßen
gesellschaftlichen Problem geworden sind. Unter Rekurs auf den Pädagogen Hartmut v. Hentig
führte Wille den Topos der Allgemeinen Wissenschaft und der „guten Disziplinarität“ in die
Diskussion ein. Zu dieser, die „allgemeiner
Teil“ jeder einzelwissenschaftlichen Disziplin
sein sollte, gehören alle Bemühungen, Wissen-
Seite 132
schaft offen zu legen und allgemein zugänglich
zu machen, damit sich die Allgemeinheit insbesondere mit möglichen Bedingungen, Folgen
und Auswirkungen wissenschaftlichen Tuns
auseinandersetzen kann. Für eine Disziplin heißt
das, ihre jeweiligen Zwecke, Mittel (d. h. eben
auch Methoden), Erkenntnisse und Folgen
transdisziplinär zu vermitteln und damit den
öffentlichen Diskurs über die Disziplin zu fördern. Am Beispiel der von Wille entwickelten
mathematischen Methode der formalen Begriffsanalyse erläuterte Wille sein Konzept der
„guten Disziplinarität“ sowie die Probleme der
allgemeinen, d. h. der inter- und transdisziplinären Verständigung über unterschiedliche Begriffe und Semantiken bis hin zu disziplinär verschiedenen Weltverständnissen und die Möglichkeiten ihrer Überwindung. „Gute Disziplinarität“ umfasst einen allgemeinen, nicht abziehbaren Anteil transdisziplinärer Methodologien.
Gertrude Hirsch Hadorn (ETH Zürich,
Vortragstitel „Anforderungen an eine Methodologie problemorientierter Forschung“) setzte
an dem gängigen Verständnis an, dass wissenschaftliche Forschung an Methoden gebunden
ist, um den Geltungsanspruch ihres Wissens
begründen und für andere einsichtig machen zu
können. Sie stellte dann die zentrale Frage, ob
es in der transdisziplinären Forschung, die häufig als „problemorientierte Forschung“ bezeichnet wird, analoge Referenzsysteme für
methodische Anforderungen wie die Disziplin
oder scientific community gibt, welche auf entsprechende Standards in einer Fachsprache
zurückgreifen können. Sie zeigte, dass sich
interdisziplinäre Projekte auf mehreren Sprachebenen bewegen und dass die häufig erhobene
Forderung nach einer gemeinsamen Sprache
nicht den Kern der Sache trifft. Vielmehr bestehe die Anforderung darin, die Kompetenz zu
erwerben, die anderen im Projekt relevanten
Sprachen zu verstehen und ineinander zu übersetzen. Dabei können sich Sprachen verändern
und neue Fachsprachen entstehen.
Mathias Gutmann (Universität Marburg,
Vortragstitel „Methoden und Gegenstandskonstitution – Zum Problem der Disziplinarität“)
konstatierte, dass derjenige, der von „Interdisziplinarität“ spricht, zunächst „Disziplinarität“
in den Blick nehmen müsse. Die Rede von der
„Disziplin“ bleibt jedoch eigentümlich unbestimmt. In der methodischen Ordnung bedürften
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
die Geltungskriterien des inter- oder transdisziplinären Wissens vorgängig einer Rekonstruktion von Geltungsbedingungen disziplinären
Wissens. Er stellte die Frage, ob denn Disziplinen „existieren“ oder ob sie nicht nur Resultate
einer bestimmten Beschreibung wissenschaftlichen Arbeitens seien. Am Beispiel der Biologie
demonstrierte Gutmann, dass man von einer
spezifisch biologischen Methodik kaum reden
könne. Vielmehr nutze der Biologe zum großen
Teil chemische oder physikalische Methoden,
ohne dabei zum Chemiker oder zum Physiker zu
werden. Die Beschreibung biologischer Forschung als Biologie verdanke sich daher nicht
einfach dem Einsatz von Methodik, sondern
Disziplinarität sei als Reflexionsbegriff zu verstehen und Disziplinen seien das Ergebnis von
spezifischen Betrachtungsperspektiven. Die
Unterscheidung disziplinär/interdisziplinär sei
eine Unterscheidung entlang der Forschungspraxis, wie sie sich historisch entwickelt habe.
3 Perspektiven
Diese Vorträge und die ausgesprochen anregenden Diskussionen konnten selbstverständlich die
aufgeworfenen Fragen nicht abschließend klären. Dennoch können eine Reihe von konvergenten Einschätzungen gewonnen werden:
1. Das Methodenverständnis der Wissenschaften muss erweitert werden, wenn man auch
in inter- und transdiziplinärer Forschung von
Methodologie sprechen will. Als Ausgangspunkt unbestritten ist, dass methodische
Transdisziplinarität (Mittelstraß) ihren Kernpunkt darin hat, dass sie argumentativ erzeugtes Wissen ist. Dies ist unverzichtbar,
wenn der Anspruch erhalten bleibt, auch im
interdisziplinären Bereich Wissen von bloßem Meinen unterscheiden zu können – und
alles andere wäre eine Selbstaufgabe der
Wissenschaften. Das enge Methodenverständnis klassischer Disziplinen (z. B. eine
Unterscheidung wahr/falsch zu erlauben)
greift aber nicht mehr unbedingt. „Weichere“
argumentative Einschätzungen müssen Berücksichtigung finden können. Für die
Durchführung von Argumentationen sind
nun aber Effizienzstrategien (wie Regeln,
prädeliberative Einverständnisse, etc.) erforderlich, denn es kann nicht immer alles in
Frage stehen. Zielgerichtete Argumentation
benötigt eine Ausgangsbasis und Regeln zur
Abkürzung von Kommunikation. Inter- und
transdisziplinäre Methoden könnten – und so
wäre der Widerspruch zwischen den Positionen „es gibt keine interdisziplinäre Methodologie“ (Mittelstraß, Bechmann, Gutmann)
und „es gibt eine oder sollte eine geben“
(Ropohl, Euler, Burger, Hirsch) aufzulösen –
gerade darin bestehen, dass sie zur Effizienzsteigerung der inter- und transdisziplinären
Kommunikation und Forschung dienen (Beispiel Szenariotechnik). Man kann dann nicht
mehr über wahr/falsch oder über beste Methoden sprechen, wohl aber Leistungen und
Grenzen betrachten.
2. Inter- und transdisziplinäre Forschung lässt
die Disziplinen nicht unberührt. Methodische Rückwirkungen auf die Disziplinen
und auf das Disziplinverständnis treten hervor. Der Ort der Transdiziplinarität liegt
(auch) innerhalb der Disziplinen. Dort sind
– methodisch, inhaltlich und organisatorisch
– bestimmte Voraussetzungen zu schaffen,
um transdisziplinäre Forschung zu ermöglichen. Interdisziplinarität ist als Teil einer
„guten“ Disziplinarität zu verstehen (Euler,
Wille, Gutmann).
3. Die entscheidende Frage nach den Bedingungen der Möglichkeit von interdisziplinären Methodologien ist diejenige nach
der jeweiligen (disziplinären) Sprache. Sprachen prägen Weltzugänge, Problemkonstitutionen und Wirklichkeitskonstruktionen. Anforderungen an interdisziplinäre Forschungspraxen liegt in der adäquaten „Übersetzung“,
nicht nur einzelner Begriffe, sondern auch
der Semantiken und der damit verbundenen
Weltkonstruktionen (Hirsch, Gutmann). Interdisziplinarität erscheint aus dieser Perspektive auch als ein Kommunikations- und
Sozialisationsproblem (Euler, Wille), das eine emanzipatorische Funktion aufweist.
4. Ausgangspunkt und Motiv, über interdisziplinäre Methodologien nachzudenken, liegen
in einer Wahrnehmung einer Diskrepanz,
nämlich dass vielfach Forschung betrieben
wird, die sich einerseits als „interdisziplinär“
bezeichnet. Andererseits vermag sie nicht
auszuweisen, was das Spezifikum an Interdisziplinarität ist. Hieran schließt sich wissenschaftstheoretischer Systematisierungsbedarf an. Auch wenn unterschiedliche Ant-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 133
TAGUNGSBERICHTE
worten gegeben worden, waren sich alle
Vortragen in dieser Analyse einig.
5. Ein weiterer Workshop sollte:
- die Klärungsziele konkreter festlegen und
insbesondere die Frage in den Blick nehmen, was unter einer „Methodologie“
verstanden werden kann und welche Leistungsanforderungen an sie zu stellen ist
- den empirischen Hintergrund deutlicher
machen und Fallbeispiele mit berücksichtigen (vorhandene Erfahrungen stärker aufnehmen)
- die Traditionen der theoretischen und
praktischen Befassung mit Inter- und
Transdisziplinarität aufarbeiten
- die Mischung aus (normativer) Theorie
und (empirischer) Praxis rekonstruieren.
Mittelfristiges Ziel ist die Etablierung eines
Kompetenzzentrums zur „Interdisziplinaritätsforschung“ bzw. zur „Methodologie von
Interdisziplinarität“. Ein erstes Netzwerk, das
durch eine Art „verlängerte Rheinschiene“
(Zürich, Basel, Karlsruhe, Darmstadt, Marburg) dargestellt wird, befindet sich im Aufbau. Es ist offen für alle interessierte Wissenschaftlerinnen und Wissenschaftler, insbesondere jene der Interdisziplinären Technikforschung, der Technikfolgenabschätzung
sowie der Wissenschafts- und Technikphilosophie. Ein Kern liegt darin, die Erfahrungen
in Theorie und Praxis zu vermitteln und hinsichtlich möglicher zukünftiger Evaluierungen interdisziplinärer Forschungsprojekte
auszuloten. Eine zukünftige Aufgabe einer
„Interdisziplinaritätsforschung“ liegt in der
Entwicklung einer Methodologie erfolgreicher interdisziplinärer Forschungsprojekte.
»
nanoDE – Factors for Success
Wiesbaden, 21. - 24. Juni 2004
Tagungsbericht von Gerd Bachmann, Zukünftige Technologien Consulting der VDI
TZ GmbH, Düsseldorf
Von 21. bis 24. Juni 2004 fand im Kurhaus in
Wiesbaden die Internationale Konferenz zu
nanostrukturierten Materialien „Nano2004“
statt. Sie wurde von ca. 1100 Teilnehmern be-
Seite 134
sucht, mehr als 230 Vorträge und 450 Poster
wurden präsentiert sowie 30 Aussteller waren
anwesend. Die Nachricht von den Möglichkeiten, die die Nanotechnologie bietet, unser Leben künftig angenehmer, gesünder und sicherer
zu machen und ebenso die Innovationskraft,
die aus dem Nanokosmos kommt und Arbeitsplätze schaffen wird, hat in vielen Anwendungsbereichen bereits die Universitäten und
Institute verlassen und die Öffentlichkeit erreicht. Die Teilnehmer der „Nano2004“ waren
deshalb neben weltbedeutenden Wissenschaftlern auf diesem Gebiet hochrangige Vertreter
der Industrie, der Venture Capital-Firmen, der
Start-ups wie auch die allgemeine Öffentlichkeit, welche den ebenfalls bereitstehenden
NanoTruck besuchen konnte. Erstmals gab es
auch einen Gemeinschaftsstand der 9 BMBF
Kompetenzzentren und der VDI Technologiezentrum GmbH, welcher die internationale
Community zur Situation der Nanotechnologie
in Deutschland auf der ganzen technologischen
und infrastrukturellen Breite informierte.
In das Programm integriert war die BMBFVeranstaltung „nanoDE“, die in diesem Jahr den
Untertitel „Factors for Success“ trug. Gemeint
war damit letztlich die Transformation der Nanowissenschaft in Nanotechnologie und deren
Transformation in neue Produkte, neue Arbeitsplätze, schließlich in Geld. Die Inhalte der
„nanoDE“ waren darum vornehmlich auf diesbezügliche strategische Fragestellungen ausgerichtet, wohingegen die Vorträge der „Nano2004“ den wissenschaftlichen Teil der beiden
sich ergänzenden Veranstaltungen bildeten.
Ziel der „nanoDE“ war es, die für eine erfolgreiche Umsetzung von Ideen in Produkte
wichtigen Faktoren herauszuarbeiten und zu
diskutieren. So wurden verschiedene Förderansätze zur Generierung von Erkenntnissen für
kommerzielle Produkte und die damit verbundenen Interessen der diversen Förderorganisationen, die Bedeutung von regionalen Netzwerken und innovativen Geschäftsmodellen
von Start-ups sowie die notwendige Zusammenarbeit der Akteure entlang der Wertschöpfungskette diskutiert. Hinzu kamen zwei Podiumsdiskussionen zum internationalen Vergleich von Förder- und Umsetzungsstrategien
sowie zu Chancen und Risiken verschiedener
Nanotechnologie-Linien. Dem letzten Thema
war auch ein ganzer Vortragsteil der Nano2004
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
gewidmet, welcher toxikologische Effekte,
arbeitsmedizinische Fragen und Umweltaspekte explizit ansprach.
Auf der Podiumsdiskussion zu Chancen
und Risiken verschiedener NanotechnologieLinien wurden die Standpunkte von den Referenten sachlich vertreten. Der Vertreter von
Greenpeace (D. Parr) forderte nicht – wie andere NGO an anderer Stelle – ein generelles Moratorium für die Herstellung nanotechnologischer Produkte, sondern empfahl verstärkte
Untersuchungen in solchen Bereichen, welche
dispergierende Nanomaterialien nutzen. Diese
zukünftig notwendige Begleitforschung wurde
ebenfalls von den anwesenden Vertretern aus
Industrie und Politik angeregt. M.C. Roco
(NSF) führte an, dass kurzfristig ein hypeartiges Verhalten der Investoren und auch der
Presse zu erkennen sei, aber langfristig die
Nanotechnologie doch eine immense technologische Chance darstelle. „Overhyping“ wurde
speziell von A. Gutsch (Degussa) als gefährlich
für die letztendliche Verwertung der Ergebnisse eingeschätzt. Daher sei eine offene Informationspolitik aller Beteiligten anzuraten. Absehbare Risiken müssten adressiert werden, wobei
nicht nur die direkten der Toxizität von Partikeln, sondern auch die möglichen gesellschaftlichen Veränderungen, welche sich evolutionär
einschleichen könnten, eine Rolle spielen sollten. Bei der Diskussion der möglichen Implikationen sollte vom Problem kommend diskutiert
werden, nicht generell von den technologischen
Möglichkeiten aus. Auch die Frage des Risikos, falls man etwaige Risiken als Nation nicht
auf sich nehmen wollte, wurde gestellt.
Beim Vergleich der verschiedenen internationalen Förder- und Umsetzungsstrategien
konnten nur im Bereich Öffentlichkeitsarbeit
und bzgl. erforderlicher Reaktionen auf Interessensgemeinschaften zum Stopp nanotechnologischer Arbeiten erhebliche Unterschiede festgestellt werden. Im asiatischen Raum sind derzeit
kaum ethisch und soziologisch begründete Hindernisse für die Nanotechnologie festzustellen.
Ansonsten werden weltweit wohl ähnliche Fragestellungen (Erkenntnisgewinn, Umsetzungsgeschwindigkeit für die Produktgenerierung,
Ausbildungsfragen, Langfristmärkte, Infrastrukturen, Kooperationsformen) bei der F&E-Förderung im Nanotechnologiebereich adressiert,
jedoch mit unterschiedlicher Gewichtung und
Strategie. Ob die Grundlagenerarbeitung in den
USA, die Industriekooperation in Europa oder
die firmeninterne Forschung in Japan die erfolgreichere Strategie darstellen, wird sich wohl erst
in der Zukunft zeigen.
Insgesamt hat sich die strategische Diskussion von Wertschöpfungsketten bei der
nanoDE als eine wichtige Informationsplattform neben den wissenschaftlichen Präsentationen erwiesen.
Für weitere Informationen siehe
http://www.nanoDE.de
sowie
http://www.nano2004.org.
«
Raum für Nachhaltigkeit.
Zur Kontextualisierung des
Leitbilds
Leipzig, 17. - 18. Juni 2004
Tagungsbericht von Dieter Rink, Umweltforschungszentrum Leipzig-Halle
Nachhaltigkeit hat Konjunktur, möchte man
angesichts der Allgegenwart des Leitbilds in
Politik und Gesellschaft meinen. Fragt man die
jeweiligen Akteure jedoch nach ihrem Verständnis von Nachhaltigkeit, dann ergibt sich
ein reichlich dissonantes Bild. Und soll das
Leitbild gar als Richtschnur für politisches
Handeln dienen, dann wird klar, dass dieses
„hehre Ziel“ erst einmal für den jeweiligen
Anwendungszusammenhang ausbuchstabiert
und übersetzt werden muss, ehe an eine Nachhaltigkeits-orientierte Politik auch nur zu denken ist. Eine bedeutende Rolle bei der Anpassung des Leitbilds an konkrete räumliche, zeitliche, soziale und politische Gegebenheiten
kann die Entwicklung und Anwendung regionaler und kommunaler Berichtssysteme spielen: Die Fokussierung auf einen bestimmten
Analyseraum und die Kooperation von Wissenschaft mit Politik und Verwaltung erzwingen förmlich die Konkretisierung und Kontextualisierung von Nachhaltigkeitszielen.
Das BMBF hat vor drei Jahren einen Förderschwerpunkt eingerichtet, der die Erarbeitung und Implementierung von Berichtssyste-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 135
TAGUNGSBERICHTE
men unter dem Leitbild der Nachhaltigkeit für
die regionale und kommunale Ebene zum Ziel
hat. Die Tagung „Raum für Nachhaltigkeit. Zur
Kontextualisierung des Leitbilds“ vom 17. - 18.
Juni 2004 am Umweltforschungszentrum Leipzig-Halle (UFZ) widmete sich den Erfahrungen,
die bei der Kontextualisierung von Nachhaltigkeit im Förderschwerpunkt „Konzeption und
Erprobung problemorientierter regionale Berichtssysteme für eine nachhaltige Entwicklung“
(RBS) des BMBF bislang gesammelt wurden.
Mit der Implementierung in Politik und Verwaltung und der Frage nach möglichen Steuerungswirkungen thematisierte sie zudem die
politische Relevanz von Berichtssystemen. Ein
weiteres Ziel der Tagung war die Einbettung der
Projekte des Förderschwerpunktes in den deutschen Nachhaltigkeitsdiskurs.
1 Konzepte und Verständnisse von Nachhaltigkeit
Die Tagung gliederte sich in drei thematische
Blöcke, die jeweils durch Impulsreferate von
eingeladenen Experten eröffnet wurden. Im
ersten Block ging es um Konzepte und Verständnisse von Nachhaltigkeit. Hier wurden die
dominanten Konzepte der deutschen Nachhaltigkeitsdebatte mit den Nachhaltigkeitsverständnissen der RBS-Projekte und denen kommunaler Akteure kontrastiert.
Juliane Jörissen
(Forschungszentrum
Karlsruhe, ITAS) widmete sich in ihrem Impulsreferat den bekannten deutschen „Konzepten
von Nachhaltigkeit“ und versuchte, Grundlinien
der Debatte nachzuzeichnen. Die deutsche Debatte zeige im Zeitverlauf den Trend zu zunehmender Komplexität. Dabei ließe sich folgende
Entwicklung erkennen: Ausgangspunkt seien
Ein-Säulen-Modelle gewesen (wie sie den Studien des Wuppertal-Instituts oder des Umweltbundesamtes zugrunde lagen), die den Vorrang
von ökologischen Belangen postulierten. Dann
seien Drei-Säulen-Modelle entwickelt worden,
die eine Gleichrangigkeit von ökologischen,
sozialen und ökonomischen Belangen vertreten
(wie z. B. der Bericht der Enquete-Kommission
„Schutz des Menschen und der Umwelt“ sowie
die Studie „Arbeit und Ökologie“). Schließlich
seien komplexe Konzepte ausgearbeitet worden,
die dimensionsübergreifende Ziele formulierten
und diesen Mindestanforderungen zuordneten.
Seite 136
Beispiele dafür seien die Nationale Nachhaltigkeitsstrategie der Bundesregierung und das Integrative Nachhaltigkeitskonzept der HelmholtzGemeinschaft (HGF). Man müsse jedoch sagen,
so Jörissen, dass sich das Drei-Säulen-Modell
in der deutschen Öffentlichkeit durchgesetzt
habe und es schwer sei, andersartige Konzepte
zu platzieren. In der Kritik an Nachhaltigkeitskonzepten würden folgende Punkte dominieren: deren Hyperkomplexität, die Verwässerung klarer Positionen, die Unterteilung in Dimensionen bzw. Säulen und die Ausrichtung an
einzelnen Wissenschaftsdisziplinen (z. B. Ökologie, Ökonomie). Juliane Jörissen betonte,
dass Nachhaltigkeit kein mehrdimensionaler
Wunschzettel sei, sondern ein normatives Leitbild. Die Verbindung zwischen den globalen
Normen und den jeweiligen örtlichen Verhältnissen müsse hergestellt werden, denn erst durch
die Einbindung eines Teilraumes bzw. einer
Region in den globalen Kontext werde ein Konzept zu einem Nachhaltigkeitskonzept.
Katja Huber und Dieter Rink (beide Umweltforschungszentrum Leipzig-Halle) stellten
sodann in ihren Beiträgen die Nachhaltigkeitsverständnisse der RBS-Projekte sowie die ihrer
Praxispartner vor, wobei sie sich auf eine Umfrage unter den Projekten des Förderschwerpunkts im Jahr 2003 bezogen. Hier zeige sich
zwar auch das Bild der deutschen Debatte (wie
von Jörissen skizziert), aber auch andere Konzepte. Überwiegend beziehe man sich auf gebräuchliche Nachhaltigkeitskonzepte, am ehesten Säulenkonzepte oder Kombinationen verschiedener Ansätze, führte Katja Huber aus,
integrative Konzepte seien dagegen sehr selten.
Bei der Rezeption des Leitbilds der Nachhaltigkeit bei den kommunalen Praxispartnern
würden Skepsis und Ablehnung sowie Unbestimmtheit und Unsicherheit überwiegen, so
Dieter Rink. Hinzu kämen Fragen nach dem
Nutzen bzw. der Funktion des Leitbilds für die
kommunale Praxis und es würden Schwierigkeiten gesehen, dies in den kommunalen Kontext einzuordnen. Auch bei den Praxispartnern
dominierten Drei- bzw. Vier-Säulen-Konzepte.
Auf der kommunalpolitischen Ebene werde
Nachhaltigkeit dezidiert wirtschafts- bzw. arbeitsmarktpolitisch interpretiert und häufig
recht plakativ verwendet: Als nachhaltig werde
hier alles angesehen, was dauerhaft Arbeitsplätze schaffe. Daneben gebe es auf der Ver-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
waltungsebene ressortspezifische Zugänge, die
zum Teil in Widerspruch zum kommunalpolitischen Verständnis stünden. Das entscheidende
Defizit verortete Rink in der fehlenden Einbindung des Leitbilds Nachhaltigkeit in kommunale Leitbilder, Pläne und Beschlüsse. Hier sah
er auch eine Aufgabe für die weitere wissenschaftliche Bearbeitung des Themas: es müsste
geklärt werden, wie die Kommune Nachhaltigkeit in ihr Handeln implementieren könne.
2 Kontextualisierung von Nachhaltigkeit
Im zweiten Block „Kontextualisierung von
Nachhaltigkeit“ sollten die Möglichkeiten der
Kontextualisierung von Nachhaltigkeit mit den
Strategien konfrontiert werden, die in den Projekten des Förderschwerpunkts zur Anwendung
kommen.
Thomas Döring (Universität Kassel) und
Stefan Heiland (Institut für Ökologische Raumentwicklung Dresden) gingen in ihrem Impulsreferat „Strategien der Kontextualisierung von
Nachhaltigkeit“ auf die Potenziale von Nachhaltigkeitsindikatorensystemen ein. Dabei wiesen
sie eingangs auf die Vielzahl von Kontextualisierungsdimensionen hin, wie z. B. Probleme,
Themen, Ziele, Akteursgruppen oder Instrumente. Den Hintergrund ihrer Präsentation bildete
eine eigene, im Auftrag des Umweltbundesamtes durchgeführte Studie zur vergleichenden
Analyse von Nachhaltigkeitsindikatorensystemen auf kommunaler und regionaler Ebene. Ein
wesentliches Ergebnis des Vergleichs sei, dass
es viele Gemeinsamkeiten zwischen den Systemen gebe: Die Systeme seien häufig am Nachhaltigkeitsverständnis der Lokalen Agenda 21
ausgerichtet, die praktische Anwendbarkeit
werde betont und die gleichen bzw. ähnliche
Zielgruppen angesprochen (Politik, Verwaltung
und Öffentlichkeit). Ziel sei meist nicht die konsequente bzw. konsistente Umsetzung eines
Konzepts, sondern Information und Bewusstseinsbildung. Zudem sei die Indikatorenauswahl
weitgehend an der Datenverfügbarkeit orientiert.
Unterschiede bestünden in der Gliederung der
Systeme, in den behandelten Themenbereichen
und der Zahl der Indikatoren, aber auch im Umfang der Partizipation von Bürgern und gesellschaftlichen Gruppen sowie der inhaltlichen
Verknüpfung der Daten. Dessen ungeachtet
gebe es eine große Heterogenität der lokalen
Nachhaltigkeitsindikatorensysteme, was die
beiden Autoren als Zeichen für eine starke Kontextualisierung deuteten. Der lokale Bezug werde bei der Entwicklung und beim Einsatz der
Systeme betont, was auch zur Vernachlässigung
konzeptioneller zugunsten pragmatischer Überlegungen führe. Die Auswertung der Themenfelder zeige, dass die Themen „Ökologie“ und
„Soziales“ weit vor dem Thema „Wirtschaft“
rangierten und es insbesondere eine Ökologielastigkeit der Indikatoren gebe, die die ersten
zehn Plätze belegen. Kommunale Nachhaltigkeitsindikatorensysteme würden – so ihr Fazit –
kaum genutzt. Wenn dann erfüllten sie in erster
Linie eine Informationsfunktion und auch diese
vorrangig für die Lokale Agenda. Die Nutzung
für die politische Steuerung sei dagegen äußerst
selten und sei vor allem nicht institutionalisiert.
Die Ursachen für die geringe Nutzung lägen
generell im Desinteresse am Thema Nachhaltigkeit und Nachhaltigkeitsindikatorensystemen, an
ressortbezogenen Denk- und Verhaltensweisen,
aber auch an Kapazitäts- und Finanzproblemen.
Hinzu komme der umfassende Anspruch des
Nachhaltigkeitspostulats, der mit dem fehlenden
Bezug zum kommunalen Kontext kontrastiere.
Die Indikatorensysteme seien zu unspezifisch
für bestimmte Akteure und Funktionen. Außerdem sei auch die Frage der Anschlussfähigkeit
der lokalen/regionalen Ebene an die übergeordnete (nationale) Ebene nicht geklärt.
Im Anschluss stellte Wibke Glismann (Universität Hamburg) das Projekt „Gesundheit als
integrierendes Leitziel in der Konzeption und
Erprobung eines regionalen Berichtssystems
nachhaltiger Entwicklung“ vor. Hier werden in
Kooperation mit 10 Städten in Ostdeutschland
Berichtssysteme für die Bereiche Gesundheit,
Soziales und Umwelt entwickelt. In Orientierung am Nachhaltigkeitspostulat des Brundtland-Berichts sollen unter Einbeziehung lokaler
Agenda-Aktivitäten die genannten Themenbereiche vor einem gesundheitswissenschaftlichen
Hintergrund integriert werden. Das Projekt folge
dabei, so Glismann, einer pragmatischen Vorgehensweise im Hinblick auf die Auswahl von
Indikatoren. Unter Rückgriff auf bereits vorhandene Indikatorensätze würde in einem Diskussionsprozess mit den beteiligten Städten ein Kernindikatorensatz von 35 Indikatoren nebst entsprechenden Zielbestimmungen benannt. Wibke
Glismann zeigte sich optimistisch, dass es mit
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 137
TAGUNGSBERICHTE
dem Projekt gelingen werde, das Thema „Gesundheit“ erfolgreich mit der Nachhaltigkeitsberichterstattung zu verknüpfen.
Antonina Bieszcz-Kaiser und Erhard
Schreiber (Institut für Wirtschafts- und Sozialforschung Chemnitz e.V.) bezogen sich in ihrem
Beitrag auf das Projekt „Konzeption und Erprobung eines Berichtssystems zur Beobachtung
und Beschreibung von neuartigen Entwicklungen bei Beschäftigungsmaßnahmen auf der
kommunalen Ebene unter dem Leitbild einer
nachhaltigen Entwicklung“. Sie gingen der Frage nach, welchen Beitrag öffentlich geförderte
Beschäftigung zu nachhaltiger kommunaler
Entwicklung leistet. Ziel des Projekts sei die
Erarbeitung eines Beobachtungs- und Berichtssystems als ein Instrument für die kommunalen
Akteure, das ihnen hilft, „eine sowohl der regionalen Arbeitsmarktlage noch adäquatere als
auch nachhaltige kommunale Entwicklung befördernde Struktur der zum Einsatz kommenden
arbeitsmarktpolitischen Instrumente zu bestimmen“. Es ginge darum, die Effektivität von Beschäftigungsmaßnahmen in diesem Sinne wesentlich zu erhöhen. Beschäftigungsmaßnahmen
sollten nachhaltig dazu beitragen, das Arbeitsplatzdefizit zu verringern, die Beschäftigungsfähigkeit zu erhöhen und Zukunftsperspektiven zu
eröffnen. Über die Reaktivierung brachliegenden Arbeitskräftepotenzials sollten wichtige
kommunale bzw. regionale Aufgaben bearbeitet
werden. Hierbei gelte es, ökologische, ökonomische und soziale Aspekte integrativ zu behandeln. Die Kommunen sollten mit dem Berichtssystem ein Instrument erhalten, das es ihnen
gestatte, die Nachhaltigkeit von Beschäftigungsmaßnahmen zu bewerten.
In seinem Vortrag „Kommunale Problemfelder als Nachhaltigkeits-Kontext“ umriss
Gerhard Hartmuth (Umweltforschungszentrum
Leipzig-Halle) die Kontextualisierungsstrategie
des Projekts. Er charakterisierte die Ausgangslage bei der Entwicklung eines kommunalen
Nachhaltigkeitsindikatorensystems als Akzeptanz- und Vermittlungsproblem. Die Haltung in
der Verwaltung lasse sich pointiert in dem Satz
zusammenfassen: „Wir haben hier eigentlich
andere Probleme“. Daher seien die Operationalisierung und Kontextualisierung des Leitbilds
im Sinne einer Anpassung an die lokalen Bedingungen zentrale Anforderungen. Im Projekt
werde die Kontextualisierung über die Formu-
Seite 138
lierung der vordringlichsten kommunalen Problemfelder geleistet. Diese würden mit den
Nachhaltigkeitszielen eines integrativen Nachhaltigkeitskonzepts (des HGF-Konzepts; vgl.
den Beitrag von Juliane Jörissen) verknüpft,
bevor an der Schnittstelle von Problemfeldern
und Nachhaltigkeitszielen Indikatoren identifiziert werden. Das integrative Nachhaltigkeitskonzept habe sich als Erfassungsraster und
Bewertungsmaßstab für kommunale Probleme
geeignet und so die Relevanz des Leitbilds für
kommunale Problemfelder aufgezeigt. Dies
habe zu einem umfassenderen Verständnis für
Nachhaltigkeit bei den beteiligten kommunalen
Akteuren geführt und die Akzeptanz des Leitbilds gestärkt. Eine Schwachstelle des Projekts
sei die mangelnde Berücksichtigung aller kommunalen Handlungsfelder. Da die Methode
zwangsläufig die Partizipation kommunaler
Praxispartner beschränke, spiegelten sich die
spezifischen Problemsichten einzelner Ämter
bzw. Verwaltungsbereiche stärker wider als die
anderer. Unterschiedliche Vorstellungen gäbe
es bei der Gewichtung der Problemfelder. Die
Praxispartner forderten die Priorisierung der
Problemfelder entsprechend ihrer politischen
Relevanz, die Wissenschaftler favorisierten
dagegen deren Gleichbehandlung.
Am Beispiel der Region Mecklenburgische
Seenplatte stellte Johann Käther (Fachhochschule Neubrandenburg) in seinem Vortrag
„Nachhaltigkeitsindikatoren von unten“ die
Frage, ob diese einen Beitrag zur regionalen
Kontextualisierung von Nachhaltigkeit leisten
können. Der Aufbau und die Etablierung von
regionalen bzw. lokalen Nachhaltigkeitsberichtssystemen sei insbesondere mit dem Problem konfrontiert, was nachhaltige Entwicklung
auf dieser Ebene bedeuten könne. Es mangele an
der Anpassung des Leitbilds an die regionale
Ebene und der Implementierung von Nachhaltigkeitsindikatorensystemen als Monitoring- und
Steuerungsinstrument. Im Projekt „Freiwillige
Selbstkontrolle Nachhaltigkeit“ werde Kontextualisierung durch die Problemorientierung
(Einbeziehung lokaler bzw. regionaler Aspekte),
die Akteursorientierung (Einbeziehung von
Praxispartnern) sowie die Verknüpfung von
Politik- bzw. Handlungsfeldern erreicht. Die
Probleme der Kontextualisierung lägen etwa in
den unterschiedlichen Nachhaltigkeitsverständnissen der Akteure, der Begrenztheit des Indika-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
torensatzes sowie den Defiziten bei der Verfügbarkeit. Außerdem gebe es unterschiedliche
Bewertungsmaßstäbe und die Indikatoren seien
das Ergebnis politischer Aushandlungsprozesse.
Dadurch würden nur geringe Steuerungswirkungen entfaltet, die möglicherweise nicht überzeugend sind für eine dauerhafte Implementierung und Nutzung von Berichtssystemen.
Pamela Dorsch und Frauke Hoffmann
(Technische Universität Berlin) präsentierten
das Projekt „Nachhaltiger Tourismus in der
Prignitz – Ein Informationssystem“. Im Projekt
werde mit einem „projektbezogenen Grundverständnis“ von Nachhaltigkeit gearbeitet, das sich
auf die drei Dimensionen „Ökologie“, „Ökonomie“ und „Soziales“ (plus „Institutionelles“)
beziehe. Die Kontextualisierung erfolge durch
die Beteiligung der Akteure an allen Entwicklungsschritten: an der Stärken-SchwächenAnalyse des regionalen Tourismus und an der
Analyse von Akteurskonstellationen. Daraus
werde ein Zielsystem für nachhaltigen Tourismus entwickelt, das den Dimensionen zugeordnet sei und zu den Zielthemen jeweils Teilziele
enthalte. Das Berichtssystem habe drei Funktionen: es biete Orientierungswissen, mache ein
Kommunikationsangebot und beinhalte das
eigentliche Monitoring mit einem regionalen
Ziel- und Indikatorensystem. Kern des Projekts
sei die Regionalisierung des Leitbilds mit dem
Ziel der Steuerung der regionalen Entwicklung.
3 Politische Implikationen von Nachhaltigkeits-Berichtssystemen
Der dritte Block „Politische Implikationen von
Nachhaltigkeits-Berichtssystemen“ wurde mit
einem Impulsreferat zum derzeitigen Stand in
Deutschland eingeleitet, an den sich Berichte
aus der kommunalen Praxis anschlossen.
Ulrich Gehrlein (Institut für ländliche
Strukturentwicklung Frankfurt/Main) gab in
seinem Impulsreferat einen Überblick über die
„Implementierung und Steuerungswirkungen
von Nachhaltigkeitsberichtssystemen“. Es gebe
etwa 250 Kommunen, in denen derartige Systeme angewendet würden – allerdings in ganz
unterschiedlicher Form. Die Zielsetzung bestehe
überwiegend in der Bestandsaufnahme bzw.
Berichterstattung, der Bestimmung von Handlungsbedarf und der Öffentlichkeitsarbeit. Weit
weniger jedoch würden damit Ziele wie die
politische Entscheidungsunterstützung, die
Steuerung des Verwaltungshandelns oder die
Erfolgskontrolle der Zielumsetzung verfolgt.
Infolgedessen hätten die Systeme zwar zur Bewusstseinsbildung in Politik und Verwaltung
beigetragen, aber kaum zur Steuerung kommunaler Entwicklung. Die Ursachen dafür sah
Gehrlein auch in der schwachen Kontextualisierung und mangelnden Implementierung von
Berichtssystemen: Sie seien kaum in Arbeitsabläufe und Entscheidungsprozesse integriert,
schlecht in das institutionelle Setting eingebettet
und kaum mit Planungs- und Managementinstrumenten verknüpft. Aber auch auf der inhaltlich-konzeptionellen Ebene machte er Defizite
aus: Die Indikatoren besäßen bislang nur eine
eingeschränkte Handlungsrelevanz für die
kommunale Praxis. Bisherige Nachhaltigkeitsindikatorensysteme würden überwiegend einem
übergeordneten, querschnittsorientierten Kernindikatorenmodell entsprechen, aber wenig spezifisch für einzelne Steuerungsebenen sein. Hier
stelle sich aber die Frage, ob die Gesamtentwicklung langfristig gesteuert werden solle oder
konkrete Projekte? Wünschenswert seien aus
dieser Perspektive funktionsspezifische Konzepte mit einer höheren Handlungsrelevanz. Dabei
müssten insbesondere kommunale bzw. regionale Politikziele Aufnahme finden. Gehrlein meinte, dass sich die Berichtssysteme nur dann umfassend in die Kommunalpolitik bzw. -verwaltung implementieren ließen, wenn sie in das
Neue Steuerungsmodell integriert würden.
Nachhaltigkeitsindikatorensysteme hätten dann
nämlich zentrale koordinierende Funktionen und
würden als Controlling-Instrumente eines differenzierten Berichtssystems in Politik und Verwaltung eingesetzt. Daher seien die Systeme in
diese Richtung zu entwickeln und Aspekten der
Implementierung müsste in Zukunft viel mehr
Aufmerksamkeit gewidmet werden.
Der nachfolgende Vortrag von Erwin
Rothgang (Stadt Wuppertal) zeichnete den Prozess der Implementierung eines Nachhaltigkeitsberichtssystems in der Stadt Wuppertal nach. An
diesem Beispiel werde sinnfällig, dass dieser
Prozess (viel) Zeit brauche und von den Akteuren großes Durchhaltevermögen erfordere. In
Wuppertal sei 1995 mit dem Agenda-Beschluss
des Stadtrats der Startschuss gefallen und erst
2004 die strategische Steuerung unter dem Leitbild der Nachhaltigkeit mit Zielvereinbarungen,
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 139
TAGUNGSBERICHTE
Kennzahlen und Indikatoren eingeführt worden.
Rothgang wies in seiner engagierten Präsentation nachdrücklich darauf hin, dass der Implementierung viel Aufmerksamkeit gewidmet
werde müsse und Politiker von Anfang an einzubinden seien.
Ein weiteres Beispiel für die „Dauerhafte
Implementierung eines Nachhaltigkeitsberichtssystems“ wurde von Annett Zimmermann (Stadt
Güstrow) am Beispiel der Stadt Güstrow demonstriert. Ausgangspunkt für die Entwicklung
eines Nachhaltigkeitsberichtssystems sei auch
hier der Agenda-Prozess gewesen, der mit
kommunalen Aktivitäten verknüpft worden sei.
Es sei von Anfang an ein ganzheitlicher Projektansatz verfolgt worden, der die Vernetzung
ökonomischer, ökologischer, sozialer und kultureller Aspekte vorsah. Innerhalb der Stadtverwaltung, so Zimmermann, sei der Umgang mit
den Indikatoren inzwischen zum Alltagsgeschäft
geworden und habe sich professionalisiert. Dies
habe ein Bewusstsein für das Controlling der
Stadt- und Wirtschaftsentwicklung geschaffen
und diene der Kontrolle der eingesetzten Strategien und Maßnahmen. Allerdings seien die Indikatoren dadurch vorrangig Planungswerkzeuge geworden. Auf der politischen Ebene würde
demgegenüber eher mit qualitativen Zielen und
Strategien operiert als mit quantitativen Größen.
Ungeachtet dieser Differenzen schätzte die
Güstrower Planerin den Implementierungsprozess als erfolgreich ein.
4 Nachhaltigkeitsberichtssysteme: Von der
Kontextualisierung zur Implementierung?
Die Tagung machte die breite Palette an Forschungsaktivitäten zum Thema sichtbar und
gestattete eine Verortung der Projekte des RBSFörderschwerpunktes in diesem Feld. In Bezug
auf das Thema der Tagung, die Kontextualisierung, wurde die Vielfalt der Strategien sichtbar,
die von akteursbezogenen über thematische bis
hin zu räumlichen und funktionsbezogenen Strategien reichen. In den Diskussionen wurde deutlich, dass für eine erfolgreiche Implementierung
in der Verwaltung eine Kontextualisierung im
Hinblick auf institutionelle Abläufe erforderlich
ist. Dazu taugen die vorliegenden Indikatorensysteme nur bedingt, da sie in erster Linie für
die (öffentliche) Information und Kommunikation entwickelt wurden und infolgedessen vor
Seite 140
allem zur Bewusstseinsbildung beigetragen
haben. Um sie aber in der kommunalen Praxis
als Steuerungsinstrument nutzen zu können,
bedarf es der Ausrichtung auf spezifische Berichtspflichten sowie kommunale Ziele und
Beschlüsse. Selbst wenn das Leitbild der Nachhaltigkeit akzeptiert und ein kommunaler Zugang dazu entwickelt ist, so muss ein entsprechendes Berichtssystem nicht unbedingt schon
allein deshalb anschlussfähig an die kommunale
Steuerungsphilosophie sein.
Neben dem breiten Überblick über die vorhandenen und die in den RBS-Projekten in Entwicklung befindlichen Berichtssysteme machte
die Tagung auch Fortschritte sichtbar. Diese
bestehen etwa in der mittlerweile erreichten
Vielfalt der entwickelten Indikatorensysteme, in
der Varianz der verwendeten Konzepte, in der
Heterogenität der angewandten partizipativen
Verfahren sowie in der stärkeren Ausrichtung
auf spezifische Funktionen und Ziele. Es wurde
aber auch deutlich, dass viele der entwickelten
Systeme einmalige (Kraft)Akte darstellen, die in
dieser Form nicht wiederholbar sind. Die beteiligten Akteure, gerade aus dem Umfeld der Lokalen Agenden, verfügen in der Regel nicht über
die nötigen Ressourcen, um Berichtssysteme auf
Dauer stellen zu können. Zugleich wurde deutlich, dass sich die bislang entwickelten Berichtssysteme innerhalb eines Rahmens bewegen: Es
werden keine grundsätzlich neuen Systeme
mehr entwickelt, sondern es werden überwiegend bekannte Konzepte herangezogen und
vorliegende Indikatorensets werden nur noch
wenig verändert. Die RBS-Projekte selbst bauen
im Wesentlichen auf dem erreichten Stand der
Indikatorenentwicklung auf und haben ihm nur
partiell Neues hinzugefügt. Dafür sind sie stärker kontextualisiert, etwa durch ihre Ausrichtung auf die Bedürfnisse und Erwartungen der
kommunalen Verwaltungspraxis oder die Einbettung in Formen der ämterübergreifenden
Zusammenarbeit.
Abschließend wurde die Frage diskutiert,
ob im Prozess der Implementierung in die
kommunale Praxis schon der „Point of no return“ erreicht sei. Eine Reihe von Teilnehmern
bezweifelte dies mit Blick auf die bisher geringe
Zahl an erfolgreichen Beispielen. Es blieb dabei
offen, inwiefern die Implementierung an grundsätzlichen Hindernissen scheitert. Deutlich wurde, dass künftig die Beschäftigung – auch die
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAGUNGSBERICHTE
wissenschaftliche Untersuchung – der Voraussetzungen, Bedingungen und Schritte bei der
Implementierung der Berichtssysteme in das
kommunale Verwaltungshandeln von zentraler
Bedeutung für Fortschritte auf diesem Gebiet
sein wird. Es sind auch weitere Anstrengungen
nötig, um die Zugänglichkeit der Systeme für
die Öffentlichkeit zu erhöhen. Die Anwendung
bzw. Umsetzung der Berichtssysteme mittels
elektronischer Software und ihre Einspeisung in
kommunale Intra- bzw. Internetsysteme steht
erst am Anfang. Die Diskussion endete eher mit
offenen Fragen als mit Antworten – was beim
derzeitigen Forschungsstand in diesem Feld
auch nicht überraschend ist. Auf welche Ebene
zielen kommunale Berichtssysteme, auf die der
strategischen Kommunalpolitik, die des Verwaltungshandelns – auch einzelner Ressorts – oder
die einzelner Projekte? Welche spezifischen
Steuerungs- und Controlling-Funktionen können
kontextualisierte Nachhaltigkeitsberichtssysteme haben? Usw. Engagiert wurde dafür gestritten, sich mit derartigen Berichtssystemen „nicht
in die Historie schieben (zu) lassen“.
Die Beiträge der Tagung sollen in einem
Band in der von Armin Grunwald und Bernd
Hansjürgens herausgegebenen Reihe „Global
zukunftsfähige Entwicklung – Perspektiven für
Deutschland“ (edition sigma) publiziert werden.
»
Ökologische Ökonomie: eine
neue Wissenschaft?
Heidelberg, 6. - 8. Mai 2004
Tagungsbericht von Fred Luks, Hamburger
Universität für Wirtschaft und Politik, Projekt NEDS – Nachhaltige Entwicklung zwischen Durchsatz und Symbolik
Welche Funktion kann die Wissenschaft in
einer sich wandelnden Welt haben, wenn das
Ziel eine nachhaltige Entwicklung ist? Welche
Rolle kann die Ökologische Ökonomie in diesem Zusammenhang spielen? Inwieweit ist sie
eine „neue Wissenschaft“, die zur Lösung
wichtiger Gegenwarts- und Zukunftsprobleme
Beiträge leisten kann? Diese und andere durch
das Leitbild „Nachhaltige Entwicklung“ provo-
zierte Fragen an die Wissenschaft im Allgemeinen und die Ökologische Ökonomie im
Besonderen waren Gegenstand der kleinen,
thematisch breit angelegten und inhaltsreichen
Tagung „Ökologische Ökonomie: eine neue
Wissenschaft?“, die von der Vereinigung Ökologische Ökonomie (VÖÖ) vom 6.-8. Mai 2004
in Heidelberg ausgerichtet wurde.
Die Ökologische Ökonomie befasst sich
mit Ganzheiten ebenso wie mit spezifischen
wirtschaftlichen, sozialen und ökologischen
Problemen. Sie sieht sich selbst als offenen
Suchprozess, der zum Suchprozess „Nachhaltige
Entwicklung“ praktikable Lösungen beitragen
will. Diese normativ und im Hinblick auf die
Vision einer nachhaltigen Entwicklung motivierten Charakteristika der Ökologischen Ökonomie als „neuer Wissenschaft“ erwiesen sich
als guter Ausgangspunkt für einen drei Tage
langen Diskussionsprozess, an dem sich über 30
WissenschaftlerInnen unterschiedlicher Disziplinen und unterschiedlicher Generationen intensiv beteiligten. Einmal mehr war der „Heidelberg-Spirit“ der Jahrestagung zu spüren – der
intensive Gedanken- und Erfahrungsaustausch
zwischen den Sitzungen war ebenso wichtig wie
die „offziellen“ Plena und Arbeitsgruppen.
Eine zentrale Scharnierstelle für die Verbindung von Wissenschaft und Nachhaltigkeit
ist die disziplinäre Organisation von Forschung
und Lehre. Wenn die Wissenschaft nicht nur
Teil der Probleme, sondern Teil der Lösungen
sein will, muss sie eben diese Disziplinarität
hinterfragen und sich auf Debatten zum Status
von Mono-, Multi-, Inter- und Transdiziplinarität einlassen. Die Tatsache, dass ein analytisch,
partikularisierend und disziplinär ausgerichteter
Wissenschaftsbetrieb vor dem Hintergrund von
Nachhaltigkeitsproblemen an Überzeugungskraft verliert, war ein wiederkehrendes Thema.
Es gehört zu den Grundannahmen der Ökologischen Ökonomie, dass eine an Nachhaltigkeit
orientierte Reform von Gesellschaft und Wirtschaft mit einer Reform der Art und Weise einhergehen muss, mit der Wissenschaft betrieben
wird. Zu thematisieren ist in diesem Zusammenhang mithin „Kultur“ als Ganzes, und auch
dies wurde auf der Tagung versucht. Zu fragen
war also, wie eine neue Wissenschaft und eine
neue Wissenschaftskultur aussehen können, und
welche Bedeutung der Ökologischen Ökonomie
in diesem Zusammenhang zukommt. Gegen-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 141
TAGUNGSBERICHTE
stand dieser Tagung war mithin nicht das Kleinteilige und Detaillierte, sondern das Große und
Ganze. Mit seinem Vortrag „Auf dem Weg zu
einer neuen Ökonomie – Auf dem Weg zu einer
neuen Wissenschaft?“ führte Peter Plöger (Bielefeld) in das Tagungsthema ein und spannte
dabei einen weiten Bogen von der historischen
Entwicklung der Wissenschaft als einem disziplinär organisierten Gebilde bis zu aktuellen
Problemen. Zwei weitere Plenumsbeiträge konkretisierten Themen und Fragestellungen. Peter
Finke (Bielefeld) stellte die Frage „Was heißt
‚neue Wissenschaft’“ und gab Antworten aus
Sicht der Wissenschaftsforschung, während
Christiane Busch-Lüty (Ebenhausen) „Herausforderungen einer Ökologischen Ökonomie an
die Wissenschaft“ thematisierte.
Am Abend des ersten Konferenztages wurde erstmals der nach dem Ökonomen Karl William Kapp benannte „Kapp-Forschungspreis für
Ökologische Ökonomie“ vergeben. Dieser Preis
wird im zweijährigen Turnus gemeinsam von
der Vereinigung für Ökologische Ökonomie
(VÖÖ), der Kapp-Stiftung, der Hatzfeldt-Stiftung sowie der Forschungsgesellschaft anstiftung vergeben und dient der wissenschaftlichen
Nachwuchsförderung. Aus zahlreichen zum
Thema „Gerechtigkeit und nachhaltige Entwicklung“ eingereichten Studien wurden zwei prämiert: Der Geograph Michael Flitner wurde für
seine von der Universität Freiburg angenommene Habilitationsschrift „Lärm an der Grenze.
Eine Studie über Fluglärm und Umweltgerechtigkeit am Beispiel des Flughafens BaselMulhouse“ ausgezeichnet. Die Politikwissenschaftlerin Dagmar Vinz erhielt die Auszeichnung für die im Rahmen ihrer Promotion an der
Freien Universität Berlin erstellte Studie „‚Verzehrte Zeiten’ – Ubiquität und Temporalität des
Ernährungssystems aus der Perspektive der
Umwelt- und Geschlechterforschung“. Die Jury
des Preises ist interdisziplinär besetzt und besteht aus Fachleuten der Ökonomie, Ökologie,
Soziologie, Wissenschaftstheorie und Kulturwissenschaft. Das Auswahlverfahren steht mit
dem Tagungsthema „Neue Wissenschaft“ also
ebenso in Bezug wie die beiden ausgezeichneten
Arbeiten, die nicht zuletzt durch einen problemorientierten, Disziplinen übergreifenden Ansatz
geprägt sind.
Im Zentrum des zweiten Konferenztages
standen die Arbeitsgruppen, in denen vier The-
Seite 142
menblöcke vertieft diskutiert wurden. Die AG
„Weltbilder reflektieren“ tat genau dies – sie
überdachte unterschiedliche wissenschaftliche
Weltbilder und ihre „Brauchbarkeit“ für eine am
Nachhaltigkeitsleitbild orientierte Wissenschaft.
Die AG „Ökologische Ökonomie kommunizieren“ wandte sich dem Problem zu, wie wissenschaftliche (vor allem: ökologisch-ökonomische) Fragestellungen und Konzepte erfolgreich
in der Öffentlichkeit kommuniziert werden können. Im ökologisch-ökonomischen Diskurs ist es
ein Gemeinplatz, dass man „Institutionen verändern“ muss – die gleichnamige Arbeitsgruppe
thematisierte institutionellen Reformbedarf
ebenso wie die Frage nach der Definition und
theoretischen und praktischen „Bearbeitbarkeit“
von Institutionen. „Transdisziplinarität praktizieren“ schließlich war ein AG-Thema, in dem
vor allem Fragen transdisziplinärer Forschung
und Qualifikation in disziplinären Strukturen
thematisiert wurden. Hier kamen nicht zuletzt
NachwuchswissenschaftlerInnen zu Wort, die
sich mit Disziplinen übergreifenden und praxisorientierten Forschungsarbeiten qualifizieren
wollen und dabei bemerkenswerte Erfahrungen
mit (Hochschul-)Institutionen machen konnten.
Wichtiges Thema dieser AG waren auch die
Grenz-Ziehung zwischen verschiedenen Disziplinen übergreifenden Herangehensweisen und
die Pluralität von Vorstellungen darüber, was
genau Transdisziplinarität bedeutet.
Der bei VÖÖ-Tagungen stets stattfindende
Empfang im Heidelberger Rathaus stand ebenfalls im Zeichen eines grundsätzlichen Nachdenkens über Wissenschaft und die Grenzziehungen, die sie funktionieren lassen, aber auch
zu Problemen führen. Walther Zimmerli, Gründungspräsident der VW AutoUni in Wolfsburg,
verkörpert schon in seiner Person einiges, das
das Verhältnis von Nachhaltigkeit und Wissenschaft charakterisiert oder charakterisieren
sollte: Er ist nicht nur ein philosophischer
Grenzgänger, der sich mit einem breiten Spektrum gesellschaftlicher Probleme befasst hat,
sondern auch ein erfolgreicher Wissenschaftsmanager. Sein launiger Festvortrag „Paradoxien der Nachhaltigkeit – Wissenschaft jenseits
ihrer eigenen Grenzen“ thematisierte die Spannung zwischen Nachhaltigkeitszielen und Wissenschaft. Zimmerlis gedankenreiche Ausführungen waren für alle Teilnehmenden anregend, für einige auch sehr provokativ.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ANKÜNDIGUNGEN / EVENTS
Der letzte Konferenztag begann mit einigen
Überlegungen von Beate Weber, Oberbürgermeisterin der Stadt Heidelberg, zur praktischen
Nachhaltigkeitspolitik auf regionaler Ebene.
Daran anschließend wurden die Ergebnisse aus
den Arbeitsgruppen präsentiert und diskutiert.
Der letzte Plenumsbeitrag war ein „Praxisbericht“ von Sabine Höhler und Fred Luks (beide
Hamburg) zum Thema „Transdisziplinarität als
neues Weltbild?“. Die Praxis, aus der Höhler
und Luks berichteten, ist die vom Bundesministerium für Bildung und Forschung geförderte
sozial-ökologische Forschung (SÖF), in deren
Rahmen beide über „Nachhaltige Entwicklung
zwischen Durchsatz und Symbolik“ forschen.
Der Vortrag stellte Bezüge her zwischen den
Diskussionspunkten der Tagung und dem Alltag
interdisziplinären Forschens in einer nach wie
vor disziplinär strukturierten Umgebung. Dieses
Spannungsfeld sei anstrengend, biete aber auch
ein überaus interessantes Betätigungsfeld. Darüber hinaus wurden in diesem Vortrag die Vorzüge und Tücken einer konstruktivistischen
Perspektive herausgearbeitet.
Die Plenarvorträge und die Ergebnisse der
Arbeitsgruppen werden in Kürze von der VÖÖ
in der Reihe „Beiträge und Berichte der Vereinigung für Ökologische Ökonomie“ publiziert
werden (http://www.voeoe.de). Was die Tagung sehr deutlich gemacht hat: Der „Querschnittscharakter“ des Leitbildes einer nachhaltigen Entwicklung stellt nicht nur die Politik
vor große Herausforderungen, sondern eben
auch die Wissenschaft. Und ebenso wie der
politische Bereich sind Forschung und Lehre
durch die Nachhaltigkeitsdebatte mit Problemen konfrontiert, die ihr Selbstverständnis auf
fundamentale Weise berühren. Das Programm
der „sozial-ökologischen Forschung“ des Bundesforschungsministeriums ist hier ebenso zu
nennen wie das Aufkommen neuer Paradigmen
wie der Ökologischen Ökonomik. Die Notwendigkeit, auch jenseits technischer Entwicklung innovativ sein zu müssen, ist eine bleibende Herausforderung für alle Anstrengungen
im Hinblick auf Zukunftsfähigkeit. Dass die
Wissenschaft hier wichtige Beiträge leisten
kann, wenn sie sich auf inter- und transdisziplinäre Debatten einlässt, hat die Tagung auf
beeindruckende Weise gezeigt.
«»
ANKÜNDIGUNGEN /
EVENTS
Adapting to Climate Change –
Developing Local Strategies
London, United Kingdom, December 2, 2004
This conference will address both likely impacts
and adaptation responses, in the context of an
integrated approach which includes local emissions mitigation responses under schemes such
as the Nottingham Declaration on Climate
Change. It takes place in the run-up to the Tenth
Conference of the Parties to the UN Framework
Convention on Climate Change in Buenos Aires
in December 2004, which is set to focus for the
first time primarily on adaptation measures.
Drawing upon contributions from a wide
range of experts and practitioners, it will assess
the threats and costs arising from climate change and their impacts, particularly in fluvial and
coastal regions, urban areas, air quality management areas, low-lying facilities such as
toxic waste and nuclear sites presenting potential health risks. Presentations will cover the
implications for planning, insurance, investment, sustainable construction and future provision of emergency services, particularly in
growth areas. Progress on improved local prediction, regional and local adaptation strategies
will be reviewed, with a wide range of examples of best practice presented.
The conference will be of interest to a wide
range of stakeholders in climate change adaptation, particularly: regulatory bodies, regional
partnerships, local authorities, planners, water,
gas and electricity utilities, the nuclear and
waste industry, insurers, lenders, lawyers, consultants, engineers, architects, the residential and
commercial property sectors, the construction
industry, the transport sector, the emergency
services, academics, the tourism industry, amenity managers, and public health experts.
For more information go to:
http://www.newzeye.com/conferences_educati
on/conferences_display.cfm?item_ID=64
or contact conference@newzeye.com
or phone +44 (0)20 8969 1008
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
«
Seite 143
ANKÜNDIGUNGEN / EVENTS
Konkrete Utopien der Arbeit (III)
Mobilität und Mensch im Zeichen flexibler Arbeitskulturen
Ludwigshafen, 3. Dezember 2004
Gemeinsam lädt ein engagiertes Netzwerk* zur
dritten Veranstaltung „Konkrete Utopien der
Arbeit“ ein. In diesem Jahr trägt sie den Titel:
„Mobilität und Mensch im Zeichen flexibler
Arbeitskulturen“.
Wie werden wir morgen arbeiten? Wie
flexibel müssen wir bleiben, um beschäftigungsfähig zu sein? Wie mobil gestaltet sich
die zukünftige Arbeitswelt? Mit welchen Anforderungen wird der erwerbstätige Mensch
konfrontiert? Ist er ein Objekt und ein Getriebener des technischen Fortschritts oder gelingt
es ihm, endlich „die Geschicke selbst in die
Hand zu nehmen“, wie es Karola Bloch einmal
ausdrückte? – Die Referentinnen und Referenten der Tagung „Mobilität und Mensch im Zeichen flexibler Arbeitskulturen“ geben erste
Antworten. Die Positionen sind kontrovers und
doch einem gemeinsamen Ziel verbunden:
Frauen und Männer sollen mit Hilfe von Orientierungswissen einen leichteren (Wieder-)Einstieg in die Arbeitswelt erhalten.
Mit der Veranstaltung wird die Themenreihe „Philosophie trifft Arbeitswelt – Arbeitswelt trifft Philosophie“ fortgesetzt. Ziel der
Initiative ist es, einen kritischen Dialog zwischen Wissenschaft, Gewerkschaft, Wirtschaft,
Forschung, Politik und Kultur über den Wandel
der Arbeit auf dem Weg in die Informationsund Wissensgesellschaft anzustoßen.
„Die Philosophie hat uns in der Neuzeit die
Frage nach der Arbeit, ineins die nach dem Sinn
von Arbeit, als zentrale Frage unserer Selbstbestimmung präsentiert und zudem aufgezeigt,
dass sie notwendig nur über die Gesellschaft zu
beantworten sei. Der Sinn der Arbeit ist nur vom
gesellschaftlichen Kontext ausgehend zu begreifen. Wandelt sich dieser, so verändert sich auch
die Arbeit und verändert sich die Arbeitswelt, so
entsteht gesellschaftlicher Wandel, denn wir
bestimmen unsere gesamten Lebensbereiche
vom Arbeitsplatz her. Globalisierung, Digitalisierung und Rationalisierung sind Stichworte,
die immer dann fallen, wenn es darum geht, die
gegenwärtigen in kaum vorstellbarer Geschwindigkeit sich vollziehenden Veränderungen der
Arbeitswelt zu benennen. Aufgabe der philoso-
Seite 144
phischen Reflexion wäre es, das in den Wandlungen entstehende gesellschaftliche Potenzial
an seinen Möglichkeiten zu messen. Dabei sollen insbesondere Prozesse der Ungleichzeitigkeit der Arbeitskulturen betrachtet und die Ausgestaltung konkreter Utopien der Arbeit befördert werden. Im Zentrum steht dabei die gesellschaftliche Emanzipation des Menschen im
Umbruch der industriellen Erwerbsarbeit hin zu
‚Neuen Infrastrukturen der Arbeit‘ der ITgestützten globalen Ökonomie.“ (Aus dem Vorwort des Bloch-Jahrbuches 2003)
Der Eintritt ist frei. Es wird um eine freiwillige Eintrittsspende in Höhe von 5.00 €
gebeten.
* Gemeinsame Tagung des Ernst-Bloch-Zentrums
und der „Virtuellen Bloch-Akademie“ des Talheimer Verlages in Zusammenarbeit mit dem
„Forum Soziale Technikgestaltung“, der Gewerkschaft ver.di Landesbezirk Baden-Württemberg
Abteilung Bildung und der Ernst-Bloch-Gesellschaft e.V. – unterstützt von ZIRP Zukunftsinitiative Rheinland-Pfalz und der Stiftung ErnstBloch-Zentrum
Anmeldung
Anmeldung erbeten über Mail an
schroeter@talheimer.de
«
Greening of Policies – Interlinkages and Policy Integration
Berlin Conference on the Human Dimensions of Global Environmental Change
Berlin, Germany, December 3 - 4, 2004
The Environmental Policy and Global Change
section of the German Political Science Association (DVPW) and its partners will organise
the 2004 Berlin Conference on the Human
Dimensions of Global Environmental Change,
to be held in Berlin on 3-4 December 2004.
This year’s discussions will address the theme
“Greening of Policies – Interlinkages and
Policy Integration”. The 2004 Berlin Conference has been endorsed by the International
Human Dimensions Programme (IHDP) core
projects “Institutional Dimensions of Global
Environmental Change (IDGEC)” and “Indus-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ANKÜNDIGUNGEN / EVENTS
trial Transformation” (IHDP-IT), and is organised by the Environmental Policy Research
Centre of the Freie Universität Berlin. Additional support is provided by the Global Governance Project (glogov.org). The 2004 Berlin
Conference on the Human Dimensions of
Global Environmental Change is the fourth of
its kind in Germany.
coordinated approach. Special attention has to
be paid to mutual interaction between regimes
and policies on the international and national
level, such as trade and environment.
The conference should bring about a stocktaking of both the institutional basis of policy
integration on the different levels of policy making as well as an improvement of the knowledge
basis for a furthering of integration.
The Berlin Conferences aim at:
• establishing and developing a renowned
institution for international exchange among
social scientists dealing with Global Change
• supporting exchange especially with scientists from developing countries
• transferring international research agendas
to Germany and Europe
• stimulating problem-oriented and interdisciplinary research by organising communication between political science and its
neighbour disciplines as well as between
scientists and decision makers
• creating internationally recognised publications.
The Policy Problem
Problems of Global and Regional Environmental Change are by their very nature sectorrelated problems. Insofar, their solution requires sector-integrated approaches of policymaking that abandon the parallel pursuit of
contradictory policies. Thirty years of environmental policy-making at the national and
international level reveal, however, striking
problems to establish interlinkages that lead to
an integration of regimes and joined-up policymaking, both horizontally on each level of
political decision-making and vertically between the different layers of the multi-level
system of international governance.
One crucial factor in explaining this path
of development is the traditional organization
model of bureaucracy that is based upon specialization and division of work. It has proven
to be successful in a number of ways. It fails,
however, in addressing the needs of crosscutting problems such as environmental protection. The challenge, both at the national and
international level, is to establish institutional
provisions that allow actors to pursue a more
Core Questions
Given the obstacles for a more far reaching
consideration of environmental concerns in
sectoral policy making processes on both the
national and the international level there is a
need for an analysis of instruments and strategies, and the institutional setting in which they
are implemented. Which approaches have proven to be successful, what are the impediments? Against this background contributions
will particularly deal with the following issues:
1. Analysis of policy integration in practice:
What kinds of institutions are successful in
strengthening policy integration? Which actors, which instruments and strategies were
the driving forces of a greening of policies?
We are interested in case studies from different policy fields and from different levels
of policy making. What are the implications
of policy integration for environmental policy? Is there evidence for a diluting of environmental concerns by building up an overcomplexity of integration requirements and
a loss of advantages gained by specialization? What is the role of law in codifying
integration requirements? In how far are
major trends, e.g. economic and political
globalization, from government to governance, from environmental protection to sustainable development affecting integration
efforts?
2. Instruments and knowledge basis for policy
integration: What methods are available or
currently under development that allow for
an ex ante evaluation of the effects of policies on the different dimensions of sustainability? What indicators are available that
allow an assessment in how far a policies
are integrated? What experiences are available in integrating the different domains of
knowledge for such an assessment?
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 145
ANKÜNDIGUNGEN / EVENTS
3. Multi-level aspects: To what extent are international regimes affecting the capacities at
the national level for a greening of policies
and vice versa? What efforts have been undertaken to ensure also a vertical integration
among the different levels of policy making?
In how far are impacts in other countries
considered in approaches of policy integration, in particular in respect of developing
countries? What mechanisms proved to be
successful in ensuring the coherence of the
different international regimes, in particular
between environmental and trade regimes?
Special panel Teaching
This years Berlin Conference will host a special panel on academic environmental teaching
programs. Complex environmental problems as
climate change, loss in biodiversity, ground
water pollution, degradation of soil caused by
human activities ranging from global to local
level challenge academia in many respects.
To tackle these problems an interdisciplinary perspective are required.
Hence academic training has to adapt new
forms of systematic interdisciplinary cooperation. Professional training needs to integrate
elements such as interdisciplinary communication, methods of problem-oriented approaches
and teambuilding. Moreover the ground has to
be paved for communication between academia
and non-university experts and practitioners
from the state, industry and non-government
organisations. How can academic programs
respond to these challenges? The papers in this
section will present experiences in teaching
environmental sciences.
Contact
Daniel Pentzlin
Manager, 2004 Berlin Conference
Environmental Policy Research Centre
Tel.: +49 (0) 30 / 838 - 570 31
Fax: +49 (0) 30 / 838 - 566 85
E-Mail: bc2004@zedat.fu-berlin.de
Conference Website: http://www.fu-berlin.de/ffu/
akumwelt/bc2004/
Nachhaltiges Wirtschaften 2010:
Towards A Balanced Economy
Berlin, 16. - 17. Dezember 2004
Das Deutsche Kompetenzzentrum für Nachhaltiges Wirtschaften (dknw) an der Universität
Witten/Herdecke, gefördert durch die Deutsche
Bundesstiftung Umwelt, veranstaltet am 16. und
17. Dezember 2004 unter der Schirmherrschaft
des Bundesumweltministeriums den Kongress
„Nachhaltiges Wirtschaften 2010“ mit dem
Trendsetting-Forum „Nachhaltigkeit für alle“.
Als Referenten konnten hochrangige Experten und Persönlichkeiten aus Politik, Verbänden, Wissenschaft und Unternehmenspraxis
gewonnen werden.
Am ersten Tag des Kongresses lädt das
dknw dazu ein, aufbauend auf Impulsreferaten
die Zukunft Nachhaltigen Wirtschaftens zu
diskutieren. Themen sind u.a. aktuelle Fragestellungen wie Klimaschutz und Emissionshandel, Kommunikation von Nachhaltigkeit
und die Umsetzung Nachhaltigen Wirtschaftens in der Unternehmenspraxis.
Am zweiten Tag des Kongresses bietet das
Trendsetting-Forum „Nachhaltigkeit für alle“
die Möglichkeit, im Rahmen von Workshops
aktuelle Themenstellungen des Nachhaltigen
Wirtschaftens zusammen mit Fachexperten zu
diskutieren.
Eine kongressbegleitende Posterausstellung informiert über Arbeiten und Projekte, die
am dknw bearbeitet werden bzw. wurden.
Anmeldung
Deutsches Kompetenzzentrum für Nachhaltiges
Wirtschaften (dknw)
Wirtschaftsfakultät, Universität Witten/Herdecke
Alfred-Herrhausen-Straße 50, 58448 Witten
Tel.: +49 (0) 23 02 / 926 - 505
Fax: +49 (0) 23 02 / 926 - 539
E-Mail: dknw@uni-wh.de
Internet:
http://www.nachhaltigeswirtschaften2010.de
«
»
Seite 146
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ANKÜNDIGUNGEN / EVENTS
Climate Change Risks & Opportunities: Learning from the
Leaders
New York, USA, January 13 - 14, 2005
Conference Objectives
Contact
Robyn Stewart
Center for Economic and Environmental Partnership, Inc.
New York
Tel.: +1 518 432 6400
E-Mail: robyn@ceepinc.org
The leading conference objectives are:
- to bring the leaders of the corporate, financial
and legal sectors together with some of the
world’s foremost experts on climate change
policy to discuss the legal and practical implications of the problem for U.S. businesses;
- to consider the experience of the major
companies that have taken early action to
reduce greenhouse gas emissions; and
- to discuss pragmatic steps companies can
take to develop an effective and profitable
strategy for contributing to climate change
mitigation.
Conference Agenda
The conference will run from 12:30 pm on
Thursday, January 13th through 5:30 pm on
Friday, January 14th, 2005.
The conference will be divided into three
blocks:
- Session 1: Expert Briefings on the scientific
basis for climate change mitigation and
emerging policy frameworks;
- Session 2: Corporate Spotlight on the business case for action on climate change and
how leading companies have responded;
- Session 3: Interactive Workshops with industry leaders and policymakers to assist
companies with integrating climate change
into their strategic planning.
Who Should Attend
• Companies interested in addressing climate
change risks & opportunities in a strategic
way, based on practical experiences;
• Corporate legal and management advisors,
who need to integrate climate change considerations into their advisory services;
• Regulators who want to learn about corporate best practice and innovative approaches
of leading companies;
• Anyone wanting to remain updated on the
latest climate policy development in the USA.
«
Europapolitischer Workshop
Vorsorgende Chemikalienpolitik in
der erweiterten EU:
Wie viel Fortschritt bringt die
REACh-Verordnung?
Loccum, 21. - 23. Januar 2005
Mit der Implementierung des REACh-Verfahrens (Registration, Evaluation and Authorisation
of Chemicals) will die EU-Kommission dafür
sorgen, dass in Zukunft alle Chemikalien vor
ihrer Markteinführung registriert, evaluiert und
besonders gefährliche Substanzen nur noch für
bestimmte Anwendungen zugelassen werden.
Auch die bereits auf dem Markt befindlichen
rund 30.000 Altstoffe sollen nach und nach entsprechenden Prüfungen unterzogen werden.
Wie aber kann es gelingen, REACh als ein
hinreichend flexibles, lernendes System zu etablieren, das so effektiv wie möglich der Erreichung der erklärten politischen Ziele der EU auf
dem Feld der Gesundheits- und Umweltpolitik
dient und zu diesem Zweck auch den bestehenden Informationsrechten bzw. Partizipationsinteressen der Bevölkerung (insbesondere als Konsumenten von Erzeugnissen der chemischen
Industrie) gerecht wird, ohne dabei inakzeptable
Beeinträchtigungen der Wettbewerbsfähigkeit
europäischer Chemikalienproduzenten im EUüberschreitenden Handel in Kauf zu nehmen?
Dies ist die Frage, auf die im Dialog mit
politischen Entscheidungsträgern und ausgesuchten Fachleuten auf dem Workshop Antworten gesucht werden sollen.
Der Workshop wird gefördert durch die
Deutsche Bundesstiftung Umwelt (BDU) in
Zusammenarbeit mit dem Lehrstuhl für Produktionswirtschaft und Umwelt der Universität
Oldenburg und mit dem Arbeitskreis Umweltchemikalien/Toxikologie im BUND e.V.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 147
ANKÜNDIGUNGEN / EVENTS
Anmeldung
Evangelische Akademie Loccum
Postfach 2158, 31545 Rehburg-Loccum
Tel.: +49 (0) 57 66 / 81-0
Fax: +49 (0) 57 66 / 81-9 00
Internet: http://www.loccum.de
»
ENTER 2005
12th International Conference on information Technology and Travel & Tourism
Innsbruck, Austria, January 26 - 28, 2005
Now in its twelfth year, ENTER is the ONLY
travel and tourism e-business conference that
successfully brings together top ranking practitioners, researchers, destination managers and
consultants to debate all aspects of e-business
in Travel and Tourism.
The theme for 2005 is “E-business is here
– What’s Next?”, reflecting the tremendous
impact of new technologies on the travel and
tourism sector. Delegates will be able to “look
behind the curtain” and discuss and debate new
developments and new business practices that
are being or about to be implemented by leading businesses and destinations worldwide.
Regularly attracting over 400 international
delegates, the ENTER series of conferences are
well known for their lively debates, leadingedge research and, most importantly, for the
opportunity they provide for delegates to exchange information and experiences in what is
still a brave new world of tourism e-business.
The involvement of leading academics and
researchers has always been an integral feature
of ENTER conferences and the 2005 event will
be no exception. An extensive research track is
planned which will complement the highlyfocused business sessions.
The conference is organised by ifitt – the
International Federation for IT and Travel &
Tourism (http://www.ifitt.org).
Registration and Hotel Accommodation
PCO Tyrol Congress – Congress Innsbruck GmbH
Rennweg 3, A-6020 Innsbruck, Austria
Tel.: +43 - 512 - 57 56 00
Fax: +43 - 512 - 57 56 07
E-Mail: enter05@congress-innsbruck.at
Internet: http://www.pco-tyrolcongress.at
»
Seite 148
Informatisierung der Arbeit –
Gesellschaft im Umbruch
Darmstadt, 27. - 28. Januar 2005
Ziel der Tagung
Dass digitale Informations- und Kommunikationstechnologien heute enorme Auswirkungen
auf Wirtschaft und Gesellschaft haben, ist unbestritten. Das gilt speziell für die Arbeitswelt,
die einem Strukturwandel im globalen Maßstab
unterworfen ist: Produktions- und Verwertungsketten werden neu zusammengesetzt;
neue Medien schaffen neue Möglichkeiten der
globalen Steuerung und Kontrolle von Arbeitsund Produktionsprozessen; mit dem Internet
entsteht ein global verfügbarer Informationsraum, der dem arbeitenden Subjekt als virtueller sozialer Handlungsraum gegenübertritt.
Wie lässt sich diese informatisierte Arbeitswelt begreifen, erklären und gestalten?
Diese Frage stellt sich gleichermaßen WissenschaftlerInnen wie den Akteuren der Arbeitswelt. Traditionelle Erklärungsmuster und Gestaltungsmittel, die für die Analyse der fordistischen Industriegesellschaft entwickelt wurden,
sind heute sicherlich in manchen Punkten nicht
mehr angemessen. Aber worin besteht denn
tatsächlich das Neue informatisierter Arbeit?
Das Ziel dieser Tagung ist es, den Fragen
nachzugehen, die für das Verständnis und die
Gestaltung der modernen Arbeitswelt von Bedeutung sind:
• In welchem Verhältnis stehen Informatisierung und Industrialisierung?
• Was kennzeichnet die neuen Organisationsformen der Arbeit und welche Chancen und
Risiken bergen sie?
• Was sind die prägenden Merkmale der
“neuen Technologien”? Welche Trends in
der informationstechnischen Entwicklung
zeichnen sich ab?
• Welche Folgen hat die informatisierte Arbeitswelt für das Subjekt und seine Lebenswelt?
• Welche Folgen für soziale Gerechtigkeit
und Bildung zeichnen sich ab? Welche Anforderungen entstehen insbesondere an die
betriebliche Aus- und Weiterbildung?
• Wie entwickelt sich die internationale Arbeitsteilung und welche Gestaltungsnotwendigkeiten ergeben sich in Zukunft daraus?
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ANKÜNDIGUNGEN / EVENTS
Die Tagung richtet sich an WissenschaftlerInnen
aus allen Disziplinen, die sich mit dem Wandel
von Arbeit und Gesellschaft befassen – und
zugleich an betriebliche Akteure, die den Prozess der Informatisierung mitgestalten, sowie an
VertreterInnen aus Verbänden und Gewerkschaften. Wir wollen aufmerksam machen auf
Gefahren und Chancen dieser Entwicklung und
uns auf die Suche begeben nach neuen Erklärungs- und Lösungsansätzen, die den Wandel
verständlich und die Zukunft gestaltbar machen.
Die Tagung findet statt im Rahmen des
Forschungsvorhabens „Kooperationsnetz prospektive Arbeitsforschung“ (KoprA) – gefördert
mit Mitteln des Bundesministeriums für Bildung
und Forschung unter dem Förderkennzeichen
01HN0122 und betreut vom Projektträger „DLR
– Innovative Arbeitsgestaltung und Dienstleistungen“ im Rahmenkonzept „Innovative Arbeitsgestaltung – Zukunft der Arbeit“.
Tagungsablauf
Nach einer Einführung in die Tagung sind die
folgenden vier Themenblöcke vorgesehen:
1. Die Praxis der Informatisierung
2. Informatisierung – Industrialisierung – Subjekt (Diskussionsforen – parallel in zwei
Staffeln)
3. Informatisierung in gesellschaftstheoretischer Perspektive
4. Informatisierung der Arbeit – Gesellschaft
im Umbruch (Podiumsdiskussion mit hochrangigen Vertretern von IG Metall und
ver.di sowie aus Politik, Wirtschaft und
Wissenschaft)
Anmeldung
Anmeldung per Fax oder E-Mail erbeten an:
Kooperationsstelle Wissenschaft und Arbeitswelt
Rheinstr. 50, 64289 Darmstadt
Tel.: +49 (0) 61 51 / 30 73 16
Fax: +49 (0) 61 51 / 30 73 22
E-Mail: info@kooperationsstelle-darmstadt.de
Ein Anmeldeformular steht zur Verfügung unter
http://www.informatisierung-der-arbeit.de
Aktuelle Informationen finden Sie im Internet:
http://www.informatisierung-der-arbeit.de
»
Call for papers
DGS-Sektion Wissenschafts- und Techniksoziologie
Pervasive Computing – Totale
Vernetzung
Visionen eines neuen Verhältnisses von
Technik und Gesellschaft
Dortmund, 22. - 23. April 2005
Unter Pervasive Computing (PvC) und – nahezu synonym dazu „Ubiquitous Computing“
(UC) – werden Visionen der Durchdringung
von Lebenswelt und gesellschaftlichen Strukturen durch miniaturisierte, drahtlos miteinander
vernetzte Rechner subsumiert. Während Großrechner nur von wenigen Experten benutzt
wurden und der PC nach dem Konzept „one
man, one computer“ funktioniert, sollen in
Zukunft Rechner die Dinge in „smarte“ Artefakte verwandeln, um so Handlungsabläufe zu
informatisieren. Protagonisten eines PvC/UC
wie z. B. Mark Weiser antizipieren damit verknüpfte neue Formen der Bedürfnisbefriedigung („intelligente“ Kleidung „kommuniziert“
bei Eintritt in das „smart home“ mit der vernetzten Haustechnik und regelt nach individuellen Nutzerprofilen Heizung, Licht, Unterhaltungselektronik, E-Mail-Abruf etc.) und der
Rationalisierung („smart labels“ ermöglichen
das Scannen von Waren, Gepäck oder Menschen schnell und berührungslos).
Allerdings sind noch viele technische
Probleme von der Energieversorgung bis zur
funktionierenden Vernetzung ungelöst, die
Frage nach der Nützlichkeit und sozialen Akzeptanz von Anwendung bleibt ungeklärt; und
eine Diskussion um PvC/UC und Fragen der
informationellen Selbstbestimmung, des Datenschutzes oder der Risiken komplexer vernetzter Systeme, die reale physische Vorgänge
automatisiert steuern, hat erst begonnen.
Die einzureichenden Papers sollten möglichst einem der folgenden Gliederungspunkte
zuzuordnen sein:
• Die Genese der PvC-Vision: Von der Idee
Mark Weisers bis zu aktuellen Konzepten
ökonomischer Nutzung
• PvC: technische Möglichkeiten und Restriktionen
• Anwendungsfelder des PvC (Verkehr, Haus,
Unterhaltung, Dienstleistung, Produktion etc.)
• PvC als Gegenstand der TA
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 149
ANKÜNDIGUNGEN / EVENTS
• PvC: ein technisches Mittel zur Lösung sozialer Probleme?
• PvC als riskante Technik: automatisierte
Komplexität als Problem
• PvC, „Agency“ und verteiltes Handeln
• Der PvC-Diskurs oder die Frage danach, wie
Vision und „Wirklichkeit“ voneinander geschieden werden können.
Einsendeschluss für Abstracts (max. 1 Seite) ist
der 15. Januar 2005.
Kontakt
Dr. Stephan Cramer
Universität Dortmund
WiSo-Fakultät
44221 Dortmund
Tel.: +49 (0) 231 / 755 - 37 17
E-Mail: stephan.cramer@uni-dortmund.de
«
NanoBusiness 2005
New York, USA, May 23 - 25, 2005
The NanoBusiness Alliance*, in conjunction
with Penton Media, announces the 4th annual
NanoBusiness 2005, to be held May 23, 24,
and 25, 2005 at the New York Marriott Financial Center Hotel in New York City.
NanoBusiness 2005 is Nanotechnology’s
foremost business conference, intended for key
stakeholders in the business of small technology, and will once again gather hundreds of
scientists, engineers, business leaders and investors for three intensive days of seminars,
presentations, keynotes and networking events.
NanoBusiness 2005 is designed to provide
the information required to move research and
application development to commercialization,
as well as to showcase the ongoing integration
of small tech products into the global economy.
Whether you are a scientist, engineer,
business executive or investor, NanoBusiness
2005 is your very best opportunity to learn
about the latest applications, opportunities,
breakthroughs, challenges and issues within the
rapidly evolving world of nanotechnology.
This is the only event that brings together so
many of the industry’s luminaries and stakeholders. It is the premiere nano education, information and networking event in 2005.
Seite 150
Contact
Vincent Caprio
Event Director
Tel: +1 – 203 - 559 - 28 11
E-Mail: mailto:vcaprio@penton.com
Further information on the conference is available
at: http://www.nanoevent.com
*
About The NanoBusiness Alliance
The NanoBusiness Alliance is the first industry
association founded to advance the emerging
business of nanotechnology. The NanoBusiness
Alliance creates a collective voice for the
emerging small tech industry and is developing
a range of initiatives to support and strengthen
the nanotechnology business community, including research and education, public policy
and awareness, public relations and promotion, networking, industry support and mentoring programs.
The Alliance was founded by F. Mark
Modzelewski, Nathan Tinker and Josh Wolfe of
Lux Capital in 2001. The Advisory Board of the
Alliance is headed by the leaders of the
nanotechnology community and is headed by
former House Speaker Newt Gingrich, famed
venture capitalist Steve Jurvetson of Draper
Fisher Jurvetson, and Herb Goronkin, the
noted nanotechnology visionary who recently
retired Motorola.
For more information about the NanoBusiness
Alliance,
please
visit:
http://www.nanobusiness.org
»
Erstankündigung
TA’5: Technikfolgenabschätzung und Politik – Rückblick in
die Zukunft
5. österreichische TA-Konferenz
Wien, Österreich, 30. Mai 2005
Als Termin für die nächste große TA-Konferenz des Instituts für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften ist der 30. Mai 2005 vorgesehen.
Interessenten werden gebeten, sich diesen
Termin vorzumerken.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ANKÜNDIGUNGEN / EVENTS
Die Website wird sein:
http://www.oeaw.ac.at/ita/ta05/
Kontakt
Univ.-Doz. Dr. Michael Nentwich
Institut für Technikfolgen-Abschätzung
Österreichische Akademie der Wissenschaften
Strohgasse 45/5, A-1030 Wien
Tel.: +43 - 1 - 515 81 65 83
Fax. +43 - 1 - 710 89 83
Internet: http://www.oeaw.ac.at/ita;
http://eiop.or.at/mn/
»
work organization (networks, virtual teams).
Special attention will be paid to the development of skill and competencies, the role of
institutions, social actors and regulation and on
new groups at risk (see also the preliminary
programme and the subthemes).
Call for papers
Participants are invited to send their abstract (at
least three A4-pages) to one of the convenors of
the five thematic workshops, listed here below,
before January 17th 2005. Information about
acceptance will be send before March 1, 2005.
Thematic Workshops
Call for papers / 1st Bi-annual European
Conference
ICT, the Knowledge Society
and Changes in Work
The Hague, The Netherlands, June 9-10, 2005
The 1st Bi-annual European Conference on ICT,
the Knowledge Society and Changes in Work
will be held in The Hague, The Netherlands,
9 & 10 June 2005. The conference is organized
by SISWO / Social Policy Research in close cooperation with (and funded by) NWO-MES /
The Dutch “Society and the Electronic Highway” research funding programme and the
Dutch Cultural Planning Office (SCP).
Conference theme
Changes in ICT and work offer the framework
for the conference. First and foremost among
those changes is the emergence of the information society, in which production and employment are increasingly geared to the development of information and the creation of knowledge. Secondly there is the growing importance
of ICT-tools at the workplace. As a consequence, the work process and the organization
of work are also undergoing major changes. Of
course, not only does ICT have an impact on
work, but also the other way around: social
forces (the social dialogue, institutional shaping, transitional labour markets) influence
technological developments. The relationship
between ICT and work is reciprocal.
The focus of the conference is on the impact of ICT and the knowledge society on
work, the quality of work and new forms of
- ICT and skill change: opening the black box?
Convenor: Bram Steijn
(E-Mail: steijn@fsw.eur.nl)
- Virtual teams and virtual organizations
Convenor: Erik Andriessen
(E-Mail: j.h.t.h.andriessen@tbm.tudelft.nl)
- ICT, work and social inequality
Convenor: Jos de Haan
(E-Mail: j.de.haan@scp.nl)
- ICT and Public Sector Reform
Convenor: Willem Trommel
(E-Mail: W.A.Trommel@utwente.nl)
- ICT and Globalization
Convenor: Monique Ramioul (E-Mail:
monique.ramioul@hiva.kuleuven.ac.be)
For further information and Registration
please contact
Drs. Otto Nuys
SISWO/Social Policy Research
Plantage Muidergracht 4, NL-1018 TV Amsterdam,
The Netherlands
Phone: +31 - 20 - 527 06 21
Fax: +31 - 20 - 622 94 30
E-Mail: nuys@siswo.uva.nl
Conference website:
http://www.nwo.nl/nwohome.nsf/pages/NWOP_64PB8P
«»
Ausführlichere Informationen zu diesen Veranstaltungen sowie Hinweise zu weiteren Tagungen sind dem ständig aktualisierten “Konferenzkalender” auf dem ITAS-Server zu entnehmen
(http://www.itas.fzk.de/veranstaltung/inhalt.htm)
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 151
ITAS-NEWS
ITAS-NEWS
Bericht über die erste Konferenz
des „Netzwerks TA“ (NTA1)
gensatz z. B. zum Health Technology Assessment (HTA) mit regelmäßigen internationalen
Konferenzen). Diese, der internen Kommunikation und der externen Sichtbarkeit entgegen
stehende Situation soll durch das „Netzwerk
TA“, das auch selbst Konferenzen organisieren
wird, behoben werden. In diesem Sinne ist die
Konferenz „Technik in einer fragilen Welt –
Perspektiven der Technikfolgenabschätzung“
als Auftakt einer Reihe gedacht.
1 Hintergrund
2 Zum Konferenzthema
Seit einiger Zeit laufen Bemühungen zu einer
besseren Vernetzung und Selbstorganisation
der Technikfolgenabschätzung (TA) in ihren
verschiedenen Orientierungen, institutionellen
Implementierungen, methodischen Orientierungen und fachlichen Schwerpunkten. Vor
diesem Hintergrund ist der Aufruf zur Gründung eines „Netzwerks TA“ vom Mai dieses
Jahres von Alfons Bora (Universität Bielefeld),
Armin Grunwald (ITAS/TAB) und Ortwin
Renn (Universität Stuttgart) zu sehen, der unterstützt durch eine Reihe von Kolleginnen und
Kollegen am 24.11.2004 zur Gründung des
„Netzwerk TA“ führte. Im Anschluss fand die
Konferenz „Technik in einer fragilen Welt –
Perspektiven der Technikfolgenabschätzung“
statt, die erste Konferenz des „Netzwerks TA“
(NTA1). Sie wurde veranstaltet von den oben
genannten Einrichtungen, unterstützt vom
BMBF, und fand statt im neuen Glashaus des
Botanischen Gartens in Berlin-Steglitz.
TA-Konferenzen in Deutschland (und darüber hinaus) fanden bislang nur zu speziellen
Themen oder Ereignissen und insgesamt eher
selten statt (mit Ausnahme der 2005 bereits im
fünften Jahr stattfindenden österreichischen TATagungen). Beispiele sind das TA-Kolloquium
in Bonn anlässlich des 65. Geburtstages von
Herbert Paschen 1998 (Petermann, Coenen
1999) und der e-Society-Kongress in Berlin
2001 (Banse, Grunwald, Rader 2002). Auf
europäischer Ebene versandete der Ansatz einer Konferenzserie „European Congress on
Technology Assessment“ (ECTA) nach der
dritten Veranstaltung 1992. Die TA-Community hat bislang keine regelmäßig stattfindende
Form des Austauschs in Bezug auf Forschung
und Beratungspraxis ausgebildet (ganz im Ge-
Die Welt wird heute als hoch differenziert, aber
auch als fragil und zerbrechlich wahrgenommen
(Stehr 2003). Zu den wesentlichen Gründen
gehören die ökonomische Globalisierung, die
Auflösung kultureller Traditionen, das Denken
in Netzwerken statt in Hierarchien und die Herausforderung des menschlichen Selbstverständnisses durch die Lebenswissenschaften. Wissenschaft und Technik haben an diesen Entwicklungen einen erheblichen Anteil. So sind die
modernen Informations- und Kommunikationstechniken eine unverzichtbare Begleiterscheinung der Globalisierung. Vernetzte, dezentrale
und „kleine“ Technologien bilden die Speerspitze der technischen Innovationen. Ihr Netzwerkcharakter steigert Komplexität und Unvorhersehbarkeit „systemischer“ Effekte. Neue Fragen
an das Selbstverständnis des Menschen kommen
aus aktuellen Entwicklungen in Bio-, Gen-,
Nano- und Medizintechnik wie auch aus der
Hirnforschung. Wissenschaft und Technik bringen bislang ungeahnte neue Möglichkeiten hervor, machen die moderne Gesellschaft aber auch
verletzlich und angreifbar.
Diese Fragilität der heutigen Welt ist einerseits die Folge wissenschaftlich-technischer
und damit verbundener sozialer Innovationen.
Andererseits stellt sie eine wesentliche Randbedingung für die Gestaltung der Technik für
die Welt von morgen dar. Aus diesen Gründen
kommt der Analyse von Innovationsprozessen
und der Erarbeitung und Bewertung von Handlungsoptionen für Politik und Gesellschaft eine
weiter wachsende Bedeutung zu, um Felder des
wünschenswerten wissenschaftlich-technischen
Fortschritts zu identifizieren. Angesichts vieler
Diskussionen um neue Formen politischer Governance in der „fragilen Welt“ steigen die
„Technik in einer fragilen Welt
– Perspektiven der Technikfolgenabschätzung“
Seite 152
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ITAS-NEWS
Erwartungen an Technikfolgenabschätzung
und benachbarte Felder, durch Politikberatung
und Begleitung gesellschaftlicher Diskurse zur
Meinungsbildung und Entscheidungsfindung in
Zukunftsfragen aktiv beizutragen.
Auf der Konferenz wurden diese thesenartigen Diagnosen durch Analyse der geschilderten Entwicklungen und der Rollen und Folgen
des wissenschaftlich-technischen Fortschritts
genauer unter die Lupe genommen. Es wurden,
vielfach basierend auf Erkenntnissen aus TAProjekten, Strategien der Technikgestaltung
unter den Rahmenbedingungen der „fragilen
Welt“ aufgezeigt.
3 Die Konferenz
Die Konferenz begann mit einer öffentlichen
Podiumsdiskussion zum Thema „Neuer schöner
Mensch? Möglichkeiten und Grenzen der Menschengestaltung durch Gentechnik und Künstliche Intelligenz“ am Abend des 24. November
2004. Das Eröffnungsplenum am 25.11. war der
Nachfrageseite nach TA gewidmet. Daran
schloss sich der wissenschaftliche Teil der Konferenz in drei Parallelsektionen mit insgesamt
über 30 Vorträgen an, die auf der Basis eines
Call for Papers und eines anschließenden Begutachtungsverfahrens ausgewählt worden waren:
1. Fragilität des Individuums: die Herausforderungen der „life sciences“ und der „life
technologies“ für die Identität des Menschen. Inwieweit wird der Begriff der
menschlichen Person selbst fragil, was bedeutet dies für die Gesellschaft und wie
kann darauf reagiert werden?
2. Fragilität der Gesellschaft: auf welche Weise
führt Technik direkt oder indirekt zu neuartigen gesellschaftlichen Gefährdungen und
steigert die Verletzlichkeit der Gesellschaft?
Wie lassen sich frühzeitig Risiken abschätzen und Gegenmaßnahmen ergreifen?
3. Technikgestaltung in einer fragilen Welt:
auf welche Weise beeinflusst die Diagnose
einer fragilen Welt die Möglichkeiten der
Technikreflexion und der Technikgestaltung
heute? Wie ändern sich Risikokommunikation, das Verhältnis zu Wissenschaft und
Technik sowie technikbezogene Entscheidungsprozesse?
Am Abend des 25.11. fand eine Postersession
mit insgesamt 16 Teilnehmern statt, in der vor
allem der wissenschaftliche Nachwuchs in der
TA die Gelegenheit zur Darstellung eigener
Forschungsergebnisse hatte. Den Abschluss
bildete am Freitag wiederum ein Plenum, in
dem der Bogen zurück zum „Netzwerk TA“ und
seinen zukünftigen Aktivitäten gespannt wurde.
Die Bedeutung der TA für die Politik verdeutlichten die Vorträge von Staatssekretär
Wolf-Michael Catenhusen (BMBF), der die
Netzwerkgründung begrüßte und dem „Netzwerk TA“ seine Unterstützung zusagte, und Dr.
Gerhard Schmid (bis vor kurzem Vizepräsident
des Europäischen Parlamentes), der über die
Erfahrungen am Europäischen Parlament mit
TA berichtete, sowie die Beteiligung von Frau
Ulrike Flach (Vorsitzende des Ausschusses für
Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages) an der
Podiumsdiskussion. Der Direktor des VDI, Dr.
Willi Fuchs, riet dazu, stärker die Wirtschaft
einzubeziehen. Dr. Matthias Weber (ARC systems research, Österreich) analysierte Veränderungen der Technologiepolitik im Hinblick auf
die Konsequenzen für TA.
Zur Konferenz ist eine Buchpublikation
bereits in Vorbereitung, die 2005 in der ITASBuchreihe „Gesellschaft – Technik – Umwelt“
bei der edition sigma erscheinen wird.
4 Resonanz und Deutung
Die Resonanz auf die Ankündigung der Konferenz übertraf die kühnsten Erwartungen. Bereits der Call for Papers führte zu einer unerwartet hohen Zahl an Einreichungen, so dass
trotz der Nutzung der maximal möglichen Zahl
von drei Parallelsektionen über je zwei Halbtage hinweg nur ein Teil der Einreichungen –
nach einem Begutachtungsverfahren – angenommen werden konnte.
Analog verhielt es sich mit dem Teilnehmerkreis. War zunächst die Veranstaltung organisatorisch auf ca. 80 Personen konzipiert, so
nahmen mit ca. 150 Teilnehmern dann fast
doppelt so viele teil (was auch, das sei nicht
verschwiegen, zu einigen räumlichen und kulinarischen „Engpässen“ führte). Diesem in Zahlen ausgedrückten Interesse entsprach eine
hoch motivierte Stimmung der Teilnehmer, die
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 153
ITAS-NEWS
von der Netzwerkgründung bis zum Abschlussplenum durchhielt.
In den Reaktionen vieler Teilnehmer wurde häufig die große Zahl der anwesenden jüngeren Kolleginnen und Kollegen als bemerkenswert erwähnt. Auch die Vielfalt der konzeptionellen und methodischen Ansätze und
die hohe Bereitschaft zum gegenseitigen Zuhören wurden als nicht selbstverständlich gewürdigt. Mehrfach wurde die Meinung geäußert,
dass mit dieser Konferenz „TA“ erheblich an
Fahrt gewinnen werde.
„Altlasten“ der TA-Diskussion wie Fragen
„TA oder Technikgeneseforschung?“, „Chancen- oder Risikoorientierung“, „TA als Politikoder Wirtschaftsberatung?“, „Praktische Ethik
oder Sozialforschung“ wurden zwar gelegentlich diskutiert, aber ohne die entzweiende Wirkung früherer Tage zu entfalten. Der Wunsch
und die Bereitschaft, mit dem „Netzwerk TA“
an einem gemeinsamen Dach zu arbeiten, unter
dem sich alle Ansätze der technologiebezogenen und auf wissenschaftliche (Gesellschafts-,
Wirtschafts- und Politik-)Beratung angelegten
Forschung zusammenfinden können, waren
deutlich stärker als alle Abgrenzungstendenzen.
a) trotz dieser Diversität gegenseitige Anknüpfungspunkte und Gemeinsamkeiten zu
finden, und wenn
b) die Diversität als Quelle der gegenseitigen
Inspiration und der Kooperation gesehen
wird.
Hierfür stehen die Chancen nach der Konferenz
„Technik in einer fragilen Welt – Perspektiven
der Technikfolgenabschätzung“ ausgezeichnet.
Literatur
Petermann, Th.; Coenen, R. (Hrsg.), 1999: Technikfolgen-Abschätzung in Deutschland – Bilanz und
Perspektiven. Frankfurt u. a.: Campus (Veröffentlichungen des Instituts für Technikfolgenabschätzung
und Systemanalyse (ITAS), Bd. 6)
Banse, G.; Grunwald, A.; Rader, M. (Hrsg.), 2002:
Innovations for an e-Society. Challenges for Technology Assessment. Berlin: edition sigma (Gesellschaft – Technik – Umwelt, Neue Folge 2)
Stehr, N., 2003: Die Zerbrechlichkeit der Gesellschaft. Frankfurt a. M.: Suhrkamp
(Armin Grunwald, Michael Decker und
Ulrich Riehm)
5 Perspektiven
So erfolgreich und motivierend Netzwerkgründung und Konferenz verliefen, so stehen die
„Mühen der Ebene“ erst noch an. Es gilt, den
gesetzten Impuls zu nutzen, um daraus eine
dauerhafte Stärkung von TA und verwandten
Aktivitäten zu gewinnen.
Das „Netzwerk TA“ wird von einer Reihe
engagierter Kolleginnen und Kollegen in Kürze
mit einer erforderlichen Mindestinfrastruktur
versehen. Hierzu gehören möglichst rasch der
Aufbau eines Internetportals und die Etablierung einer Mailing-List. Eine weitere Arbeitsform des Netzwerks werden thematische Arbeitskreise darstellen. Weiterhin gibt es bereits
Überlegungen zu Netzwerk-Workshops und zu
einer nächsten Konferenz.
Die Integration so heterogener Forschungsrichtungen wie Praktische Ethik, Systemanalyse, sozialwissenschaftliche Wissenschafts- und
Technikforschung, Innovationsforschung, Risikoforschung, Innovations- und Technikanalyse,
der Governance-Forschung und weiterer Felder
Seite 154
unter dem Dach des „Netzwerks TA“ wird dann
erfolgreich sein, wenn es gelingt
«
New EU Project:
The Institutionalisation of Ethics in Science Policy; practices
and impact (INES)
Debates on technological developments touch
fundamental ethical considerations and uncover
wide mistrust in public authorities and scientific
establishments. Policy makers have reacted by
incorporating ethics into the decision making
processes of S&T policy. Different nations have
different ways of doing this, ranging from advisory expert committees to open debates with
relevant stakeholders. The form and method in
which ethics is incorporated in S&T varies
greatly throughout Europe and its actual impact
in decision making is still unclear.
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ITAS-NEWS
INES brings together a group of European
experts in the area of S&T ethics and the relevant policy making community, to analyse
comparatively the manner by which ethics is
incorporated into the official decision making
structures. The analysis is done in terms of
representations of the “ethical problem”; understanding of the concepts “ethics vs morality”, “ethics vs bioethics”; the notion of ethical
“expert”; and consideration of lay values in the
decision making process.
Informed by public perceptions research
on “ethics” and paying particular attention to
gender differences, the project will explore
case studies presenting particular challenges for
the incorporation of ethics in decision making
(medical genetics, genetic databases and food
technologies). The differences in the understanding of the ethical issues and the incorporation approaches chosen will provide the basis
for the creation of a “European map” which
will be critically examined in terms of impact
assessment and best practices.
The ultimate goal of INES is to create a
pan-European platform where ethics experts,
policy makers and relevant stakeholders can
debate, exchange information, identify ”best
practices” and devise ways to improve the input and impact of ethics in the actual decision
making process.
The project is carried out on behalf of the
European Commission and has a duration of
three years (Febr. 2004 - Febr. 2006). It is
conducted in cooperation with the following
partners:
- CESAGen – ESRC Centre for the Economic
and Social Aspects of Genomics, Lancaster
University; UK (Project-Coordination)
- Uob – Centre for the Study of Global Ethics, The University of Birmingham; UK
- KUN – University of Nijmegen, Centre for
Society and Genomics; The Netherlands
- CSSC – Centre for Science, Society and
Citizenship; Italy
- fBBVA – Fundación BBVA; Spain
- STS Centre – Centre of Science, Technology, Society Studies at the Institute of Philosophy, Academy of Sciences of the Czech
Republic; Czech Republic
- IS – Academy of Sciences of Bulgaria, Institute of Sociology; Bulgaria
- RATHENAU – Rathenau Institute; The
Netherlands
- POST – Parliamentary Office of Science &
Technology; UK
- viWTA – Flemish Institute for Science and
Technology Assessment; Belgium
- TA SWISS – Centre for Technology Assessment at the Swiss Science and Technology Council; Switzerland
Project Team at ITAS/TAB: Prof. Dr. Armin
Grunwald, Dr. Leonhard Hennen
(Leonhard Hennen, TAB)
«
ITAS-Workshop zur Endlagerung nuklearer Abfälle in
Deutschland
Fragen zum Profil einer zukünftigen sozialwissenschaftlichen Endlagerforschung standen im
Mittelpunkt eines zweitägigen interdisziplinären
Workshops, den ITAS am 28. und 29. Oktober
2004 in Karlsruhe veranstaltete. Diskutiert wurden Chancen und Risiken deliberativer Politik,
die in der aktuellen deutschen Entsorgungsdebatte eine besondere Rolle spielen. Durch Einzelvorträge und ein Round Table-Gespräch
wurde zugleich die natur- und ingenieurwissenschaftliche Kompetenz des Forschungszentrums
Karlsruhe in die Überlegungen einbezogen.
Eingeleitet wurde der Workshop mit dem
Titel „Zur Endlagerung radioaktiver Abfälle in
Deutschland: Perspektiven für eine sozialwissenschaftliche Begleitforschung“ durch zwei
Impulsvorträge. Während Lutz Mez (Freie
Universität Berlin) die politisch und gesellschaftlich umstrittene Frage nach der Entsorgung radioaktiver Abfälle in Deutschland in
den Kontext der Energiepolitik stellte, wählte
Manfred Popp (Vorstandsvorsitzender des Forschungszentrum Karlsruhe) einen anderen Ansatzpunkt. Ausgehend von seinem Engagement
für die Bundesregierung in den 1970er Jahren
im Rahmen der damaligen Überlegungen zur
Nutzung der Kernenergie und der nuklearen
Entsorgung beschrieb er Eckpunkte der Endlagerpolitik im zeitlichen Ablauf und ging da-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 155
ITAS-NEWS
ran anschließend auf die paradoxe Entscheidungslage in der aktuellen Endlagerpolitik ein.
Strukturiert wurde der Workshop durch
vier Themenblöcke: (1) Endlager-Politik in
Deutschland, (2) Stand der natur- und ingenieurwissenschaftlichen Endlagerforschung, (3)
Kontextstrukturen der Endlager-Debatte und
deliberative Verfahren als Handlungschance, (4)
Chancen und Risiken einer problemorientierten
sozialwissenschaftlichen Endlagerforschung. Im
Rahmen des natur- und ingenieurwissenschaftlichen Themenblocks moderierte Ortwin Renn
(Universität Stuttgart) einen Round Table zu den
Leistungen und Defiziten der naturwissenschaftlichen Endlagerforschung, an dem Reinhard
Odoj (Forschungszentrum Jülich), Wernt Brewitz (Gesellschaft für Anlagen- und Reaktorsicherheit), Georg Arens (Bundesamt für Strahlenschutz), Detlef Appel (PanGeo Hannover)
und Thomas Fanghänel (Forschungszentrum
Karlsruhe) teilnahmen. ITAS präsentierte auf
dem Workshop Ergebnisse aus seiner Evaluationsstudie über den Arbeitskreis Auswahlverfahren Endlagerstandorte (AkEnd).* Hervorzuheben sind weiterhin die Vorträge von Detlev
Ipsen (Gesamthochschule Kassel) und Frank
Fischer (Rutgers University/USA). Während
Ipsen für einen schrittweisen politischen Entscheidungsprozess bei der Errichtung eines Endlagers plädierte und die dabei auftretenden Vorteile am Verfahrensvorschlag des AkEnd für
einen Neuanlauf der Endlagersuche verdeutlichte, skizzierte Fischer die Erfahrungen, die in den
USA und Kanada mit Verfahren des „participatory risk assessment“ gemacht wurden.
Die Ergebnisse des Workshops werden
Anfang 2005 in Form eines Tagungsbandes
veröffentlicht. Die TA-TuP wird zu gegebener
Zeit darauf hinweisen.
*
Der ITAS-Endbericht zu diesem Projekt ist über die
Homepage des AkEnd zugänglich:
http://www.akend.de/projekte/pdf/berichtsband.pdf.
(Peter Hocke-Bergler,
Crimmitschau/Karlsruhe)
»
Seite 156
Präsentation der ITAS-Projekte
auf der Tagung „Nachwachsende Rohstoffe – Forschungsprojekte für den Ländlichen Raum“
Universität Hohenheim, 14. Oktober 2004
Auf der Tagung wurden erste Forschungsergebnisse des Forschungsprogramms „Forschungsprojekte für den Ländlichen Raum“ des Ministeriums für Ernährung und Ländlichen Raum
(MLR) Baden-Württemberg vorgestellt. Das
Forschungsprogramm hat einen Umfang von
insgesamt 5,1 Millionen Euro und wurde durch
das MLR Baden-Württemberg im Jahr 2002 mit
Hilfe der Landesstiftung Baden-Württemberg
GmbH aufgelegt. Das Programm umfasst insgesamt 16 Projekte, die sich mit der stofflichen
und energetischen Nutzung nachwachsender
Rohstoffe beschäftigen. In einer Presseerklärung
hierzu heißt es:
“An den Projekten sind Forschungseinrichtungen der Universitäten Stuttgart und Hohenheim, das Forschungszentrum in Karlsruhe sowie die Fachhochschulen Biberach, Konstanz
und Reutlingen beteiligt. `Neben theoretischen
Grundlagen werden insbesondere Ansätze für
neue Nutzungs- und Verarbeitungsmöglichkeiten erforscht`, so der baden-württembergische
Minister für Ernährung und Ländlichen Raum,
Willi Stächele MdL. Daneben bilden Fragen
der biochemischen Umwandlung und deren
technische Umsetzung nachwachsender Rohstoffe einen Schwerpunkt.“
Schätzungen für Baden-Württemberg gehen
von einer Steigerung der Bioenergie von derzeit 1,5 % auf rund 10 % des Primärenergieverbrauchs aus.
In seinem Impulsvortrag wies Prof. Dr.
Bastian Kaiser, Rektor der Fachhochschule Rottenburg, darauf hin, dass die Prognose für Baden-Württemberg auf einen Anteil von 11 % der
Primärenergie durch regenerative Energie zielt.
Bei Einbezug bestimmter Altholzanteile könne
man für Baden-Württemberg davon ausgehen,
dass alleine aus Holz mit einem nutzbaren Potenzial von ca. 16 bis 30 Mrd. kWh jährlich
nutzbarer Energie gerechnet werden kann.
Die Vortragsreihe konzentrierte sich auf
drei thematisch zusammenhängende Blöcke.
Im Block 1: Grundlagen und Rahmenbedingungen wurde zunächst anhand von drei
Vorträgen ein Überblick präsentiert, der von
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ITAS-NEWS
Perspektiven der Holzenergienutzung in Baden-Württemberg über die stoffliche Nutzung
von Nachwachsenden Rohstoffen anhand der
Nutzung von Fasern bis zur Energienutzung
vom Grünland reichte. Die Potenziale und der
Nutzen von Holz in Baden-Württemberg wurden wie folgt aufgezeigt: Die technischen Potenziale zur energetischen Nutzung naturbelassenen Holzes liegen mit 2,8 Mio. t/a (ca. 48
PJ/a) bei etwa 3 % des Primärenergiebedarfs
von Baden-Württemberg. Hiervon werden etwa
48 % als freies Potenzial betrachtet. Die spezifischen Anwendungen, Einsatzgebiete und
Produkteigenschaften von Naturfasern wurden
in einem weiteren Vortrag ausgeführt.
Das ITAS war in diesem Block mit dem
Vortrag „Energie aus dem Grünland – eine
nachhaltige Entwicklung“ vertreten. Konrad
Raab und Volker Stelzer stellten die Chancen
der Verwertung überschüssigen Grünlandes für
energetische Zwecke heraus. Dabei wurden
Flächen- und Energiepotenziale angeführt und
Nachhaltigkeitsaspekte der Energiegewinnung
aus dem Grünland – in Anlehnung an das integrative Konzept nachhaltiger Entwicklung der
Helmholtz-Gemeinschaft (HGF) – bewertet
(weitere Informationen zum ITAS-Projekt sind
zu finden unter http://www.itas.fzk.de/deu/
projekt/roes0343.htm).
Im Block 2: Bioenergie und rationelle
Energienutzung wurden Vorträge präsentiert,
die von der Verbrennung von Holz sowie von
Heu und Getreide bis zur solargestützten Sägeholztrocknung reichten. Dabei befasste sich ein
Vortrag mit Feuerungstechniken und den Emissionen bei der Verbrennung verschiedener Holzbrennstoffqualitäten, wobei das Ziel eine „saubere Holzverbrennung“ war. In einem weiteren
Beitrag wurden Untersuchungsergebnisse zu
Emissionen bei Verbrennungsversuchen in einer
Biomassefeuerungsanlage (Heu, Getreide) präsentiert. Versuche zur Trocknung von Fichtenbohlen mittels Biomasseverfeuerung und Solarunterstützung waren ein weiteres Vortragsthema. Der Anteil der Solarenergie betrug im Jahresmittel 20 - 30 %. Abschätzungen zeigen, dass
die Investitionskosten für einen konventionellen
Hochtemperaturtrockner etwa 15 % höher liegen
als für den Solartrockner.
Im Block 3: Perspektiven für Biokraftstoffe
wurden Möglichkeiten zur Gewinnung flüssiger Energieträger aus Biomasse aufgezeigt.
Hierbei konzentrierte sich ein Vortrag auf die
dezentrale Ethanolproduktion; hierzu wurden
Abschätzungen zu Massen- und Energiebilanzen sowie Kosten vorgestellt.
Zum Schluss dieses Blocks berichtete Lothar Malcher vom Forschungszentrum Karlsruhe über das FZK-BTL-Verfahren (BTL – Biomass To Liquid), dessen systemanalytischer
Teil vom ITAS bearbeitet wird. Aufgezeigt
wurde im Vortrag unter dem Titel „Slurry- und
Synthesegaserzeugung aus trockener Biomasse
– zentral oder dezentral?“ die gesamte Prozesskette von der Biomasseaufarbeitung über die
Schnellpyrolyse zur Gewinnung von Slurries,
deren Vergasung bis hin zur Kraftstoffsynthese. Erste Schätzungen zeigen, dass die Kosten
pro Liter Kraftstoff bei 0,8-0,9 € liegen könnten. Zu diesem Themenkomplex war das ITAS
außerdem noch mit einem Poster vertreten, das
die systemanalytische Begleitforschung des
ITAS zu dem Vorhaben der Gaserzeugung aus
Biomasse erläuterte (weitere Informationen zu
dem ITAS-Projekt sind zu finden unter
http://www.itas.fzk.de/deu/projekt/leib0218.htm).
Insgesamt gesehen wurde die Veranstaltung von den 160 Teilnehmern als gut gelungen betrachtet. Als Ausblick gab Minister Stächele an, dass geplant sei, die Vortragenden zu
weiteren Gesprächen zur Abstimmung über das
weitere Vorgehen einzuladen.
Alle Referate und Poster sind abrufbar unter:
http://www.laendlicher-raum.de/
(Peter Proplesch)
«
Neue Dissertationsprojekte
„Zielkonflikte im integrativen Nachhaltigkeitskonzept der HGF – Auftreten und Lösungsmöglichkeiten am
Beispiel der nationalen Bioenergieziele Deutschlands“
Dissertationsprojekt (2004-2007) von Marc
Dusseldorp
Der Begriff der Nachhaltigkeit spielt in der
umwelt- und entwicklungspolitischen Diskussion eine herausragende Rolle. In den vergangenen Jahrzehnten entwickelte sich ein breiter
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 157
ITAS-NEWS
gesellschaftlicher und politischer Konsens darüber, dass sich Politik am Leitbild einer nachhaltigen Entwicklung orientieren müsse. Dieser
Konsens weicht jedoch einer kontroversen
Diskussion, wenn es um die Beantwortung der
Frage geht, was unter Nachhaltigkeit konkret
zu verstehen und wie das Leitbild für politische
Entscheidungen zu operationalisieren sei.
So wurden in den vergangenen Jahren verschiedene Konzepte zur Konkretisierung des
Leitbildes entwickelt, die sich bereits in ihrer
Grundkonzeption unterscheiden, etwa hinsichtlich der „Dimensionen“, die zu einer Erfassung
von Nachhaltigkeit einbezogen werden (z. B.
Ökonomie, Ökologie, Soziales), sowie in Bezug
auf das Verhältnis der Dimensionen untereinander. Im Mittelpunkt des vorliegenden Dissertationsvorhabens steht das für die Nachhaltigkeitsdebatte richtungsweisende integrative Nachhaltigkeitskonzept der Helmholtz-Gemeinschaft
Deutscher Forschungszentren (HGF).
Als besonders wichtig und zugleich
schwierig wird im Zusammenhang mit der Integration der Dimensionen die Frage bezeichnet,
wie mit Konfliktfällen umgegangen und welche
Abwägungen vorgenommen werden sollen.
Stellt sich nämlich in der Praxis heraus, dass
nicht alle Forderungen gleichzeitig zu erfüllen
sind, müssten entweder alle Zielkomponenten
gleichermaßen Abstriche hinnehmen oder aber
es müssten Prioritäten festgelegt werden, die
klarstellen, welcher Aspekt von Nachhaltigkeit
im Konfliktfall Vorrang haben soll. Dieses
Problem des Umgangs mit Zielkonflikten ist in
Nachhaltigkeitskonzepten generell nicht befriedigend gelöst. Ziel des Dissertationsvorhabens
ist es daher, einen Beitrag zur Lösung von Zielkonflikten im Rahmen des integrativen Konzeptes der HGF zu erarbeiten.
Dies soll beispielhaft für den Bereich der
Bioenergienutzung geschehen. Energie spielt
eine zentrale Rolle im Kontext einer nachhaltigen Entwicklung, da sich die Art ihrer Verfügbarkeit in den verschiedensten sozialen, ökonomischen und ökologischen Bereichen auswirkt. So hat auch die deutsche Bundesregierung in ihrer nationalen Nachhaltigkeitsstrategie von 2002 das Ziel formuliert, im Sinne
einer nachhaltigen Energieversorgung den Anteil der erneuerbaren Energien künftig stark zu
erhöhen. Der Energiegewinnung aus Biomasse
wird dabei eine große Bedeutung zugemessen.
Seite 158
Damit verbunden wäre nicht zuletzt eine
starke Ausdehnung des Anbaus von Energiepflanzen. An dieser Stelle wird deutlich, dass
die Ausdehnung der Bioenergienutzung Gefahr
läuft, mit anderen Zielen der Nachhaltigkeit in
Konflikt zu geraten. Neben den erwünschten
Effekten – etwa einer Schonung nicht erneuerbarer Ressourcen und der Reduktion von CO2Emissionen – ist auch mit Entwicklungen zu
rechnen, die der angestrebten Extensivierung
und „Ökologisierung“ der Landwirtschaft und
Naturschutzbelangen entgegenstehen.
Zunächst soll untersucht werden, welche
nachhaltigkeitsrelevanten Implikationen mit
dem Ausbau der Bioenergienutzung zum Erreichen der nationalen Bioenergieziele verbunden
sind. In einem nächsten Schritt sollen die Zielkonflikte, die dabei im Rahmen des integrativen Nachhaltigkeitskonzepts auftreten, ausgemacht und charakterisiert werden. Auf Grundlage von bestehenden Ansätzen zum Umgang
mit Zielkonflikten sowie des gerechtigkeitstheoretischen Diskurses soll schließlich der Versuch unternommen werden, eine Methodik zur
Lösung von Zielkonflikten im integrativen
Nachhaltigkeitskonzept zu entwickeln.
Betreuung am ITAS: Dr. Christine Rösch,
Jürgen Kopfmüller
Betreuung an der Universität Karlsruhe:
Prof. Dr. Manfred Meurer, Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften,
Institut für Geographie und Geoökologie
(Marc Dusseldorp)
«
Identität und Gemeinschaft in der
netzbasierten Kommunikation – Eine
Vergleichsanalyse unter kulturellen
Aspekten
Dissertationsprojekt (2004-2007) von Robert
Hauser
Robert Hauser hat an der Universität Leipzig
Kulturwissenschaften, Kommunikations- und
Medienwissenschaften sowie Religionswissenschaften studiert. Abschluss mit Magister Artium (2003)
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
ITAS-NEWS
Betreuung: Gotthard Bechmann (ITAS);
Prof. Dr. Gerhard Banse, Fraunhofer-Anwendungszentrum Logistiksystemplanung und Informationssysteme.
«
Personalia
Neuer Mitarbeiter
Konrad Raab hat an der Universität Hohenheim Biologie (Diplom) studiert. Anschließend
war er als freiberuflicher Wissenschaftler in
den Bereichen Landwirtschaft, Naturschutz,
Bodenschutz und Abfallwirtschaft tätig. Von
1999 bis August 2004 war er wissenschaftlicher Mitarbeiter am Institut für Energiewirtschaft und Rationelle Energieanwendung der
Universität Stuttgart, Abteilung Systemanalyse
und Erneuerbare Energien. Sein Arbeitsschwerpunkt war die energetische Nutzung von
Biomasse, insbesondere in der mehrjährigen
Mitarbeit im Biomasse Info-Zentrum.
Am ITAS wird Herr Raab im Projekt
„Energie aus dem Grünland – eine nachhaltige
Entwicklung?“ mitarbeiten. In Baden-Württemberg sind 39 % der landwirtschaftlich genutzten
Fläche als Dauergrünland ausgewiesen. Trotz
der allgemein hohen Wertschätzung des Grünlands scheint jedoch insbesondere in benachteiligten Gebieten der Rückgang der traditionellen
Grünlandnutzung unaufhaltsam. In einigen
Regionen gibt es bereits heute Grünlandflächen, die nicht mehr für die Rindviehhaltung
verwendet werden. Für die Zukunft wird angenommen, dass die „dauergrüne“ Futterflächennutzung weiter zurückgehen wird und Wiesen
und Mähweiden mit erheblichem Flächenumfang aus der Nutzung genommen werden.
Grund hierfür sind die fortschreitenden produktionstechnischen Entwicklungen und agrarstrukturellen Veränderungen.
Für diese „überschüssigen“ Grünlandflächen könnte die Verwendung des Aufwuchses
zur Energiegewinnung eine alternative Nutzungsoption darstellen.
In dem im November 2003 begonnenen
Projekt des ITAS wird analysiert, welche Ver-
fahren zur energetischen Nutzung von Biomasse aus dem Grünland zur Verfügung stehen und
wie nachhaltig diese Verfahren sind. Herr Raab
wird sich v. a. mit der Ermittlung und Beschreibung der technischen, ökonomischen und
ökologischen Kenngrößen dieser Verfahren
beschäftigen. In Abhängigkeit von den Substrateigenschaften kommen die Verfeuerung,
die Vergärung und die Vergasung in Frage. Für
den Einsatz von Gras müssen diese Nutzungswege allerdings noch weiterentwickelt bzw.
angepasst werden. Im weiteren Verlauf des
Projektes sollen in zwei besonders von der
„Grünlandfreisetzung“ betroffenen Gebieten
Baden-Württembergs die erarbeiteten Ergebnisse abgesichert und Entscheidungswissen für
eine nachhaltige Entwicklung des Grünlands
erarbeitet werden.
Das Projekt im Internet:
http://www.itas.fzk.de/deu/projekt/roes0343.htm
Kontakt
Konrad Raab
Forschungszentrum Karlsruhe
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Postfach 36 40, 76021 Karlsruhe
Tel.: +49 (0) 72 47 / 82 - 64 85
Fax: +49 (0) 72 47 / 82 - 48 06
E-Mail: raab@itas.fzk.de
Internet: http://www.itas.fzk.de
«
Habilitation
Dr. Rolf Meyer, Mitarbeiter des Büros für
Technikfolgen-Abschätzung beim Deutschen
Bundestag (TAB) und zurzeit beurlaubt zum
Scientific and Technological Options Assessment (STOA) Programm des Europäischen
Parlaments, hat sich am Fachbereich 09 – Agrarwissenschaften, Ökotrophologie und Umweltmanagement der Justus-Liebig-Universität
Gießen für das Fachgebiet „Agrar- und Ressourcenökonomie“ habilitiert. Nach der Habilitationsschrift zum Thema „TechnikfolgenAbschätzung im Bereich Landwirtschaft und
Ernährung“ und einem Vortrag mit anschlie-
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 159
ITAS-NEWS
ßendem Kolloquium zum Thema „Nahrungsmittelqualität als Fragestellung der Technikfolgen-Abschätzung“ wurde sein Habilitationsverfahren am 19. November 2004 mit der Antrittsvorlesung zum Thema „Gentechnisch veränderte Nutzpflanzen – technische Entwicklungen, gesellschaftliche Kontroversen und
politische Gestaltung“ abgeschlossen.
»
Bibliography
Decker, Michael; Ladikas, Miltos (Eds.): Bridges
between Science, Society and Policy. Technology
Assessment – Methods and Impacts. Berlin, Heidelberg, New York: Springer 2004 (Wissenschaftsethik
und Technikfolgenbeurteilung, Band 22) XIV, 250
S., Geb., ISBN 3-540-21283-3, Euro 53,45
[see also the article by Michael Decker, ITAS,
and Miltos Ladikas, Europäische Akademie
GmbH, in this journal, vol. 13, no. 1 (March),
2004, pp. 71-80; only in German;
http://www.itas.fzk.de/tatup/041/dela04a.htm]
Neue Veröffentlichung
«»
“Bridges between Science, Society
and Policy” – TAMI results published
This book summarises the results of the project
TAMI (Technology Assessment in Europe –
between Method and Impact). This was a twoyear thematic network, funded by the STRATA
programme of the European Commission, that
brought together the main institutes of technology assessment in Europe, both parliamentary
and non-parliamentary. ITAS together with the
Europäische Akademie Bad Neuenahr-Ahrweiler and POST – the Parliamentary Office of
Science and Technology (UK) formed the core
group of the network. TAMI created a structured
dialogue between technology assessment experts
and policymakers on current methodologies
and their impact on policymaking. The TAMI
team explored and assessed the whole spectrum
of methodologies from the “classical” to the
“interactive/participatory” and “communicative”, identified good practices in project implementation and set the stage for impact
evaluation based on objective criteria. Finally
this book offers a series of policy recommendations based on the findings of the project. Science, Society and Policy, are three areas that
technology assessment functions within and
works for; this book is an attempt to improve the
interaction amongst them for a more socially
and economically sustainable Science and Technology policy in Europe.
Seite 160
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
TAB-NEWS
TAB-NEWS
TAB-Berichte im Deutschen
Bundestag
Sieben TAB-Berichte werden zurzeit in den
Gremien des Deutschen Bundestages beraten:
- Der Bericht des TAB zu Nanotechnologie
(Drs. 15/2713) durchläuft augenblicklich in
mehreren Fachausschüssen die Phase der so
genannten „2. Lesung“ – beispielsweise im
mitberatenden Gesundheitsausschuss. Im
federführenden Ausschuss für Bildung, Forschung und Technikfolgenabschätzung
(ABFTA) liegen bereits Anträge der Fraktionen im Zusammenhang mit dem TABBericht vor.
- Die abschließende Beratung des TAB-Berichtes Kernfusion (Drs. 14/8959) ist verschoben worden. Nachdem die Fraktionen
der Opposition ihre Anträge bereits vorgelegt haben, soll nun gewartet werden, bis
die Koalitionsfraktionen ihren gemeinsamen
Antrag abgestimmt haben.
- Die drei Berichte des TAB zur Zukunft der
Nahrungsmittel (Drs. 15/1673, 15/1674,
15/1675) sind zunächst im federführenden
Verbraucherausschuss anberaten worden.
- Der Bericht zur Präimplantationsdiagnostik
(Drs. 15/3500) wird augenblicklich zur
Überweisung vorbereitet, ebenso der
2. Sachstandsbericht „Biometrie und Ausweisdokumente“, der zusammen mit dem
1. Sachstandsbericht (Drs. 14/1005) beraten
werden soll. Der TAB-Bericht „Maßnahmen für eine nachhaltige Energieversorgung
im Bereich Mobilität“ (Drs. 15/851) ist
noch in der Warteschleife.
«»
Neue TAB-Themen
Seit September dieses Jahres ist ein neues
Themenfindungsverfahren eingeleitet worden.
Aus insgesamt siebzehn Vorschlägen aus der
Mitte des Deutschen Bundestages ist zunächst
das Thema „Pharmakogenetik“ gewählt und
bereits vom zuständigen Ausschuss für Bildung, Forschung und Technikfolgenabschätzung beschlossen worden.
Nach intensiver Diskussion zwischen Berichterstattern und TAB sind zudem drei weitere Themen bestimmt worden, die dem Ausschuss zur Beschlussfassung vorgelegt werden
sollen:
- Biobanken
- Perspektiven eines CO2- und emissionsarmen Verkehrs – Kraftstoffe und Antriebe im
Überblick
- Individuelle Medizin und Gesundheitssystem (Zukunftsreport)
«»
Neue Veröffentlichungen
TAB-Hintergrundpapier Nr. 10 „Instrumente
zur Steuerung der Flächennutzung – Auswertung einer Befragung der interessierten und
betroffenen Akteure“ (Verfasser: Juliane Jörissen, Reinhard Coenen), April 2004
Im Rahmen seines Projektes „Reduzierung der
Flächeninanspruchnahme – Ziele, Maßnahmen,
Wirkungen“ hat das TAB eine schriftliche Befragung von ausgewählten interessierten und
betroffenen Akteuren durchgeführt. Zweck der
Befragung war es, die Vor- und Nachteile der
verschiedenen Instrumente zur Steuerung der
Flächennutzung aus der Sicht unterschiedlicher
Interessenstandpunkte zu beleuchten und wichtige Konfliktlinien aufzuzeigen. Die Auswertung von Stellungnahmen und Positionspapieren ergab ein aktuelles Meinungsbild der zentralen Interessengruppen und Verbände zu den
Zielen und Instrumenten einer nachhaltigen
Flächennutzungspolitik in Deutschland.
„Begrenzte Auswahl? Praxis und Regulierung
der Präimplantationsdiagnostik im Ländervergleich“ (Autoren: Leonhard Hennen, Arnold
Sauter), edition sigma, Berlin, 176 S., € 18,90,
Studien des Büros für TechnikfolgenAbschätzung, Bd. 17, ISBN 3-89404-826-3
Die Präimplantationsdiagnostik (PID) ist ein
höchst umstrittenes Verfahren. Nach augenblicklicher Rechtslage ist es in Deutschland
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004
Seite 161
TAB-NEWS
verboten. Bei der PID werden menschliche
Embryonen auf Anlagen für eine genetisch bedingte Erkrankung im Rahmen der künstlichen
Befruchtung daraufhin untersucht, ob sie für
eine Einpflanzung in die Gebärmutter geeignet
sind. Ihre Nutzung hat in den vergangenen Jahren zu intensiven Diskussionen in Öffentlichkeit
und Politik geführt, ohne dass bisher eine Entscheidung des Gesetzgebers über die Zulässigkeit des Verfahrens getroffenen worden ist.
Zu der zentralen Frage, ob durch geeignete
rechtliche Maßnahmen die Anwendung der PID
wirksam auf ein eng definiertes Spektrum von
Fällen (z.B. besonders schwere erbliche Erkrankungen) eingeschränkt werden kann, stehen mit
dem Bericht des TAB erstmals umfassende und
belastbare Informationen zur Verfügung. Das
TAB hat die unterschiedlichen Formen der Regulierung des Einsatzes der PID sowie die Entwicklung der jeweiligen medizinischen Praxis in
sieben ausgewählten Ländern untersucht.
Das Buch zeigt die Reichweite und Grenzen verschiedener Regulierungsmodelle auf
(Selbstregulierung von Angebot und Nachfrage, gesetzliche Einschränkung der Nutzung,
Steuerung durch eine Kontrollbehörde, gesetzliches Verbot). Dabei werden die Schwierigkeiten einer Eingrenzung der Praxis der PID angesichts der Nutzungsansprüche von Betroffenen
und den sich ständig weiter entwickelnden
gendiagnostischen Möglichkeiten deutlich.
Die Veröffentlichungen des TAB können
schriftlich per E-Mail oder Fax beim Sekretariat des TAB bestellt werden: Büro für Technikfolgen-Abschätzung beim Deutschen
Bundestag, Neue Schönhauser Straße 10,
10178 Berlin, E-Mail: buero@tab.fzk.de,
Fax: +49 (0) 30 / 28 49 11 19.
(Thomas Petermann)
«»
Seite 162
Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004