technikfolgenabschätzung
Transcription
technikfolgenabschätzung
Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Technikfolgenabschätzung und Systemanalyse TECHNIKFOLGENABSCHÄTZUNG Theorie und Praxis Nr. 3, 13. Jahrgang – Dezember 2004 Schwerpunktthema Wissenspolitik – ein neues Forschungs- und Handlungsfeld? G. Bechmann, N. Stehr: Einführung in den Schwerpunkt 5 G. Böhme: Die Moralisierung der Wissenschaftspolitik 15 S. Fuller: The University as a Creative Destroyer of Social Capital 21 W. Leiss: Policing Science: Genetics, Nanotechnology, Robotics 32 T. Duster: Feedback Loops in the Politics of Knowledge Production 40 J. Lezaun: Genetically Modified Foods and Consumer Mobilization in the UK 49 S. Turner: Speaking Truth to Bureaucratic Power: Three National Responses to Cholera 57 P. Wehling: Reflexive Wissenspolitik: Öffnung und Erweiterung eines neuen Politikfeldes 63 „Small technology – Big Consequences“: Building up the Dutch debate on nanotechnology from the bottom (R. van Est, I. van Keulen) 72 Bundesweiter Diskurs: Momentaufnahme Nachhaltigkeit und Gesellschaft (Chr. Averbeck, K. Crome, A. Lüth, A. Nick) 80 BioMedical Technology Assessment: modulare Folgenerfassung und perspektivensensitive Bewertung biomedizinischer Innovationen (R. Kollek) 85 Ergebnisse von TA-Projekten Biologisch-dialogisch: Risikokommunikation zu Grüner Gentechnik (M. Hertlein, E. Klotmann, Chr. Rohloff) – Neue TA-Projekte 89 TA-Institutionen und -programme TA-Konzepte und -Methoden Fortsetzung Seite 2 Technikfolgenabschätzung • Technology Assessment Fortsetzung des Inhaltsverzeichnisses Rezensionen und Kurzvorstellungen von Büchern U. Dolata, 2003: Unternehmen Technik. Akteure, Interaktionsmuster und strukturelle Kontexte der Technikentwicklung. (Rezension von F. Gloede) 94 U. Albertshauser, N. Malanowski, 2004: Innovations- und Technikanalyse im Management – Perspektiven für die strategische Unternehmensführung. (Rezension von O.F. Bode) 98 W. Bender, J.C. Schmidt (Hrsg.), 2003: Zukunftsorientierte Wissenschaft. Prospektive Wissenschafts- und Technikbewertung. (Rezension von F. Vogelsang) 100 N.C. Karafyllis, T. Haar (Hrsg.), 2004: Technikphilosophie im Aufbruch. Festschrift für Günter Ropohl. (Rezension von A. Grunwald) 102 St. Bannas, 2003: Faire Marktwirtschaft. Ein Modell zu ‚No Logo’. (Rezension von J. Kopfmüller) 106 Transport Research Knowledge Centre: Launch of the revamped website 112 Bibliographie zu Fragen der Inter- und Transdisziplinarität 112 Diskussionsforum Innovationspolitische Aspekte der geplanten Einführung eines elektronischen Maut-Systems in Deutschland (G. Halbritter, T. Fleischer, Ch. Kupsch) 113 Tagungsberichte und -ankündigungen Conference: Converging Technologies for a diverse Europe (Brussels, 14.-15. September 2004) 118 Zukunftsforum Mobiles Internet 2010 (Petersberg, 14.-15. September 2004) 125 Workshop: Auf dem Weg zu interdisziplinären Methodologien. Forschungsstand und offene Fragen (Karlsruhe, 24.-25. Juni 2004) 129 Internationale Konferenz: nanoDE – Factors for Success (Wiesbaden, 21.-24. Juni 2004) 134 Tagung: Raum für Nachhaltigkeit. Zur Kontextualisierung des Leitbilds (Leipzig, 17.-18. Juni 2004) 135 Tagung: Ökologische Ökonomie: eine neue Wissenschaft? (Heidelberg, 6.-8. Mai 2004) 141 - Tagungsankündigungen / Events - 143 Nachrichten Fortsetzung Seite 3 Seite 2 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Fortsetzung des Inhaltsverzeichnisses ITAS-News “Technik in einer fragilen Welt – Perspektiven der Technikfolgenabschätzung“ Bericht über die erste Konferenz des „Netzwerks TA“ (NTA1) 152 New EU Project: The Institutionalisation of Ethics in Science Policy; practices and impact (INES) 154 ITAS-Workshop zur Endlagerung nuklearer Abfälle in Deutschland 155 Präsentation der ITAS-Projekte auf der Tagung „Nachwachsende Rohstoffe – Forschungsprojekte für den Ländlichen Raum 156 Neue Dissertationsprojekte 157 • Zielkonflikte im integrativen Nachhaltigkeitskonzept der HGF – Auftreten und Lösungsmöglichkeiten am Beispiel der nationalen Bioenergieziele Deutschlands 157 • Identität und Gemeinschaft in der netzbasierten Kommunikation – 158 Eine Vergleichsanalyse unter kulturellen Aspekten Personalia 159 Neue Veröffentlichung 160 - M. Decker, M. Ladikas: Bridges between Science, Society and Policy. Technology Assessment – Methods und Impacts. TAB-News TAB-Berichte im Deutschen Bundestag 161 Neue TAB-Themen 161 Neue Veröffentlichungen 161 - Instrumente zur Steuerung der Flächennutzung – Auswertung einer Befragung der interessierten und betroffenen Akteure 161 - Begrenzte Auswahl? Praxis und Regulierung der Präimplantationsdiagnostik im Ländervergleich 161 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 3 SCHWERPUNKTTHEMA Wissenspolitik – ein neues Forschungs- und Handlungsfeld? Eine Einführung in den Schwerpunkt von Gotthard Bechmann, ITAS, und Nico Stehr, Zeppelin University, Friedrichshafen 1 Unübersichtliche Ausgangslage Ängste und Befürchtungen über die sozialen Folgen neuer wissenschaftlicher Erkenntnisse und Technologien sind nicht neu. Mit der systematischen Produktion von Handlungswissen scheinen wir jedoch eine neue Stufe im Verhältnis von Wissenschaft, Politik und Gesellschaft erreicht zu haben. Die kontroversen Diskussionen über die Rekombination der DNA, die Stammzellenforschung, das Genetic Engineering oder die neurogenetische Forschung sowie das reproduktive Klonen verweisen auf den veränderten gesellschaftlichen Stellenwert wissenschaftlichen Wissens. Wissen eröffnet nicht nur Handlungschancen, sondern es unterminiert alte und erzeugt zugleich neue normative Orientierungen und Wertstrukturen und trägt somit wesentlich zu gesellschaftlichen Regulierungen bei. Die Produktion, Verteilung und Anwendung von Wissen in der Gesellschaft unterliegt zunehmend selber einer bewussten Steuerung von Seiten der Politik und Wirtschaft. Wissenspolitik, oder auch Wissensregime, stellen heute ein neues Politikfeld dar, bei dem es um die Rolle der Wissenschaft in der Gesellschaft, neue Regeln der Wissensanwendung und die Sanktion eines möglichen Wissensmissbrauchs geht. Das wachsende Gewicht der Wissenspolitik in der Gegenwart lässt sich auf eine Reihe von gesellschaftlichen Entwicklungen zurückführen, die im Folgenden kurz dargestellt werden sollen. 2 Ursachen Die gegenwärtigen Entwicklungen hin zu einer Wissenspolitik lassen sich auf eine Reihe von Faktoren und Entwicklungen zurückführen: 1. Es sind neue Wissensformen (und damit ein neuer Typus von Handlungsmöglichkeiten), die sowohl alarmieren als auch zu umfassenden Versprechungen verleiten. Die Erkenntnisform selbst verändert sich. Der Weg von der Grundlagenforschung hin zur angewandten Forschung und kommerziellen Anwendung ist in einigen Wissenschaftsfeldern, wie zum Beispiel der molekularen Biologie, besonders kurz und direkt. Die Differenz von Grundlagenforschung und angewandter Forschung verringert sich erheblich bis hin zu einer „produktorientierten Grundlagenforschung“. Die Identifikation eines Gens ist identisch mit dem Test für das Gen. Die Grenzen der Unverfügbarkeit verschieben sich anscheinend radikal (Habermas 2001, S. 41). 2. Der Stellenwert der Wissenspolitik nimmt nicht nur angesichts der Beschleunigung der Wissensproduktion neue Formen an, sondern auch als Ergebnis der wachsenden Möglichkeiten, mit neuem Wissen in Kontakt zu kommen. 3. Mit der rapiden Zunahme der Erkenntnisse multiplizieren sich unsere Handlungsmöglichkeiten und -optionen, da Wissen Handlungskapazitäten oder Modelle für die Wirklichkeit bereitstellt. Der Stellenwert des Wissens für die Ökonomie, die Politik (als Lieferant öffentlicher Themen und Probleme) und andere gesellschaftliche Institutionen wächst. Aus der Einsicht in die „Macht“ der modernen Wissenschaft und Technik erwächst aber auch eine andere, eine skeptische Einstellung zur Ertragsrechnung ihrer Anwendung. 4. Obwohl jede technische Erfindung und jeder wissenschaftliche Erkenntnisfortschritt schon bisher von ambivalenten Reaktionen der Öffentlichkeit begleitet war, kann man beobachten, dass es in der Bewertung gesellschaftlicher Folgen der Wissenschaft und Technik eine bemerkenswerte Verschiebung der Akzente gibt: weg von der Lösung einmal aufgetretener Probleme, die sich aus der Anwendung von Technik und Wissenschaft ergeben, hin zur möglichst frühzeitigen Reduktion oder Prävention nicht gewollter, jedenfalls ungeplanter Folgen. Die einst verbreitete Haltung, nachträgliche Entsorgung der negativen Folgen sei ausreichend, wird zunehmend skeptisch beurteilt. Fragen wie Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 5 SCHWERPUNKTTHEMA „Sollen wir diese Erfindung überhaupt anwenden?“, konkurrieren zumindest auf dem Gebiet medizinischer Entdeckungen fast zwangsläufig mit der Frage „Können wir es verantworten, sie nicht anzuwenden?“ 5. Versuche, neues Wissen und neue technische Fertigkeiten zu kontrollieren, lassen sich nicht abkoppeln von den Kontingenzen von Zeit und Ort. Die Gebundenheit der Kontrolle des Wissens an bestimmte Kontexte verweist unmittelbar auf ein Dilemma jeder Wissenspolitik, auch in einer auf Grund der Globalisierungskräfte angeblich ständig „schrumpfenden“ Welt, nämlich die Grenzen der Legitimität, der Herrschaft und der Kontrollmöglichkeiten über diese Differenzen von Sozialsystemen hinaus. 3 Wissen über Wissen: Wissen als Weltveränderung Um die Diskussion über den neuen gesellschaftlichen Stellenwert des Wissens voranzubringen, aber auch um mögliche Missverständnisse zu vermeiden, werden im Folgenden einige grundsätzliche Überlegungen zum Wissensbegriff angestellt und es wird dargelegt, wie dieser Begriff im Kontext unserer Analyse verwendet wird. Wir möchten Wissen als Fähigkeit zum sozialen Handeln (Handlungsvermögen) definieren, als die Möglichkeit, etwas „in Gang zu setzen“. Damit ist die Verbindung von sozialem Handeln und Wissen, wenn auch nur zeitweise und vorläufig, unterbrochen. Im Sinne dieser Definition ist Wissen ein universales Phänomen oder eine konstante anthropologische Größe. Unsere Begriffswahl stützt sich unmittelbar auf Francis Bacons berühmte und faszinierende These „scientia est potentia“ oder, wie diese Formulierung häufig, aber irreführend, übersetzt wurde: Wissen ist Macht. Bacon behauptet, dass der besondere Nutzen des Wissens sich von seiner Fähigkeit ableitet, etwas in Gang zu setzen. Der Begriff potentia – Fähigkeit – umschreibt hier die „Macht“ des Wissens. Wissen erfüllt gewiss nur dort eine „aktive“ Funktion im gesellschaftlichen Handlungsablauf, wo Handeln nicht nach im Wesentlichen stereotypisierten Mustern (Max Weber) abläuft oder ansonsten weitgehend reguliert ist, sondern wo es Entscheidungsspielräume oder -notwen- Seite 6 digkeiten gibt. Für Karl Mannheim (1929) beginnt soziales Handeln deshalb auch erst dort, wo der noch nicht rationalisierte Spielraum anfängt, wo nicht regulierte Situationen zu Entscheidungen zwingen. Darüber hinaus und im Gegensatz zu dem, was die klassische funktionalistische Differenzierungstheorie nahe legt, gibt es gerade in vielen kritischen Fragen über das Wirken natürlicher und gesellschaftlicher Prozesse keine kognitive Gewissheit. Das heißt, die Wissenschaft kann keine Wahrheiten (im Sinne von bewiesenen Kausalketten oder gar universellen Gesetzen) liefern, sondern nur mehr oder weniger gut begründete Vermutungen, Szenarien und Wahrscheinlichkeiten. Statt Quelle von gesichertem Wissen und Gewissheit zu sein, ist die Wissenschaft damit Quelle von Unsicherheit. Und anders als es rationalistische Wissenschaftstheorien vorschlagen, ist das Problem nicht dadurch zu erfassen, dass man zwischen „guter“ und „schlechter“ Wissenschaft (oder zwischen Pseudowissenschaft und richtiger Wissenschaft) unterscheidet. Wer sollte dies unter Bedingungen der Unsicherheit auch können? Hebt man die (gedachte) Trennung von Wissen und Handeln wieder auf, so signalisiert die Definition von Wissen als Handlungsvermögen zudem, dass die Realisierung oder die Anwendung von Wissen immer unter bestimmten sozialen und kognitiven Rahmenbedingungen stattfindet. Und insofern die Realisierung von Wissen von bestimmten Bedingungen abhängig ist, haben wir gleichzeitig einen ersten wichtigen Verweis auf die Relation von Wissen und Macht. Die Kontrolle der für die Implementation von Wissen notwendigen sozialen und kognitiven Bedingungen erfordert einen bestimmten Grad von Macht. Je größer zum Beispiel der Umfang des zu realisierenden praktischen Projektes, desto größer die notwendige Macht, um die sozialen und kognitiven Rahmenbedingungen, die die Realisierung des Wissens als Handlungsvermögen erlauben, kontrollieren zu können 4 Die gesellschaftliche Überwachung neuer Erkenntnisse Fraglos wirft die Frage nach der Überwachung neuen Wissens in modernen Gesellschaften eine Vielzahl von brisanten Problemen auf; wir Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA können an dieser Stelle weder die Themen der Beziehung von Öffentlichkeit, Politiksystem und Wissenschaft oder von Experten und Laien, noch die Problematik der Grundlagen der gesellschaftlichen Kontrolle wissenschaftlicher Erkenntnisse umfassend darstellen. Wir beschränken uns darauf, eine Reihe von allgemeinen, die Wissenspolitik betreffenden Gesichtspunkten anzuführen. Diese allgemeinen Fragen nach der gesellschaftlichen Überwachung des Wissens beginnen schon mit dem Begriff der Regulierung. Der Begriff ist keineswegs eindeutig. Man sollte zwischen verschiedenen Gründen und Zielen für regulierende Maßnahmen unterscheiden. Was ist zum Beispiel der Anlass für Regulierung? Wie sind zukünftige Resultate neuen Wissens einzustufen? Welche Folgen scheinen diese Resultate zu haben oder welche Konflikte sind zu erwarten? Welcher Art sind die Vorschläge für eine Regulierung? Und, was genau soll reguliert werden? In der Vergangenheit wurden einige der heftigsten Reaktionen der Öffentlichkeit auf die Wissenschaft und neue Erkenntnisse nicht durch die von ihnen erzeugten gesellschaftlichen Auswirkungen ausgelöst, sondern durch wissenschaftlich geprägte Vorstellungen und Perspektiven, die mit kulturell fest verwurzelten Vorstellungen, wie zum Beispiel der über die Natur des Menschen, in Konflikt stehen. Bewusste Versuche, das Wissen zu regulieren, sind nicht neu. Die Aufnahme des ptolemäischen Systems in die Lehren der Katholischen Kirche oder der heftige Widerstand der geistigen Führer der Reformation gegen die Ideen Galileos und deren Unterdrückung und Zensur durch die Katholische Kirche sind herausragende Beispiele aus der Wissenschaftsgeschichte für das Überwachen von Wissen, genau wie erste staatliche umweltpolitische Regulierungsversuche ökonomischer Aktivitäten im 18. Jahrhundert in Frankreich (Reynard 2002). Die Haltung der damaligen Kirchenführer und die konfliktgeladene Debatte, die sie auslösten, klingen in dem gegenwärtigen Widerstreit um die „Natur der menschlichen Natur“ wieder an. Politische Bemühungen, die sich in internationalen Übereinkommen niederschlagen, sind Beispiele moderner Wissenspolitik, die darauf abzielt, den Zugang zu Handlungsmöglichkeiten, die katastrophale Folgen haben könnten, durch juristische und politische Instrumente und Sanktionen zu beschränken oder zu verhindern. Natürlich ist jeder bewusste Versuch, neues Wissen und seine Verwendung zu regulieren, häufig gleichzeitig Parteinahme für anscheinend konkurrierende Wissensformen. Der berüchtigte und immer noch andauernde Kampf in einigen Teilen der USA, Lehren der Evolutionstheorie im Schulunterricht zu verbieten, ist hierfür ein gutes Beispiel. Der Beschluss der Schulbehörde von Kansas, vom gegenwärtigen amerikanischen Präsidenten wohlwollend beobachtet und unterstützt, jeden Hinweis auf die Evolutionstheorie aus den naturwissenschaftlichen Lehrplänen des Staates zu streichen, ist ein Beispiel jüngeren Datums für erfolgreiche Versuche der Anhänger der Schöpfungsgeschichte, nicht nur die evolutionäre Biologie, sondern auch die Theorie des Urknalls aus den Lehrplänen der US-Schulen zu verbannen. Jedoch sind derartige Bemühungen, mögliche ideologische und kulturelle Auswirkungen der Wissenschaft zu regulieren und zu kontrollieren, wie sie in verschiedenen Gesellschaften unternommen werden und wie auch das Beispiel aus Kansas zu bestätigen scheint, auf lange Sicht und in unterschiedlichen gesellschaftlichen Kontexten im Grossen und Ganzen erfolglos geblieben. In den letzten beiden Jahrzehnten zeichnet sich eine Wende in der Art der in der Öffentlichkeit vorherrschenden Bedenken gegen die gesellschaftlichen Folgen von Wissenschaft und Technik ab: Sie kreisen nicht mehr um Fragen der Sicherheit, sondern zunächst mehr um solche des Risikos und inzwischen zunehmend um die der Unsicherheit. Sieht man einmal davon ab, dass die Einsicht in die mit wissenschaftlichen Erkenntnissen verbundenen Risiken und Unsicherheiten in der Öffentlichkeit und im Politiksystem größer geworden ist, dann gehen die Einstellungen in der Öffentlichkeit von der einmal vorherrschenden Ansicht ab, dass Wissenschaft und Technik fast ausnahmslos gesellschaftlichen Nutzen stiften. Die Veränderungen in der Bewertung von Wissenschaft und Technik in der Öffentlichkeit sind sicher nicht unabhängig von der Tatsache, dass bestimmte, in den Labors der Biotechnologie produzierte Erkenntnisse und Techniken unmittelbar einsichtige praktische Folgen zu haben scheinen. Es ist anzunehmen, dass neue wissenschaftliche Erkennt- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 7 SCHWERPUNKTTHEMA nisse im Vergleich zum wissenschaftlichen Wissen der Vergangenheit unmittelbare Auswirkungen auf den Menschen und die Gesellschaft haben, sofern sie Anwendung finden. Man kann deshalb auch unterstellen, dass die Problematik der kognitiven Distanz und der Verständnisschwierigkeiten zwischen der modernen Wissenschaft und der Öffentlichkeit unter diesen Umständen weniger relevant ist (Weingart, Engels, Pansegrau 2002). Das von uns als Wissenspolitik gekennzeichnete neue Politikfeld steht allerdings in keinem unmittelbaren Zusammenhang mit dem jüngst immer wieder konstatierten ambivalenten Gefühl eines Krisenphänomens moderner Gesellschaften, das durch die Über- bzw. Massenproduktion von Wissen als solchem entstanden ist. Auf die Spannungen zwischen dem Umfang der Wissensproduktion in fortgeschrittenen Gesellschaften und der begrenzten Fähigkeit des einzelnen Menschen, das große Angebot von Wissen auch zu verarbeiten, hat Georg Simmel ([1907] 1989) schon vor hundert Jahren im Schlusskapitel seiner Philosophie des Geldes, einer Theorie des damaligen Zeitalters, hingewiesen. Die „Kulturtragödie“ (Simmel) manifestiert sich in dem Auseinanderfallen von verselbständigter objektiver Kultur und dem Eigensinn subjektiver Kultur. Die Problematik der Überwachung des Wissens bezieht sich nicht auf die Produktion von Wissen insgesamt, wie auch immer man Überproduktion definieren mag, sondern auf das Angebot von zusätzlichem Wissen, das als realitätsverändernd begriffen wird. 5 Wissenspolitik und ihre Akteure Das verstärkte öffentliche Interesse an einer Kontrolle der Anwendung des Wissens und den antizipierten oder auch nicht antizipierbaren Externalitäten der Anwendung wissenschaftlichen und technischen Wissens signalisiert eine grundlegende Verschiebung in der gesellschaftlichen Legitimität der Wissenschaft. Nachdem die Autorität und der Stellenwert der Wissenschaft als vorrangige Quelle kognitiver Innovation zunehmend angezweifelt wird, lassen intensivierte Bemühungen, das Wissen zu regeln, erkennen, dass sich die Legitimationsproblematik der Wissenschaft von Konflikten mit „ideologischen“ oder kulturellen Implikationen wissenschaftlicher Aussagen auf Auseinander- Seite 8 setzungen verlagert hat, die sich vorrangig mit den praktischen Folgen der Anwendung wissenschaftlicher Erkenntnisse befassen. Die inzwischen öffentlich stattfindende Demystifizierung von Experten (Barnes 1999) könnte nicht nur als ein gutes Beispiel für einen Wandel in der Beziehung zwischen den wissensbasierten Berufen und deren Klienten, Konsumenten, Patienten, Studenten, Auszubildenden, Kunden usw. gewertet werden, sondern auch als eine tief greifende Transformation des Öffentlichkeitsbildes vom wissenschaftlichen Wissen. Durch diese Veränderung gibt es eine größere Zahl und Bandbreite von Individuen, die in einer solchen Beziehung als Ratsuchende nicht länger in der traditionellen, nämlich untergebenen Rolle verbleiben, die sich daraus ergibt, dass jeder Zweifel a priori ausgeschlossen wird. Helen Lopata (1976) hat den Prozess, den wir hier meinen, als Kenntnisverbesserung und als rebellisches Verhalten der Klienten in Kontexten beschrieben, in denen Expertenwissen „professionell“ vermittelt wird. Lopata hält mehrere gesellschaftliche Veränderungen verantwortlich für die Schwierigkeit, Wissen (zum Beispiel durch die Wissensberufe) zu monopolisieren, und für die Weigerung der Konsumenten und Klienten, sich dem Expertenratschlag gegenüber passiv und konform zu verhalten (dazu auch Lezaun in diesem Schwerpunkt). Zuallererst ist die steigende Anzahl wissensbasierter Berufe zu nennen, die eine strikte Kontrolle und Einhaltung der Grenzen des Diskurses und der Art und Weise der Diskursführung erschwert und die Fragmentierung von Expertenbereichen erhöht (dazu auch Fuller in diesem Schwerpunkt). Diese Fragmentierung wird aber publik. Ob ein Konsens in einem wissenschaftlichen Spezialgebiet jemals vorherrschte und wie er zustande gekommen ist, steht hier nicht zur Diskussion. Was dagegen zur Diskussion steht, ist der öffentlich sichtbare und ausgetragene Dissens etwa unter Biologen über die sozialen Folgen von Veränderungen des menschlichen Genoms. Ein öffentlich eindeutig erkennbarer wissenschaftlicher Dissens ist hier mitbestimmend für nachhaltige Besorgnisse in der Öffentlichkeit. Zweitens entwickelt die Öffentlichkeit mehr Scharfsinn und sie verfügt über mehr kognitive Fähigkeiten. Es entstehen neue Organisationen und Interessengruppen, die zum Autoritätsverlust der Exper- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA ten beitragen. Die einst als eher esoterisch verstandenen Wissensformen, deren Diskurs nicht minder technisch war, öffnen sich, werden öffentlich debattiert, kontrolliert und reguliert (Kaschinski, Spehr 2001). 6 Regulierungsweisen Vielleicht ist es sinnvoller, die in diesem Kontext interessierende Frage als eine der Regulierung des Wissens zu bezeichnen bzw. als den Versuch, Wissensansprüche außerhalb der Grenzen des Wissenschaftssystems unmittelbar zu kontrollieren. In diesem Sinn unterscheidet sich die Regulierung des Wissens von Versuchen, die sekundären Folgen von bereits praktisch umgesetztem Wissen zu kontrollieren. Solche Versuche könnten zum Beispiel konkrete Bemühungen sein, die Ergebnisse einer Studie umzusetzen, aus der hervorgeht, dass Passivrauchen zu erhöhtem Blutdruck führen kann. Als Ergebnis einer solchen Studie könnte zum Beispiel die Beschränkung des Rauchens auf bestimmte Räume oder bestimmte Individuen angeordnet werden. Nicht zur Disposition oder Diskussion steht in diesem Fall der Erkenntnisanspruch der Studie selbst. Wir verwenden den Begriff der Regulierung nicht in dem im gegenwärtigen ökonomischen Diskurs vorherrschenden Sinn. Im ökonomischen Diskurs unterstützt man in der Regel den Abbau von existierenden (staatlichen) Regulationsmechanismen, um etwa die Handels- oder Kapitalströme regional und global noch ungehinderter fließen zu lassen. In der Ökonomie soll das freie Spiel der Marktkräfte andere soziale Institutionen „disziplinieren“. Aus marxistischer Warte befassen sich Theorien der gesellschaftlichen Regulierung dagegen mit staatlichen Praktiken, die das vorrangige Ziel haben, den Akkumulationsprozess des Kapitals zu stützen und zu fördern. Im Kontext unserer Diskussion der Regulierung neuen Wissens zielen wir auf einen anderen Begriff der Regulierung, nämlich auf Versuche unterschiedlichster Gruppen und Institutionen in der Gesellschaft, Wissen zu disziplinieren. Dieser bewusste Eingriff in die Verwendungsmöglichkeiten neuen Wissens kann auch heißen, dass man die Möglichkeiten der Anwendung nicht nur restriktiv zu steuern versucht (Mitnick 1980). Es kann auch heißen, dass die Regulierung der Wissenspolitik auf eine Erweiterung der Handlungsmöglichkeiten zielt. Der Staat ist in diesem Zusammenhang ein zwar wichtiger, aber nicht der primäre oder alleinig relevante Akteur von Regulierungsmaßnahmen. Regulierung soll in diesem Zusammenhang deshalb ganz allgemein auf den bewussten, strategischen Einsatz von politischer und juristischer Herrschaft sowie von ökonomischen Ressourcen und kulturellen Praktiken verweisen, die dazu dienen können, unabhängig von dem jeweiligen Ziel, die praktische Realisierung von Wissen zu beeinflussen bzw. zu steuern. Die Zahl und Reichweite institutionalisierter Standards zur Überwachung des Wissens sind bisher relativ gering. Es gibt zum Beispiel nur wenige rechtliche Vorschriften, die sich mit der Sicherstellung der Natürlichkeit des Menschen befassen. Regulationsmaßnahmen beinhalten sowohl informelle als auch formelle Handlungen unterschiedlichster Art mit dem Ziel, die Anwendung und weitere Wissensentwicklung zu beschränken, in bestimmte Bahnen zu lenken oder sogar zu verbieten. Anlass solcher Maßnahmen ist aber immer eine Reaktion auf gedachte Folgen bestimmter Erkenntnisse. Inhalt dieser Handlungen können moralischer Druck sein, die Gründung von Überwachungs- und Prüfungsinstitutionen, der Verweis auf herrschende gesellschaftliche Wertvorstellungen, Gesetzesmaßnahmen, Beschränkungen in der Verbreitung von Wissen, Verbote usw. Das Ziel der Regulierung von Wissen ist offensichtlich, die Wissensentwicklung und die Anwendung von Wissen in gewünschte Bahnen zu lenken, d. h. entweder sie zu belassen oder auszuschließen. Die Quelle von normativen Konventionen und rechtlichen Standards, Regulationsmaßnahmen oder auch einfach der Legitimation der kulturellen Ächtung einer bestimmten Verwendung von wissenschaftlichen Erkenntnissen ist in der Regel außerhalb des Wissenschaftssystems zu finden, wobei aber nicht auszuschließen ist, dass Kontrollmaßnahmen aller Art von wissenschaftlichen Experten begleitet und mitformuliert werden und deren Implementation auch von ihnen überwacht wird. Wenn es zum Beispiel zu Forderungen kommt, die menschliche Natur angesichts neuer wissenschaftlicher und technischer Fähigkeiten im status quo menschlicher Reproduktion zu erhalten und zu schützen, Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 9 SCHWERPUNKTTHEMA stellt das Wissenschaftsverständnis der Natur keine eindeutige, unstrittige Kategorie der Natürlichkeit bereit, an die man sich – um normative Orientierung bemüht – halten könnte (Lemke 2004). Der Verweis auf unzweideutige wissenschaftliche Konventionen als Grundlage praktisch-politischer Regulierungsmaßnahmen ist somit nicht möglich. Das wissenschaftliche Verständnis von Natürlichkeit umfasst eine Anzahl von denkbaren „Naturen” und erlaubt so die Konstruktion sehr verschiedenartiger Vorstellungen von Natürlichkeit. 7 Wissenspolitik und Wissenschafts- und Technologiepolitik Obwohl die Deskription der Maßnahmen der Überwachung und ihrer Intentionen den Eindruck erweckt, es handele sich bei der Regulierung von Wissen teilweise um nichts anderes als die herkömmliche Wissenschafts- und Technologiepolitik, soll unterstrichen werden, dass es hier im Gegenteil um Überwachungsmaßnahmen geht, die in der Regel erst durch bestimmte Entwicklungen der wissenschaftlichen Erkenntnisse und technischen Möglichkeiten ausgelöst werden. Das erfolgreiche Klonen eines Tieres durch schottische Wissenschaftler wäre ein Beispiel. Darüber hinaus zeigt uns die jahrzehntelange Erfahrung mit forschungs- und entwicklungspolitischen Maßnahmen, dass sich die Entwicklungsdynamik von Technik und Wissenschaft kaum durch politische Standards steuern lässt, wenn überhaupt. Die mangelnde Kontrollierbarkeit bzw. Weichenstellung technischwissenschaftlicher Entwicklungen verstärkt sich natürlich in einer Welt, in der herkömmliche Grenzen an Relevanz verlieren. Die Grenzen von Forschungs- und Wissenspolitik sowie ihre – in ihrer idealtypischen Trennung – gesonderten strategischen Funktionen in der Gesellschaft nähern sich in Wissensgesellschaften an und verwischen sich (dazu auch Wehling und Böhme in diesem Schwerpunkt). Politische und sonstige Bemühungen, Wissen zu regulieren, werden einen Einfluss auf die Wissenschaftspolitik haben, genau wie die Wissenschaftspolitik Konsequenzen für die Wissenspolitik haben wird. Die Wissenschaftspolitik des Tages spiegelt die herrschenden politischen Befindlichkeiten wie etwa ökonomische, soziale und umweltrelevante Zielsetzungen so- Seite 10 wie die praxisrelevanten Möglichkeiten des Wissenschaftssystems wider, effektiv auf solche Anforderungen aus der Gesellschaft zu reagieren oder sie zurückzudrängen. Der Grad der Abschottung von Wissenschaft und Gesellschaft wird sich in Zukunft weiter verringern, die Grenzen der Wissenschaften werden poröser und die Häufigkeit und Intensität des gegenseitigen Austausches wird zunehmen. Dass die Grenzen zwischen Wissenschaft, Politik und Ökonomie dynamisch und durchlässig geworden sind, zeigt sich besonders deutlich am Beispiel der Produktion von Erkenntnissen. Und zwar gilt dies insbesondere für Prozesse der Konsensbildung, der Überwindung von kognitiven Differenzen oder der Entwicklung von dann nicht weiter kontroversen Fakten in wissenschaftlichen Spezialgebieten, bei denen Außenseitern, Nicht-Wissenschaftlern und systemfremden Gruppen ein wachsender Einfluss zukommt. Eine mehr oder weniger unmittelbare Intervention nichtwissenschaftlicher Akteure in das wissenschaftliche Geschehen wird besonders deutlich in der problemorientierten Forschung wie zum Beispiel in der Umweltforschung, der Risikoforschung und in den Versuchen, die Folgen der Technologieentwicklung einzuschätzen. Bestimmte Felder der Medizinforschung liefern weitere Beispiele für die durchlässiger werdenden Grenzen der modernen Wissenschaft. In Frankreich zum Beispiel haben die Aktivitäten organisierter Gruppen von an Muskelschwund erkrankten Patienten zu umfangreichen Forschungsinvestitionen in die Molekularbiologie und die Genomforschung geführt. 8 Perspektiven Bisherige Formen der Wissenspolitik umfassen in erster Linie reaktive Strategien und Instrumente gesellschaftlicher Institutionen in Form von Regulierungsmaßnahmen, Gesetzen, richterlichen Entscheidungen oder sozialer Bewegungen. Die reaktiven Strategien der Einflussnahme durch Regeln und Sanktionen erstrecken sich auf wissenschaftliche Erkenntnisse und technische Artefakte, die schon weitgehend entwickelt, umgesetzt und am Markt vorhanden sind. Die zukünftige Wissenspolitik wird dagegen zunehmend auf neue Erkenntnisse und Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA technische Erfindungen reagieren, deren gesellschaftliche Funktionen und Folgen strittig sind. Die gesellschaftlichen Auswirkungen von neuen Erkenntnissen sind nicht mehr unbedingt Motor von Veränderungen, sondern müssen erst antizipiert werden und die Regeln, für die man sich entscheidet, müssen antizipatorische Kontrollen sein. Die vorrangige Frage in dem neuen Politikfeld wird sein, ob wir neue Erkenntnisse überhaupt verwenden sollen und nicht, wie man sie am besten verwerten kann. Darüber hinaus ist die grundsätzliche Frage, wie man wissenspolitische Maßnahmen in einer demokratischen Gesellschaft überhaupt organisieren kann. Wie massiv und signifikant die Entwicklung in Umfang und Bandbreite der menschlichen Handlungsmöglichkeiten im Verlauf von nur einem Jahrhundert sein kann, lässt sich an Folgendem illustrieren: 1945 war es Menschen möglich, Leben in umfassender Weise zu zerstören; 2045 wird es wahrscheinlich möglich sein, Leben in umfassender Form zu schöpfen. Die Geschwindigkeit, mit der neue und neuartige Handlungsmöglichkeiten geschaffen werden, zwingt uns, so hat es den Anschein, nicht nur unser Selbstverständnis zu ändern, sondern auch, was noch weiter reichende Folgen haben wird, unsere eigene Natur. Die Versprechen und die Ängste, die mit dieser Entwicklung in engem Zusammenhang stehen, sind der Motor des entstehenden Politikfeldes der Wissenspolitik. Die Grenzen dessen, was einmal jenseits der Kontrolle des Menschen war, verschieben sich rapide. Die politische Landschaft wird sich als Resultat wissenschaftlicher und technischer Entdeckungen und Erfindungen ändern. Regierungen werden gezwungen sein, sich neuen Standards zu stellen, neue Regeln zu entwickeln und sich am Erfolg neuer Aufgaben messen zu lassen. Der Nationalstaat wird für die Wissenspolitik zwar weiter von Bedeutung sein, aber nicht mehr hauptsächlich als autonomer Akteur. Vielmehr wird der Nationalstaat zunehmend die wissenspolitischen Vorgaben und Forderungen globaler Institutionen, internationaler Vereinbarungen und sozialer Bewegungen umsetzen. Allerdings, und auch dies ist unschwer zu erkennen, wird das Tempo, mit dem neue Probleme wachsen, weitaus höher sein als das, mit dem wissenspolitische Lösungen akkumulieren. Ob es aber in hoch differenzierten modernen Gesellschaften überhaupt eine (effektive) Wissenspolitik geben mag, wird die Zukunft zeigen. Möglicherweise muss man daran arbeiten, die Reflexionsleistungen innerhalb der Wissenschaft mit dem Ziel zu stärken, die praktische Umsetzung neuer Erkenntnisse auf bestimmte Ziele zu relativieren, d. h. die „Wachstum auslösenden Impulse unter Kontrolle zu bringen und die Funktion so zu interpretieren, dass Verzichte auf Funktionserfüllung miteinbezogen sind“ (Luhmann [1981] 1987, S. 62). Und das ist ohne Zweifel eine Sisyphusarbeit ersten Ranges. 9 Zu den Beiträgen Die Forderung nach einer Wissenspolitik als ein eigenständiges Handlungs- und Reflexionsfeld in der Gesellschaft speist sich aus dem Wandel der Wissensproduktion und der zunehmenden Integration wissenschaftlichen Wissens in die unterschiedlichsten gesellschaftlichen Bereiche. Dabei haben wir mindestens drei Trends ausgemacht, die dazu beigetragen haben, dass wir von einer sich herausbildenden Wissensgesellschaft sprechen können. Zum einen zeigt sich, zum großen Teil bedingt durch die neuen Informations- und Kommunikationstechnologien, ein ungeheurer Zuwachs an verfügbarem Wissen. Es entstehen neue Formen der Wissensproduktion, die nicht mehr allein auf das Universitäts- und Forschungssystem beschränkt bleiben. Zum anderen kann man eine zunehmende Funktionalisierung des Wissens nach Nützlichkeitsgesichtspunkten und Entscheidungsbedarf beobachten. Wissen soll handlungsrelevant im weitesten Sinne des Wortes sein. Drittens wird Wissenschaft und Forschung moralisch und ethisch unmittelbar relevant, indem in ihren fortgeschrittensten Erscheinungsformen (Bio- und Gentechnik, Nanotechnologie und Hirnforschung) die Grenze zwischen Mensch und Natur zu verschwimmen scheint. In den Worten von Habermas: „[Sie] lösen Grenzziehungen und Zusammenhänge auf, die uns bisher in unserem Alltagshandeln als geradezu transzendental notwendig erschienen. Auf der einen Seite verschmilzt organisch Gewachsenes mit technisch Gemachtem, auf der anderen Seite wird die Produktivität des menschlichen Geistes von der erlebenden Sub- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 11 SCHWERPUNKTTHEMA jektivität abgespalten“ (2003, S.76). Habermas sieht hier die Gefahr einer Technisierung der menschlichen Natur, die ein verändertes Selbstverständnis der Gattung erzeugen würde, das nicht mehr mit unseren Normen und Werten vereinbar ist, die sich in einem langen evolutionären Prozess herausgebildet haben und denen das frei verantwortlich handelnde Individuum mit seine Freiheitsrechten zugrunde liegt. Wissenspolitik als eine neue Form der Governance von Wissen hätte diese drei Bezüge: Institution, Praxisrelevanz und Weltbildfunktion (moralische Orientierung) des in der Gesellschaft laufend neu produzierten und angewandten Wissens zu reflektierten und im Medium des öffentlichen Diskurses zu regulieren. Die in diesem Themenschwerpunkt versammelten Beiträge versuchen von diesen unterschiedlichen Sichtweisen das Thema Wissenspolitik zu erfassen. Das neu entstehende Feld ist nicht nur durch differierende Ansätze gekennzeichnet, sondern hier kann man auch kulturelle Differenzen im Hinblick darauf feststellen, wie das Problem einer zunehmenden Moralisierung und Regulierung der Wissenspolitik wissenschaftlich behandelt wird. Während die deutsche Debatte prinzipieller verläuft und unmittelbar in Richtung einer Ethisierung der Wissenschaft zielt (Böhme in diesem Schwerpunkt; Habermas 2001) oder Wissenspolitik in die Perspektive einer zweiten Modernisierung gerückt wird (Wehling in diesem Schwerpunkt) verläuft die amerikanische Diskussion pragmatischer, empirischer und stark auf den Einzelfall bezogen. Gleichwohl teilen auch die angelsächsischen Autoren die Ansicht, dass Wissenspolitik Regulationspolitik ist, nur sind sie bei Fragen der Einriffe in das Wissenschaftssystem offener und vermeiden eine direkte Moralisierung der Wissenschaft. Moralisierung der Wissenschaft als gesellschaftliches Unternehmen ist Gernot Böhmes Vorschlag für eine Erneuerung der Wissenschaftspolitik, worunter er das Errichten von moralischen Institutionen durch den politischöffentlichen Diskurs versteht, um so der Moral einen legitimen gesellschaftlichen Ort zu verschaffen. Wissenschaftliche Entwicklung und technische Innovationen können auf diese Weise dem moralischen Räsonnement zugänglich gemacht werden. Die öffentliche Debatte der Wissenschaftsentwicklung und deren Wendung ins Seite 12 Moralische sind für ihn deswegen unabdingbar, da die Verschmelzung von Alltagsleben und von Wissenschaft und Technik tief in unser gesellschaftliches Selbstverständnis eingreift und sowohl die Lebensumstände als auch die traditionellen Wertordnung radikal verändert. Steve Fuller analysiert das Problem der Wissenspolitik von einer anderen, der institutionellen Seite. Am Beispiel der Universität als „an institution of knowledge governance“ zeigt er den widersprüchlichen Zyklus der Produktion und Nutzung des Wissens auf. Sich beziehend auf Schumpeter und Sombart betrachtet er diesen Prozess als ein laufendes Ineinandergreifen von Produktion und Zerstörung von „sozialem Kapital“. Die Universität, institutionalisiert durch zwei unterschiedliche Rollensets, die des Forschers und die des Lehrenden, erzeugt einen endlosen Kreislauf: Als Forschungseinrichtung produziert die Universität Wissen, innovatives Wissen, das sie aber als öffentliches Gut (social capital) anbieten muss, indem es publiziert, gelehrt oder auf sonstige Weise der Allgemeinheit zugängig gemacht wird. Damit verliert es aber seine Exklusivität und seinen Wert. Meist wird auch noch die Position des Innovators untergraben. William Leiss versucht nicht wie Böhme die Produktion und Anwendung neuen Wissens über Moralisierung zu regulieren. Indem er alte und neue Risiken mit möglicherweise katastrophalen Folgen unterscheidet, wendet er sich direkt dem Problem der gesellschaftlichen Beherrschbarkeit dieser Risiken zu. Moralische Risiken (moral risks), wie er sie bezeichnet, gehen von neuen Technologien aus, die die ethische Basis der menschlichen Zivilisation bedrohen und deren negative und „böse“ (evil) Aspekte praktisch unbegrenzt sind. Ihre besonderen Gefahren sieht er in der Unmöglichkeit ihre Kontrolle, ohne dabei die demokratischen Grundlagen der Gesellschaft zu zerstören. Neue Technologien werden nicht mehr zentral durch den Staat produziert, wie Atomwaffen oder die Kernenergie, sie können auch nicht mehr durch staatliche Instanzen überwacht und kontrolliert werden, da sie dezentral, in privaten Firmen und Unternehmen weltweit entwickelt und auf den Markt gebracht werden. Gentechnologie aber auch die Informations- und Kommunikationstechnologien aufgrund ihrer Querschnittsfunktion, Dezentralität und verhältnismäßig leichten Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA Reproduzierbarkeit sind tendenziell gefährliche und kaum kontrollierbare Techniken. Die Rede von Risiken bezieht sich zum einen auf die möglicherweise unkontrollierten Folgen einer Produktion und Freisetzung gentechnisch manipulierter Organismen in die Umwelt. Zum anderen wird damit aber gleichzeitig – diesmal als Chancen der Gentechnologie formuliert – der Anspruch erhoben, auf gentechnologischem Weg zur Eindämmung und Kontrolle gesellschaftlicher Gefahren wie Krankheiten oder Verhaltens- und Normabweichungen beizutragen. Die gentechnologische Praxis ist also auch in dem Sinne eine Risikotechnologie, als sie soziale „Risiken“ mit technischen Mitteln zu bekämpfen sucht. Gene werden für Phänomene verantwortlich gemacht, von denen bisher angenommen wurde, dass sie soziale, psychologische oder ökologische Ursachen haben. An diesem Punkt setzt Troy Duster an. Er untersucht die kulturelle und politische Bedeutung des genetischen Reduktionismus. Auf der Grundlage der Molekularbiologie können traditionelle Formen von rassistischer oder sexistischer Herrschaft erneuert werden. Es ist grundsätzlich möglich, mit Hilfe der Erkenntnisse der Molekularbiologie Menschen von ihrer strafrechtlichen, moralischen oder politischen Verantwortung zu entlasten, aber sie kann auch als Mittel dazu dienen, massive soziale Ausgrenzungen vorzunehmen, da ja hier ein „natürliches Verhalten“ vorliege, dem durch Resozialisierung oder durch Lernprozesse nicht beizukommen sei. Am Beispiel des Rassenbegriffs zeigt Duster, wie dieser entweder mit Hilfe biologischer Kategorien oder sozialer Kategorien begründet wird. Wissenspolitik als Machtstrategie, die sich jeweils ihre wissenschaftliche Fundierung von der führenden Leitwissenschaft ausleiht. Duster nennt das „ Feedback Loops in the Politics of Knowledge Production” und eröffnet der Wissenssoziologie ein neues Forschungsfeld. Der Bedarf nach einer Wissenspolitik ist auch ein Ausdruck der enger werdenden Kopplung der Wissenschaft an die unterschiedlichsten gesellschaftlichen Bereiche: Politik, Wirtschaft, Gesundheitswesen usw. Was unter dem Schlagwort Verwissenschaftlichung der Gesellschaft abgehandelt wird, stellt sich bei näherem Hinsehen als hochkomplexer dynamischer Prozess dar, in dem ein zunehmender Distanzverlust von Wissenschaft und Gesellschaft zu beobachten ist, der im Prinzip zu einer Instrumentalisierung der Wissenschaft für heterogene Zwecke führen kann, aber auch die Möglichkeit einer Öffnung der Wissenschaft gegenüber anderen Wissensformen in der Gesellschaft in sich birgt. Ein wichtiges, aber höchst umstrittenes Feld bildet hierbei die Integration von Laienwissen in die Produktion und Legitimation wissenschaftlichen Wissens. Durch die Kopplung von diesen beiden Wissensformen können neue reflexive Kooperationsformen gefunden werden, bei denen die Betroffenengruppen direkt mit in den Forschungsprozess eingebunden werden, wie dies insbesondere bei der Aidsforschung geschehen ist (Epstein 1996). Gleichzeitig besteht auch die Gefahr, dass Betroffene ausgeforscht und für fremde Interessen eingespannt werden. Javier Lezaun weist in seinem Beitrag am Beispiel der Konsumforschung auf die Ambivalenz solcher Wissensgenerierung hin: „To some observers, consumer research is partly an instrument to produce knowledge about the public, and partly a public relations strategy”. Wissenspolitik hätte hier Formen der Wissensproduktion zu suchen, die gleichsam beide Seiten zu ihrem Recht kommen lassen. Laienwissen trüge dann zur Modifikation der Forschung und Produkte bei ohne in den Geruch der Akzeptanzbeschaffung zu geraten. Stephen Turner untersucht in vergleichender Perspektive auf einem allgemeineren Level die Rolle der Experten auf dem Gebiet der Wissenspolitik. Am Beispiel der Cholera im 19. Jahrhundert analysiert er drei unterschiedliche Muster des Zusammenspiels von Experten, Politik und bürokratischen Strukturen. Er zeigt, wie die Möglichkeiten der Bekämpfung der Cholera abhängig sind von der Ausgestaltung der Wissensregime. Nur dort (Beispiel New York) fand eine effiziente Lösung des Problems statt, wo die Experten pluralistisch organisiert waren und die Wissenschaftler miteinander konkurrierten. Autoritative Wissensregime, mögen sie noch so hervorragende Wissenschaftler besitzen, stehen immer in Gefahr, unterkomplexe und einseitige Strategien zu entwickeln. Peter Wehling geht in seinem Beitrag von der Theorie reflexiver Modernisierung (Beck) aus und sieht das Problem der Wissensordnung moderner Gesellschaften zum einen in dem Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 13 SCHWERPUNKTTHEMA rasanten Wachstum des Wissens, das im Wesentlichen durch die Wissenschaft ausgelöst wurde, zum anderen aber in den dabei mit produzierten Risiken. Mit der Unterscheidung von innovationsorientierter, regulativer und reflexiver Wissenspolitik versucht er, die bisher etwas unübersichtliche Diskussion zu ordnen und gleichzeitig sein Votum für eine reflexive Wissenspolitik zu begründen. Ausgangspunkt seiner Überlegungen ist das dabei mit entstehende Nichtwissen. Nichtwissen spielt insofern eine entscheidende Rolle, da Wissensproduktion immer zugleich auch Nichtwissen mit hervorbringt. Durch die Politisierung des Nichtwissens wird auf eine weitere Risikoquelle der Wissensproduktion verwiesen und gleichzeitig die Anerkennung des „Nicht-Wissen-Wollens“ als eine legitime Strategie im Umgang mit neuem Wissen begründet. Ignoranz als eigenständiges Rechtsgut ist die überraschende Pointe dieses Ansatzes der Wissenspolitik. Am Beispiel der prädiktiven Gendiagnostik zeigt er, dass das Recht auf Nichtwissen zu einem wichtigen Faktor der genetischen Wissensordnung geworden ist. Der gesellschaftliche Streit besteht darin, wie weit dieses Recht reichen soll. Es stellt sich das Problem, ob es ein Recht ist, das verhindern soll, dass bestimmte genetische Informationen erzeugt werden, oder ob es nur das Recht ist, gewisse Information nicht zur Kenntnis nehmen zu müssen. Für die Ausgestaltung einer Wissenspolitik spielt diese Differenz eine entscheidende Rolle. Im ersten Fall würde es sich um ein Informationserzeugungsverbot handeln, im zweiten Fall um einen Schutz des Selbstbildes der Person. Gleich wie dieser Streit entschieden wird, liegt hier eine prinzipielle Weichenstellung vor, das Feld für eine reflexive Wissenspolitik zu eröffnen: „…so wird deutlich, dass eine solche Politik mehr beinhaltet als die Mobilisierung, Steuerung oder Überwachung des Wissens. Reflexive Wissenspolitik kann sich vielmehr als eine „Politik des Nichtwissens“ herausstellen, die die institutionalisierte Präferenz für Wissen, das auf Dauer gestellte Bemühen, auftretende Probleme vorrangig oder ausschließlich durch mehr Wissen zu bewältigen, grundlegend in Frage stellt“ (Wehling in diesem Schwerpunkt). Damit ist nicht mehr, aber auch nicht weniger gesagt, als dass die gesamte gesellschaftliche Organisation der Wissensproduktion auf den Prüfstand ge- Seite 14 stellt werden soll. Inwieweit dies einer Wissenspolitik, selbst einer reflexiven Wissenspolitik möglich ist, dürfte sowohl eine theoretische als auch gleichzeitig eine praktisch-politische Frage sein, die wiederum nur durch den gesellschaftlichen Diskurs beantwortet werden kann. Literatur Barnes, B., 1999: Biotechnology as Expertise. In: O’Mahony, P. (ed.): Nature, Risks and Responsibility Discourses on Biotechnology. New York: Routledge, S. 52-66 Epstein, S., 1996: Impure Science. AIDS, Activism, and the Politics of Knowledge. Berkeley, Los Angeles: University of California Press Habermas, J., 2001: Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik? Frankfurt a. Main: Suhrkamp Kaschinski, K.; Spehr, C., 2001: Hoffen, Fürchten, Kritisieren? Gen- und Biotechnik in der populären Kultur und die Generationen der Kritik. In: Das Argument 43, S. 685-700 Lemke, T., 2004: Veranlagung und Verantwortung. Genetische Diagnose zwischen Selbstbestimmung und Schicksal. Bielefeld: transkript-Verlag Lopata, H.L., 1976: Expertization of everyone and the revolt of the client. In: Sociological Quarterly 17, S. 435-447 Mannheim, K., [1929] 1965: Ideologie und Utopie. Frankfurt a. Main: Schulte-Bulmke Mitnick, B.M., 1980: The Political Economy of Regulation. Creating, Designing, and Removing Regulatory Forms. New York: Columbia University Press Reynard, P.C., 2002: Public order and privilege. Eighteenth-century French roots of environmental regulation. In: Technology and Culture 43, S. 1-28 Simmel, G., [1907] 1989: Philosophie des Geldes. Frankfurt a. Main: Suhrkamp (Gesamtausgabe Bd. 6) Weingart, P.; Engels, A.; Pansegrau, P., 2002: Von der Hypothese zur Katastrophe. Der anthropogene Klimawandel im Diskurs zwischen Wissenschaft, Politik und Massenmedien. Opladen: Leske+Budrich « Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA Die Moralisierung der Wissenschaftspolitik von Gernot Böhme, TU Darmstadt Wenn die Wissenschaftspolitik bisher die Aufgabe hatte, die Wissenschaft qua Forschung soweit es irgend ging zu fördern, so geht es jetzt darum, die Forschung zu überwachen, für Forschungsvorhaben Genehmigungsverfahren einzurichten, einen moralischen Konsens über mögliche Forschungen sicherzustellen, die Anwendung von Forschungsergebnissen zu beschränken und zu kanalisieren. Der Autor stellt diesen Wandel dar, indem er von der Finalisierungsthese über die Kritik an der Militarisierung der Wissenschaft bis in die Debatten um die Forschung am Leben und den Umgang mit dem Wissen vom Leben in die Gegenwart hineinführt. Die Moralisierung dieser Debatte ist legitim, weil es hier um Fragen unseres gesellschaftlich geteilten Selbstverständnisses geht. Dass wir tatsächlich eine Moralisierung der Wissenschaftspolitik erleben, wird vielen im Blick auf die Debatten um die Stammzellenforschung und die Einrichtung eines nationalen Ethikrates sofort einleuchten. Im Blick auf diese Entwicklungen hat jüngst der deutschkanadische Soziologe Nico Stehr formuliert: „Eine der größten politischen Herausforderungen der nächsten Zukunft, eine die Anlass zu unendlichen Kontroversen geben wird, ist die Frage einer gesellschaftlichen Überwachung und Regulierung des Wissens“. Nico Stehr behauptet, dass wir es in Zukunft nicht bloß mit Wissenschaftspolitik zu tun haben werden, dass vielmehr der Umgang mit Wissen selbst zu einem Politikum wird. Wenn die Wissenschaftspolitik bisher die Aufgabe hatte, die Wissenschaft qua Forschung soweit es irgend ging zu fördern, unter der Bedingung knapper Mittel Prioritäten zu setzen und ein innovatives Klima zu schaffen, so geht es jetzt darum, die Forschung zu überwachen, für Forschungsvorhaben Genehmigungsverfahren einzurichten, einen moralischen Konsens über mögliche Forschungen sicherzustellen, die Anwendung von Forschungsergebnissen zu beschränken und zu kanalisieren. Man könnte sagen, es geht um Wissensmanagement, aber das wäre ein zu schwacher Ausdruck. Genauer gesagt geht es darum beständig auszuhandeln, was wir überhaupt wissen wollen und welche Anwendungen von Wissen wir als legitim ansehen. Es geht darum, einen gesellschaftlichen Konsens zu finden, aufgrund dessen die Erzeugung und Anwendung von Wissen geregelt wird. Diese Verschiebung im Verhältnis von Wissenschaft und Gesellschaft hat einen Grund in einer Tatsache, die mir Anlass gegeben hat, von einem Ende des Bacon’schen Zeitalters zu sprechen (Böhme 1993): Das Vertrauen, das seit Francis Bacon die Beziehung von Wissenschaft und Gesellschaft getragen hat, ist zerbrochen, nämlich das Vertrauen darauf, dass wissenschaftlicher Fortschritt in jedem Fall zugleich humaner und gesellschaftlicher Fortschritt sein werde. Wenn wir heute Anlass haben, von einer Moralisierung der Wissenschaftspolitik zu sprechen, so kann das keinesfalls bedeuten, dass etwa Politik durch Moral ersetzt würde. Insbesondere geht es hier nicht um die Moral des einzelnen Wissenschaftlers. Da viel für die richtige Einschätzung der gegenwärtigen Moralisierung der Wissenschaftspolitik davon abhängt, dass man dieses letztere Missverständnis abhält, möchte ich auf diesen Punkt etwas genauer eingehen: Der Appell an die Moral des einzelnen Wissenschaftlers ist häufig eine Verlegenheit oder ein Ausdruck der Verzweiflung, an den institutionellen Bedingungen der Wissenschaftsentwicklung nichts ändern zu können. Man erwartet vom einzelnen Wissenschaftler, dass er verantwortungsvoll sein Handwerk betreibe, bzw. der einzelne Wissenschaftler, der sich außer Stande sieht, eine Entwicklung in der Wissenschaft, die er für bedenklich hält, zu ändern, versucht durch individuelle Verweigerung wenigstens das zu tun, was in seiner Reichweite liegt. Für letzteres ist die Verweigerung von Naturwissenschaftlern und Technikern gegenüber der Rüstungsforschung ein charakteristisches Beispiel – ich werde darauf zurückkommen. Ein anderes Beispiel ist die Boykottierung von Tierversuchen bzw. der Vivisektion, wie sie verschiedentlich von Medizinstudenten geübt wurde. Solche Aktionen sind allenfalls Zeichen, die bei entsprechender Publizität vielleicht ein Umdenken im größeren Rahmen initiieren können. Wirkungsvoller sind da schon kollektive Selbstbindungen von ganzen Wissenschaftlergruppen, etwa bestimmte Experimente Sorg- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 15 SCHWERPUNKTTHEMA faltsregeln zu unterwerfen bzw. in einer Forschungsrichtung ein Moratorium einzulegen1. Skeptisch gegenüber all diesen Versuchen individueller Moralisierung stimmen die Ergebnisse, die die Wissenschaftssoziologen Stephen Box und Stephen Cotgrove seinerzeit gewonnen haben. Box und Cotgrove haben empirisch untersucht, welche Wirksamkeit die Grundnormen der Wissenschaft für das konkrete Verhalten von Wissenschaftlern haben. Ihr Ergebnis war deprimierend: Sie konnten zeigen, dass Wissenschaftler zumindest im Konfliktfall nicht den generellen wissenschaftlichen Normen folgen, sondern jeweils den Normen der Institution, die sie beschäftigt (Box und Cotgrove 1966). Die Moralisierung der Wissenschaftspolitik bedeutet also nicht die Ersetzung von Politik durch Moral, insbesondere nicht durch die Moral des Einzelnen. Es geht vielmehr darum, dass in den öffentlichen Auseinandersetzungen um die Entwicklung von Wissenschaft moralische Argumente eine Bedeutung gewinnen. Das heißt aber: im Verhältnis von Wissenschaft und Gesellschaft hat sich etwas geändert, die Wissenschaft ist nicht mehr einfach als ein Instrument gesellschaftlichen Fortschritts anzusehen. Wie ist es dazu gekommen? 1 Die Finalisierung der Wissenschaft in den 60er und 70er Jahren des 20. Jahrhunderts In den 60er und 70er Jahres des 20. Jahrhunderts gab es außerordentliche Erwartungen an die Entwicklung der Wissenschaft – es war vielleicht die letzte Periode, in der man die Lösung aller gesellschaftlichen Probleme von der Wissenschaft erwartete. Da ist als erstes das Programm der grünen Revolution zu nennen. Es handelte sich um die Vorstellung, dass man durch die Entwicklung der Agrarwissenschaft – Anbaumethoden, Saatgutentwicklung, Düngemittel, Pestizide – die landwirtschaftlichen Erträge weltweit so würde steigern können, dass das Welthungerproblem gelöst würde. Da ist als nächstes die Hoffnung zu nennen, die man in die sog. friedliche Entwicklung der Kernkraft investierte. Man glaubte, dass in Zukunft durch Kernkraftwerke, insbesondere durch Fusionsreaktoren Energie in unbeschränktem Maße zur Verfügung stehen würde. Alle anderen Probleme könnten dann durch die praktisch unend- Seite 16 lich zur Verfügung stehenden Energien gelöst werden. Dieser Gedanke ist nicht ganz absurd. So können natürlich etwa das Abwasser- und Müllproblem und die Versorgung mit Trinkwasser durch Recyclinganlagen und Meerwasser-Entsalzung im Prinzip gelöst werden. Ferner können Umweltschäden durch Rekultivierung bzw. Renaturierung beseitigt werden, vorausgesetzt man hat beliebig viel Energie zur Verfügung, deren Herstellung nicht wiederum andere Umweltschäden erzeugt. Nur eben die letzte Bedingung ließ sich nicht erfüllen und zudem ist bis heute die friedliche Kernfusion nicht gelungen. Schließlich die dritte große Hoffnung: Die Hoffnung, die man auf Robotik und Kybernetik setzte oder allgemeiner auf die Automatisierung aller Produktion. Es war die große Hoffnung auf Abschaffung der Fabrikarbeit, durch die die menschliche Arbeit zu sich selbst befreit werden sollte, nämlich in reine Kreativität und allenfalls noch Regelungs- und Wartungsarbeit transformiert. All diese Hoffnungen haben sich nicht erfüllt. Aber damals in den 60er/70er Jahren war die Erwartung an die Wissenschaft so groß, dass die zentrale Frage der Wissenschaftspolitik darin bestand, ob der wissenschaftliche Fortschritt auf gesellschaftliche Zwecke hin steuerbar sei. Dies war die Frage, auf die die sog. Finalisierungstheorie (Böhme, Daele, Krohn 1973) eine Antwort zu geben suchte. In Fortsetzung der Theorie wissenschaftlicher Revolutionen von Thomas Kuhn hatten ihre Autoren ein 3-PhasenModell der Wissenschaftsentwicklung aufgestellt. In der ersten Phase ist die Wissenschaft insbesondere durch die Wahl ihrer Gegenstände sehr wohl von gesellschaftlichen Einflüssen abhängig. In der mittleren Phase, in der sich für eine wissenschaftliche Disziplin ein theoretisches Paradigma herausbildet, ist sie weitgehend autonom: Problemerzeugung und Theorieselektion sind wesentlich eine Angelegenheit der Scientific Community. Ist aber einmal eine Disziplin zu einer gewissen theoretischen Reife gelangt, dann ist ihre weitere Entwicklung, nämlich in Richtung auf Anwendung und Spezialisierung, wiederum von gesellschaftlichen Einflüssen abhängig; mehr noch sogar: auf sie angewiesen. Das ist die dritte Phase der Wissenschaftsentwicklung. Heute im Rückblick erscheint diese Theorie nahezu trivial. Sie beschreibt eigentlich nur was Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA ohnehin geschieht, nämlich dass die Wissenschaft wesentlich als ein Instrument zu gesellschaftlichen Zwecken entwickelt wird. Davon ist nur ein relativ schmaler Sektor autonomer Wissenschaft ausgenommen, in dem es um die Etablierung gewisser grundlegender Theorien geht. Jedoch, die Konsequenzen dieser Beschreibung sind noch immer brisant. Zum einen: wenn Wissenschaft zu gesellschaftlichen Zwecken entwickelt wird, fragt man sich, um wessen Zwecke es sich handelt. Die Gesellschaft kennt Fraktionen und nur selten bildet sich ein Konsens über einen gesamtgesellschaftlichen Nutzen heraus. Zum anderen: wenn Wissenschaft zu gesellschaftlichen Zwecken, die in der Regel Zwecke gewisser Fraktionen der Gesellschaft sind, sich entwickelt, welche Zwecke werden dann nicht erreicht, welche gesellschaftlichen Fraktionen werden von der Wissenschaft nicht bedient, welche Fragen werden nicht erforscht? Und zum Dritten folgt aus der Finalisierungstheorie, dass die Wissenschaft zwar ein Instrument der Gesellschaft, aber keineswegs ein neutrales ist. Letzteres war ja in den umfänglichen Diskussionen über Verantwortung in der Wissenschaft immer wieder unterstellt worden, nämlich dass die Wissenschaft zwar ein Instrument sei, aber gerade als solches wertneutral, so dass die Verantwortung für die Wissenschaft letzten Endes nicht bei der Forschung, sondern bei der Anwendung läge. Wenn Wissenschaft, wie die Finalisierungstheorie behauptete, um nützlich zu sein, bereits auf bestimmte Anwendungen hin entwickelt werden muss, dann wird sie nicht ohne weiteres für andere Anwendungen zur Verfügung stehen. Der drastische Fall für diese Asymmetrie ist der Fall der Kernfusion. Die Wasserstoffbombe hat man seit 1952, die friedliche Kernfusion dagegen ist bis heute nicht gelungen. Es sind diese Konsequenzen, die bereits damals die Wissenschaftsentwicklung in moralische Perspektiven rückte. Man kann sagen: Die Moralisierung setzte ein als Wissenschaftskritik. Die Kritik der Wissenschaft unter der Frage, zu wessen Nutzen sie betrieben werde, führte zur Idee der Betroffenen-Wissenschaft – Wissenschaft für die Frauen, Wissenschaft für die Arbeitnehmer – und zur Einrichtung der Wissenschaftsläden, in denen engagierte Wissenschaftler Science for the People machen wollten. Sie war vor allem Kritik an der Kriegsforschung und sie klagte insbesondere im Energiesektor die vernachlässigten Alternativen ein. 2 Individuelle Moralisierung Die Kritik an der Wissenschaft, ihre Funktionalisierung für Interessen des Kapitals, ihre Verstrickung in die Rüstungsindustrie, ihre ambivalenten Wirkungen im medizinischen Sektor führte bei vielen Wissenschaftlern zu dem Versuch, Wissenschaft anders zu machen oder gar eine andere Wissenschaft. Wissenschaftskritik führte bei vielen Wissenschaftlern zur Überprüfung ihres Selbstverständnisses qua Wissenschaftler. Diese individuelle Moralisierung von Wissenschaft, deren Wirksamkeit wir bereits skeptisch erwähnt haben, stellt aber doch eine wichtige Stufe in Richtung einer Moralisierung der Wissenschaftspolitik dar, wie wir sie heute erleben. Die engagierten Wissenschaftler folgten der Maxime, bei sich selbst anzufangen, wenn man gesellschaftlich etwas erreichen will. Der nächste Schritt, der eine solche Wissenschaftspolitik von unten darstellt, war der Zusammenschluss engagierter Wissenschaftler – etwa in der Organisation Science for the People oder der Vereinigung deutscher Wissenschaftler, der Organisation Naturwissenschaftler für den Frieden, der Atomic Scientists und der Pugvash-Konferenzen. Hier wurde häufig durch Satzungen und Erklärungen versucht, das moralische Engagement der Wissenschaftler für ganze Gruppen verbindlich zu machen und insbesondere auf diese Weise in die Öffentlichkeit hinauszuwirken. Charakteristisch für diese Form der Moralisierung ist die Darmstädter Verweigerungsformel, die in den Jahren der so genannten Nachrüstung von der Darmstädter Initiative für Abrüstung entworfen wurde und von etwa 130 Wissenschaftlern und Technikern unterzeichnet wurde: „Ich erkläre hiermit, dass ich mich im Rahmen meiner Tätigkeit als Wissenschaftler oder Techniker an der Entwicklung militärischer Rüstung nicht beteiligen will. Ich werde mich vielmehr um eine Aufklärung des Beitrages meines Fachgebietes zur Rüstungsentwicklung bemühen und der militärischen Verwendung wissenschaftlichen und technischen Wissens entgegenwirken.“ (Burkhardt 1964, S. 229) Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 17 SCHWERPUNKTTHEMA Diese Erklärung ist ein weiteres Beispiel für individuelle Moralisierung in der Wissenschaft, aber sie zeigt doch über die Sammlung gleich lautender Einzelentscheidungen den Weg zur kollektiven Entscheidung, die den nächsten Schritt in Richtung einer Moralisierung des Umgangs mit Wissenschaft dargestellt. 3 Gesellschaftliche Moralisierung Der Schritt über den mehr oder weniger großen Massenprotest gegen die Rüstungsforschung hinaus wurde gemacht in dem Moment, in dem eine ganze wissenschaftliche Institution durch demokratischen Beschluss sich gegen Rüstungsforschung entschied. Dieser Fall ist äußerst lehrreich. Es handelt sich um die Fachhochschule Hamburg, deren Senat 1983/84 folgenden Beschluss fasste: „Die Fachhochschule lehnt die Zusammenarbeit mit Firmen und Institutionen ab, deren militärische Zweckbindung erkennbar ist, und führt keine Untersuchung durch und übernimmt keine Aufträge, die offensichtlich militärischen Zwecken dienen. Alle neuen Mitglieder sind auf diesen Beschluss hinzuweisen.“ Ein solcher demokratischer Beschluss einer Institution ist natürlich das einzig Richtige, wenn man der moralischen Haltung des einzelnen Wissenschaftlers gegenüber seinem wissenschaftlichen Tun Wirkung verleihen will und außerdem das von Box und Cotgrove aufgewiesene Dilemma vermeiden will, dass der einzelne Wissenschaftler trotz ggf. anderer moralischer Orientierung den Imperativen der Institution folgt, die ihn beschäftigt. Doch gerade diese Lösung, bei der eine ganze wissenschaftliche Institution der in ihr laufenden Forschung eine moralische Orientierung geben wollte, ist gescheitert – musste scheitern. Sie widersprach nämlich – jedenfalls war das die Auffassung des damaligen Hamburger Wissenschaftssenators Prof. Klaus Michael Meyer-Abich – dem Grundgesetz. Meyer-Abich hob auf dem Wege der dienstlichen Rechtsaufsicht den Beschluss des Senats der Fachhochschule auf. In der Begründung heißt es: „Der Beschluss des Fachhochschulsenats verstößt gegen Artikel 5 Abs. 3 des Grundgesetzes. Denn das Grundrecht der Freiheit der Forschung und der Lehre garantiert den einzelnen forschenden und lehrenden Mitgliedern der Fachhochschule auch die Beteiligung an Pro- Seite 18 jekten und Untersuchungen mit militärischen Zwecken oder Zweckbindungen ...“.2 Das Scheitern der gesellschaftlichen Moralisierung der Wissenschaft machte schlagartig deutlich, dass die Forschungsfreiheit, wie sie im Grundgesetz der Bundesrepublik Deutschland verankert ist, ein individuelles Freiheitsrecht darstellt. Als solches gehört es in den Kontext der Meinungsfreiheit, eines für die Demokratie essentiellen Grundrechtes, wie es im Vormärz und 1848 in der Paulskirche formuliert wurde. Für die damalige Zeit war das auch ganz angemessen, insofern in der ersten Hälfte des 19. Jahrhunderts die wesentliche gesellschaftliche Bedeutung von Wissenschaft noch in ihrem kritischen Potenzial bestand oder, allgemeiner gefasst, in ihrer Weltbildfunktion. Forschung wurde als Wahrheitssuche verstanden und war damit eine wesentliche Voraussetzung für die Freiheit der Feder und der Rede. Seit dem Anfang des 20. Jahrhunderts hat sich allerdings die gesellschaftliche Bedeutung von Wissenschaft wesentlich verändert. Durch die Nähe zur Technik und Industrie ist Forschung Produktivkraftentwicklung geworden. Ferner ist sie gerade in den wichtigsten Sektoren, und das sind für diese neue gesellschaftliche Funktion der Wissenschaft die Naturwissenschaften, nicht mehr eine Sache des Einzelnen: Forschung wurde zum kollektiven Unternehmen. Diesen fundamentalen Wandel von Wissenschaft im 20. Jahrhundert hat der parlamentarische Rat in der Formulierung des Grundgesetzes offenbar nicht berücksichtigt. Die Forschungsfreiheit wurde weiterhin als Unterparagraph der Meinungs- und Pressefreiheit formuliert, nämlich als Art. 5 Abs. 3: „Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung.“ Der zweite Satz des Art. 5 Abs. 3 GG macht deutlich, dass die Forschungsfreiheit keiner spezifischen Einschränkung unterliegt. Er verweist lediglich darauf, dass auch der Forscher wie jeder Bürger an die Verfassung gebunden ist. Diese Tatsache, dass der parlamentarische Rat es nicht für nötig befunden hat, eine Möglichkeit der Einschränkung der Forschungsfreiheit zu konzipieren, ist mindestens ebenso erstaunlich wie seine Verkennung der gesellschaftlichen Bedeutung, die die Wissenschaft des 20. Jahrhunderts erlangt hat: Der Artikel 5 Abs. 3 ist in keiner Weise von den Erfahrungen Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA des Missbrauchs von Wissenschaft unter dem Naziregime gezeichnet. Es ist, als habe es Dr. Mengele und die Experimente an und mit Menschen nicht gegeben. Der Hinweis, dass solche Versuche an Menschen selbstverständlich gegen die Menschenwürde (Artikel 1) verstoßen würden und es deshalb überflüssig sei, eine entsprechende Einschränkung der Forschungsfreiheit zu formulieren, sticht nicht, weil das Grundgesetz auch sonst Redundanzen enthält. So wird bspw. in Artikel 20 Abs. 4 ein Recht zum Widerstand gegen jeden formuliert, der es unternimmt, die grundgesetzliche Ordnung zu beseitigen. Außerdem zeigt sich heute, dass Einschränkungen der Forschungsfreiheit wünschenswert wären, wo sie nicht schon durch den Hinweis auf die Menschenwürde zu rechtfertigen sind, nämlich im Umgang mit Leben überhaupt. Das führt uns zu dem zentralen Punkt, der gegenwärtig zu einer Moralisierung der Wissenschaftspolitik geführt hat. 4 Die Moralisierung der Wissenschaftspolitik Wenn heute Wissenschaftspolitik nicht mehr die kluge Regelung des wissenschaftlichen Fortschritts ist, sondern zum Handeln im moralischen Raum wird, dann werden offenbar von der Wissenschaft essentials unseres geteilten Selbstverständnisses, also unseres Verständnisses, in welcher Gesellschaft wir leben und was wir unter würdigem Menschsein verstehen, berührt. In diesem Moment sind moralische Argumente im politischen Diskurs legitim und die Schaffung moralischer Institutionen zumindest als Foren eines öffentlichen moralischen Diskurses ist angezeigt, wenn nicht gar geboten. Im Folgenden soll nun das Grundsätzliche dieser Wendung der Wissenschaftspolitik ins Moralische skizziert werden. Es sind vor allem, soweit ich sehe, zwei Entwicklungen, die solche essentials unseres gesellschaftlichen Selbstverständnisses berühren, und zwar einerseits die Privatisierung des Wissens vom Leben und andererseits die Funktionalisierung des menschlichen Lebens zu Forschungszwecken bzw. innerhalb von Forschungsvorhaben. Wenn sich angesichts dieser Entwicklungen ein öffentlicher moralischer Diskurs entfaltet, so muss man nicht glauben, dass es dabei nur um ausformulierte Grundrechte oder Schutzgüter geht, die im Grundge- setz formuliert sind. Es kann auch durchaus um tief liegende Tabus gehen oder um moralische Intuitionen, die bisher noch keine explizite Formulierung gefunden haben. Es ist ohnehin zu erwarten, dass im Moment der moralischen Herausforderung moralische Topoi, die bisher unbewusst oder implizit ihre Wirkung getan haben, erst zum Bewusstsein kommen und eine Explikation erfahren. Es sind also in der Gegenwart im Wesentlichen die Wissenschaften vom Leben, die moralische Sorgen verursachen – wenn man das so sagen darf. Der erste Bereich der Sorgen hängt damit zusammen, dass die Naturwissenschaft allgemein und die Wissenschaft vom Leben natürlich im Speziellen innerhalb eines Nutzungsinteresses vorangetrieben werden. Gerade sehr teure Forschungen müssen sich irgendwie auch rechnen bzw. umgekehrt, sie werden nur deshalb unternommen, weil man sich von den Ergebnissen einen ökonomischen Nutzen verspricht. Da Wissen nun im Prinzip öffentlich ist und gerade wissenschaftliches Wissen nicht nur allgemein gültig ist, sondern im Prinzip auch von jedermann angeeignet werden kann, erzwingt das ökonomische Nutzungsinteresse die Patentierung von Wissen und Verfahren. Das hat nun dazu geführt, dass Versuche unternommen worden sind, einzelne genmanipulierte Lebewesen bzw. einzelne Funktionszusammenhänge in Lebewesen unter Patentschutz zu stellen. Diese Versuche sind äußerst umkämpft und haben nur in einzelnen Fällen bisher wirklich zu Patenten geführt. Aber der Trend ist klar: Die Entwickler, seien das nun einzelne Forscher oder Teams oder Firmen, wollen eine private Nutzung des von ihnen produzierten Wissens vom Leben sicherstellen. Diese Intentionen verstoßen nun offenbar gegen gewisse tief sitzende moralische Intuitionen. Sie können sich etwa in der Form äußern, dass jemand sagt: Ein Tier ist doch keine Maschine, ein Tier kann nicht patentiert werden. Allgemeiner ist die hier gemeinte moralische Intuition im Entwurf der Bioethikkonvention der UNESCO von 1995 zum Ausdruck gebracht worden, indem sie das menschliche Genom zum gemeinsamen Erbe der Menschheit erklärt hat. Dieser Satz kann bedeuten, dass man das menschliche Genom, d. h. also auch die genetische Ausstattung eines einzelnen Menschen, nicht als Privatsache betrachten darf Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 19 SCHWERPUNKTTHEMA und dass insbesondere nicht einzelne Menschengruppen über das menschliche Genom nach ihren Interessen verfügen dürfen.3 Eine ähnliche Intuition regt sich bei dem, was inzwischen unter dem Stichwort intellektuelle Piraterie bekannt ist: Man bezeichnet damit die wissenschaftliche Aneignung des Wissens der Einheimischen und dessen anschließende Patentierung. Auch hier geht es darum, dass ein bestimmtes Wissen als Allgemeingut angesehen wird und die Wissenschaft ein solches Wissen durch die wissenschaftliche Aneignung und Durchdringung zu etwas macht, auf das dann der einzelne Wissenschaftler oder seine Institution ein Urheberrecht hat. In beiden genannten Fällen wird das Wissen vom Leben als eine Art Allmende angesehen, als ein Allgemeingut, das es als solches zu erhalten gilt. Das zweite Beispiel ist die Funktionalisierung menschlichen Lebens im Forschungszusammenhang. Natürlich würde eine solche Funktionalisierung direkt die Menschenwürde verletzen, wenn es sich um Experimente an oder mit Menschen handeln würde. Ein Problem ist hier nur deshalb aufgetreten, weil es fraglich ist, ob Embryonen außerhalb des Mutterleibes bereits Menschenwürde zuzusprechen ist. Wenn es sich überhaupt um einen Menschen handelt, dann ist auch sein Leben gegenüber einer Funktionalisierung durch Artikel 2.2 GG geschützt.4 Da man eine embryonale Stammzelle jedenfalls als eine Einheit menschlichen Lebens verstehen muss, so stellt sich die Frage, ob menschliches Leben als solches den selben Schutz genießt, wie das Leben eines Menschen. Dies ist nun eine Stelle, wo wiederum moralische Intuitionen verletzt werden können. Offenbar empfinden viele Menschen so, dass hier auch der kategorische Imperativ Kants greift, der ja jede Funktionalisierung des Menschen verbietet. Kant formuliert allgemein für vernünftige Wesen: „Dass jedes derselben sich selbst und alle anderen niemals bloß als Mittel, sondern jederzeit zugleich als Zweck an sich selbst behandeln solle.“5 Die moralische Intuition geht nur darüber hinaus, nämlich dass man überhaupt jede Einheit menschlichen Lebens niemals bloß als Mittel behandeln darf. Das aber würde in der verbrauchenden Embryonenforschung geschehen. Ein weiteres Beispiel, das hiermit zusammenhängt, das man aber vielleicht doch als ei- Seite 20 nen dritten Typ ansehen sollte, ist die durch die Fortschritte der genetischen Forschung und der Gentechnik mögliche Eugenik. Auch hier dürfte ein Teil des moralischen Widerstandes aus der Intuition resultieren, dass menschliches Leben nicht funktionalisiert werden dürfe. Dann wäre diese Möglichkeit in unserer zweiten Fallgruppe unterzubringen. In der Bundesrepublik Deutschland gibt es allerdings noch einen anderen moralischen Hintergrund und das ist das Selbstverständnis unserer Gesellschaft oder besser gesagt, des Staates Bundesrepublik Deutschland, aus der Überwindung des Faschismus hervorgegangen zu sein. Soweit dieses Selbstverständnis ein tragender Konsens unserer Gesellschaft ist, darf man natürlich nicht den Missbrauch, der unter den Nationalsozialisten mit der Eugenik verbunden war, vergessen. Die grundsätzliche Möglichkeit dieses Missbrauches und die Notwendigkeit seiner Abwehr sind dann unverzichtbare moralische Eckpfeiler jeder politischen Entscheidung bezüglich der Eugenik. Diese Skizze dürfte ausreichen, um zu zeigen, dass die Moralisierung der Wissenschaftspolitik, die wir in der letzten Zeit erlebt haben, nicht bloß ein Faktum ist, sondern dass sie legitim und notwenig ist. Die Wissenschaft selbst ist in eine Phase eingetreten, in der sie Gegenstände berührt und Wissen und damit Handlungsmöglichkeiten produziert, die nicht einfach nur unter dem Gesichtspunkt von Nutzen und Schaden zu betrachten sind, sondern die Grundlagen unseres menschlichen und gesellschaftlichen Selbstverständnisses berühren. Anmerkungen 1) Dergleichen wurde unternommen in der Asilomar-Konferenz 1975; zur Auswertung s. The Scientist 14(7): 3. April 2000 2) Ich habe den Fall näher untersucht in meinem Aufsatz „Schützt das Grundgesetz die Rüstungsforschung?“ in Eckbert Nickel, Alexander Roßnagel, Bernhard Schlink. (Hrsg.), Die Freiheit und die Macht – Wissenschaft im Ernstfall, Baden-Baden: Lomos, 1994, Seite 85-92. 3) Siehe dazu mein Buch Ethik im Kontext über den Umgang mit ernsten Fragen. Frankfurt/Main: Suhrkamp 2. Aufl.“ Der Satz ist in der endgültigen Fassung durch die blassere Formel ersetzt worden: Article 4: The human genome in its natural state should not give rice to financial gains. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA 4) Artikel 2.2: Jeder hat das Recht auf Leben und körperliche Unversehrtheit. 5) Imanuel Kant: Grundlegung zur Metaphysik der Sitten. BA 74/75. The University as a Creative Destroyer of Social Capital by Steve Fuller, University of Warwick, UK Literatur Böhme, G., 1993: Am Ende des Baconschen Zeitalters. Studien zur Wissenschaftsentwicklung. Frankfurt a. M.: Suhrkamp St. Box, St. Cotgrove, 1966: Scientific Identity, Occupational Selections, and Role Strain. In: BJS 17, pp. 20-38 Böhme, G.; Daele W. v.d.; Krohn, W., 1973: Die Finalisierung der Wissenschaft. In: Zeitschrift für Soziologie 2, S. 128 ff. Burkhardt, A. (Hrsg.), 1964: Hochschule und Rüstung. Ein Beitrag von Wissenschaftlern der Technischen Hochschule Darmstadt zur („Nach“) Rüstungsdebatte. Darmstadt: Verlag Darmstädter Blätter, S. 229 Kontakt Prof. Dr. Gernot Böhme Institut für Philosophie FB 2 – Gesellschafts- und Geschichtswissenschaften Technische Universität Darmstadt Schloss, 64283 Darmstadt Tel.: +49 (0) 61 51 / 16 - 21 97 Fax: +49 (0) 61 51 / 71 58 75 E-Mail: G.Boehme@phil.tu-darmstadt.de Internet: http://www.ifs.tu-darmstadt.de/phil/ index1.html » The university is distinguished as an institution of knowledge governance by its dedication to what the author calls the ‘creative destruction of social capital’. That is, in their research function, universities create advantage; in their teaching function, they destroy it. This dual function has been historically tied to the university’s institutional autonomy. However, as the university has incorporated more of society into its activities – and thereby truly universalized the knowledge it produces – it has opened itself to factors that threaten to dismember its institutional integrity. The author considers a series of these factors in this paper, arguing that their growing significance reflects the decline of the welfare state and the emergence of ‘capitalism of the third order’. This tendency has had many historical well-wishers, who together reveal liberalism’s instinctive scepticism toward knowledge-bearing institutions combined with an openness to information technology. Moreover, as the state has shifted its role from provider of knowledge as public good to regulator of intellectual property, a curious rewriting of the politics of knowledge governance has occurred. Thus, much of the critical thrust of my paper focuses on the influential claim by Edmund Kitch that knowledge tends to escape its bearers, unless the state arrests its flight through legislation. Because the exact opposite is truer to history, the significance of the university as a knowledge-bearing institution tends to be grossly underestimated, and hence under threat in these neo-liberal times. The author addresses this threat in the final section of the paper, along with some ideas about how it may be overcome. 1 The University as the Ideal KnowledgeBearing Institution In the time-honored equation “knowledge is power”, power involves both the expansion and contraction of possibilities for action. Knowledge is supposed to expand the knower’s possibilities for action by contracting the possible Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 21 SCHWERPUNKTTHEMA actions of others. These others may range from fellow knowers to non-knowing natural and artificial entities. This broad understanding of the equation encompasses the interests of all who have embraced it, including Plato, Bacon, Comte, and Foucault. But differences arise over the normative spin given to the equation: Should the stress be placed on opening or closing possibilities for action? If the former, then the range of knowers is likely to be restricted; if the latter, then the range is likely to be extended. After all, my knowledge provides an advantage over you only if you do not already possess it. In this respect, knowledge is what economists call a positional good (Hirsch 1977), a concept that will loom large in the pages that follow. In this context, it helps to explain our rather schizoid attitudes toward the production and distribution of knowledge. We do research to expand our own capacity to act, but we teach in order to free our students from the actions that have been and could be taken by others. By virtue of their dual role as producers and distributors of knowledge, universities are engaged in an endless cycle of creating and destroying “social capital”, that is, the comparative advantage that a group or network enjoys by virtue of its collective capacity to act on a form of knowledge (Stehr 1994). Thus, as researchers, academics create social capital because intellectual innovation necessarily begins life as an elite product available only to those on the cutting edge. However, as teachers, academics destroy social capital by making the innovation publicly available, thereby diminishing whatever advantage was originally afforded to those on the cutting edge. Recalling Joseph Schumpeter’s (1950 [1942]) definition of the entrepreneur as the “creative destroyer” of capitalist markets, the university may be regarded as a meta-entrepreneurial institution that functions as the crucible for larger societal change. This process mimics the welfare state’s dual economic function of subsidizing capitalist production and redistributing its surplus. Not surprisingly, then, universities magnified in size and significance during the heyday of the welfare state, and have been now thrown into financial and wider institutional uncertainty with the welfare state’s devolution (Krause 1996). Moreover throughout its history, the university has been institutionally predisposed to Seite 22 engage in the creative destruction of social capital. In the Middle Ages, they were chartered as permanent self-governing bodies in a world of limited sovereign reach. Keeping the peace was often the most that a realistic sovereign could hope to achieve. Thus, in exchange for loyalty to the local ruler, universities were legally permitted to set their own curricula, raise their own capital, and even help manage the region’s everyday affairs. This was the context in which universities were chartered as among the first corporations (i.e., universitates, in Medieval law). This orientation marked a significant shift from the much more populous residential colleges of the Islamic world, the madrasas, which depended on the benefaction of intrusively pious patrons, or the more venerable, but also more routinized, training centers for civil servants in imperial China (Collins 1998). To be sure, like these institutions of higher learning, the Medieval universities were broadly dedicated to the reproduction of the social order. However, because the universities were founded in times and places that were profoundly disordered, academics were immediately thrown into situations where their words and deeds effectively brokered alternative futures. Given these origins, it is not surprising that academics have found it relatively easy to seed social unrest, which invariably they have interpreted as bringing order to an otherwise disordered situation. Perhaps the signature case of universities’ imposing order is the Humboldtinspired research-and-teaching university of the modern era, which is fruitfully conceptualized as a social technology for incorporating large segments of the population into the production and distribution of knowledge (Fuller 2002b). For example, exemplary works by eccentric geniuses were transformed into employment schemes for ordinary trainee academics. Kuhn would later call this routinization the “disciplinary matrix” sense of “paradigm,” which has become the backbone of modern graduate education (also known as normal science). Thus, modern academia transformed Newton’s Principia Mathematica from an imperfectly realized masterwork to a blueprint for a collectively realizable project. More generally, this attempt to cast the university as a social technology for truly universal knowledge has accelerated the institution’s tendency to drift from what I have Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA called a monastic to a priestly mode (Fuller 2000a: chap. 5; Fuller 2002a: chap. 4): the former stressing the virtues of institutional autonomy, the latter those of societal transformation. Perhaps the clearest epistemic marker of this drift is the benchmark for original research. In the monastic mode, the inquirer’s empirical resources are typically confined to the university’s grounds, which means a reliance on the campus library or oneself (or sometimes students) as primary databases. Under the circumstances, historical and philosophical studies provide the via regia to knowledge of the particular and the universal, respectively. But as the university has extended its political ambitions into the priestly mode, these two disciplines were replaced, respectively, by sciences focusing on ethnographic field work and experimental laboratory work. Accordingly, universities have undertaken substantial commitments to transform and govern areas, or “sites,” often far offcampus. This has not only driven a physical and psychological wedge between the university’s teaching and research functions, but it has also recast the university as a participant in power structures about which many of its staff, over the years, have had serious reservations. Yet, at the same time, staff loyalty to particular universities has diminished, so that nowadays complainants are more inclined to look toward the greener pastures of other campuses than to try to reform their current institution. However, the most obvious recent university policy that illustrates the university’s priestly mission is affirmative action legislation, which quite explicitly takes forward the university’s regulative ideal of creatively destroying societal advantage by giving priority to traditionally underprivileged groups in the hiring and promotion of academic staff, as well as the selection and sometimes even evaluation of students (Faundez 1994). This point, which generally goes unappreciated by the policy’s many critics, highlights the distinctive sense in which universities (and other chartered corporations) have participated in the more general processes of societal reproduction. For, here we have a legally self-perpetuating social institution whose process of inter-generational role replacement is not family-based. In other words, universities are pioneers in the decoupling of social reproduction from biological reproduction. 2 The Knowledge Society as Capitalism of the Third Order To understand the integral role of universities to the latest phase of capitalism, consider two general ways of thinking about the nature of capitalism. The more familiar one is a first-order account about how producers are engaged in perpetual – and largely self-defeating (according to Marxists) – competition to make the most out of the least, and thereby generate the greatest return on investment, also known as ‘profits’. Whatever its other merits, this account takes for granted that the relative standing of competing producers is self-evident, so that no additional work is required to identify the ‘market leaders’. But in fact, such work is needed. This secondorder account of how producers publicly demonstrate their productivity is the context in which ‘capitalism’ was coined by Max Weber’s great German rival, Werner Sombart, in 1902 (Grundmann and Stehr 2001). What contemporaries, notably Thorstein Veblen, derided as the ‘conspicuous consumption’ of successful capitalists, Sombart treated as the principal means by which capitalists displayed their social standing in a world where social structure was no longer reproduced as a system of fixed heritable differences. Thus, capitalists had to spend more in order to appear more successful. However, it would be misleading to think of these expenditures as allowing capitalists to luxuriate in their success. On the contrary, it spurred them to be more productive in the ordinary, first-order sense, since their competitors were quickly acquiring comparable, if not better, consumer goods. Indeed, before long, the competition was so intense that it became necessary to spend on acquiring the connoisseurship needed to purchase goods that will be seen – by those who know how to see – as ahead of the competition’s purchases. By the time we reach this ‘third-order’ capitalism, we are at the frontier of the knowledge society. That the ‘knowledge society’ might be a more polite way of referring to third-order capitalism should not be prima facie surprising. After all, the founding father of scientometrics, Derek de Solla Price, trawled through the welter of national economic statistics, only to find that the indicator that showed the strongest positive correlation with research productivity was not a Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 23 SCHWERPUNKTTHEMA measure of industrial productivity, but of electricity consumption per capita (Price 1993; Fuller 2002a, chap. 1). A certain vision of economic history is implied in the above account of capitalism. In precapitalist times, consumption was done at the expense of production, which explained (for example) the fleeting success of Spain and Portugal as imperial powers. They failed to reinvest the wealth they gained from overseas; they simply squandered it. In contrast, capitalist consumption is second-order production supported on the back of increased first-order production. From a sociological standpoint, the most striking feature of this ‘before-and-after’ story is its suggestion that capitalism is innovative in altering the sense of responsibility one has for maintaining a common social order. In pre-capitalist times, this responsibility was, so to speak, equally distributed across its members, regardless of status. Lords and serfs equally bore the burden of producing the distinction that enabled lords to dominate serfs. Expressions like ‘mutual recognition’, ‘respect’, and ‘honour’ capture this symmetrical sense of responsibility. However, in capitalist times, it would seem that, like insurance in today’s devolved welfare states, individuals bear this burden in proportion to their desire to be protected from status erosion. Thus, those who would be recognized as superior need to devote increasing effort to a demonstration of their superiority. This last point becomes especially poignant in advanced capitalist societies, where at least in principle the vast majority of people can lead materially adequate lives while spending less time and effort on first-order productive pursuits. However, this situation simply leads people to intensify their efforts at second-order pursuits. As a result, for example, individuals spend more on education and firms on advertising, even though the advantage they gain in terms of first-order production is marginal or temporary. Yet, this expenditure is necessary for one to be seen as ‘running with the pack’. Thus, we return to the concept of positional good introduced at the start of this article. The logic of producing such goods predicts that, over time, one’s relative status will decline, unless it is actively maintained, which usually involves trying to exceed it, thereby raising the absolute standard that everyone needs to meet. Thus, an Seite 24 expanded production of positional goods, combined with increased efficiency in the production of material goods, results in the systemically irrational outcomes that we have come to expect (and perhaps even rationalize) as our ‘knowledge society’. Specifically, the resources spent on acquiring credentials and marketing goods come to exceed what is spent on the actual work that these activities are meant to enhance, facilitate, and communicate. Of course, such a classic case of meansends reversal is not systemically irrational, if it marks a more-or-less conscious shift in values. Thus, it may not take much to be persuaded that we really do produce in order to have something to sell, and we take up particular jobs in order to have a platform for showing off our credentials. The struggle for recognition therefore overtakes the struggle for survival – the ultimate triumph of the German over the English tradition in political thought (Fukuyama 1992, chaps. 13-19). But this point acquires more of a sting in the case of so-called ‘public goods’, especially knowledge. In the case of such goods, producers are (supposedly) not only unable to recover fully the costs of production, but they would also incur further costs, were they to restrict consumption of their good. However, I would urge that so-called public goods be analysed as simply the class of positional goods that most effectively hide their production costs, specifically by everyone paying into a fund whose actual beneficiaries are undisclosed, perhaps because they are indeterminate (Fuller 2002a, chap. 1). This abstract point may be illustrated by answering a concrete question: Why is Einstein not entitled to a patent for his theories of relativity? The answer is that Einstein’s theories were innovative against a body of physical science whose development had been funded by the German state through taxation and other public finance schemes, major beneficiaries of which were institutions of higher education. These institutions were, in turn, open to anyone of sufficient merit, who would then be in a position to contribute to this body of knowledge. Einstein happened to take advantage of this opportunity that was in principle open to all taxpayers. But even if Einstein had not existed, it would have been only a matter of time before someone else would have come along to push back the frontiers of knowledge in a comparable manner. But Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA as long as it remains unclear from what part of the population the next Einstein is to be drawn, the public finance of higher education is justified. In that case, Einstein does not deserve the economic advantage made possible by a patent because he simply exploited an opportunity that had been subsidized by his fellow citizens. I propose this as the ‘deep rationale’ for the production of public goods like university education and research that have been the hallmarks of welfare state regimes. 3 The Welfare State’s Role in Making Knowledge Appear “Self-Protective” That knowledge would be the paradigm case of a public good is itself no mystery. It may have required much effort for Edison and Einstein to come up with their ideas, but once those ideas were published, anyone could potentially benefit from them. A logical conclusion of this line of thought, exploited by the U.S. legal theorist Edmund Kitch (1980), is that knowledge resists commodification to such an extent that the state must intervene to restrict its flow through intellectual property legislation, which ensures that knowledge producers can reap at least some of the fruits of their labors. Kitch imagines that knowledge is so naturally protective of its own interests that, in effect, a special class of laws is needed to protect knowledge producers from the knowledge they produce! Thus, Edison is entitled to a patent because of the likely commercial benefit afforded by his ideas, since once I understand how Edison invented the first incandescent light bulb, I am in a good position to design similar goods more efficiently that can be then sold more cheaply, and thereby corner a market that would otherwise belong to Edison. (In the economic history literature, this is sometimes called the “Japan Effect”, whereby it is always better to run second in unregulated market competition.) But why do similar worries not arise in the case of Einstein’s discovery of relativity theory? In other words, suppose economists took seriously both the costs of acquiring the training needed to put Einstein’s theory to any sort of use and the fact that this training would allow the trainee to earn a reasonable living as a physics instructor, if not design a way to supersede Einstein’s theory that would merit the Nobel Prize. It that case, ques- tions would be raised, not only about whether Einstein might not also be entitled to some legal protection, but also whether knowledge is as naturally footloose as Kitch and other public goods theorists make it out to be. Two interrelated issues need to be explored here. The first is the source of the difference in our normative intuitions concerning Edison and Einstein as knowledge producers: Why should the former but not the latter be entitled to legal protection? But the second, more general issue is the source of Kitch’s influential intuition that knowledge is inherently “self-protective”. My response to the first question will lay the groundwork for answering the second question. I shall argue that by overlooking the background political economy of knowledge production, Kitch’s thesis about the self-protective nature of knowledge gets matters exactly backwards. In short, specific, mostly state-based, institutions (most notably the university) have been required to ensure that knowledge possesses the sorts of properties that Kitch personifies as selfprotective. It should come as no surprise that Paul Samuelson (1969), the most influential welfare state economist of the post-WWII era, coined the phrase “public good” (albeit to formalize the only non-protective function that Adam Smith prescribed for the state), or that the need for public finance schemes to support scientific research should have been first raised by a utilitarian philosopher with strong welfarist concerns, Henry Sidgwick (Lutz 1999, p. 110). So let us ask: Why is Einstein not entitled to legal protection? Einstein’s theory of relativity was innovative against a body of physical science whose development had been funded by the German state through taxation and other public finance schemes, the main beneficiaries of which were institutions of higher education. These institutions were, in turn, open to anyone of sufficient merit, who would then be in a position to contribute to this body of knowledge. Einstein happened to take advantage of this opportunity. But even if Einstein had not existed, it would have been only a matter of time before someone else would have come along to push back the frontiers of knowledge in a comparable manner – so it is assumed. But as long as it remains unclear from what part of the population the next Einstein is likely to be drawn, the public finance of higher education is Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 25 SCHWERPUNKTTHEMA justified (imagine a compulsory lottery). In that case, Einstein does not deserve the economic protection afforded by a patent because he exploited an opportunity that had been subsidized by his fellow citizens. Now, why would the state have undertaken such a public finance scheme in the first place? Here we must resort to some political metaphysics. The state must presuppose that some knowledge is vital to the national interest, yet there is no natural incentive for any particular citizen to engage in its pursuit. Therefore, the state must provide the sort of universalized incentive scheme exemplified by free public education. Germany acquired this mindset, courtesy of Baron Helmut von Moltke, the mastermind of its victory in the Franco-Prussian War of 187071. Von Moltke argued that a healthy nation was always ready for “total war”, that is, not merely strategic engagement with a definite goal in sight (the classical aim of warfare), but rather the ongoing removal of any threat to national security. This was the idea of a “permanent state of emergency”, which would come to be the signature stance toward research and education policy in Cold War America, a period of unprecedented university expansion (Noble 1991). In a sense, then, Einstein received advance payment for the theory of relativity by having been allowed to obtain the training necessary for making his revolutionary breakthrough. To be sure, many other people underwent similar training and failed to arrive at anything of comparable significance. But that just underscores the risk that the state, on behalf of its citizens, undertakes when it raises taxes for mass public education: There is no guarantee that the benefits will outweigh the costs. In contrast, some situations that call for new knowledge are sufficiently obvious that citizens, regardless of prior training, will find it in their self-interest to try to meet them. In that case, an innovator is vulnerable to similarly oriented individuals who are in a position to make marginal improvements that end up displacing the innovator from the market. Edison’s discoveries occurred in this environment, which justifies his entitlement to a patent. Now, in either Einstein’s or Edison’s case, is knowledge self-protective? Clearly not in Einstein’s case. On the contrary, the state had to seed opportunities for his kind of knowledge to be produced. Edison’s case is a bit more Seite 26 ambiguous, but even here the answer is no. After all, the only people capable of capitalizing on Edison’s innovation were those who were already thinking along similar lines. There is no reason to think that mass publication of the details of Edison’s incandescent light bulb would have enabled most Americans to design such a product for home use, let alone mass consumption. In order to address the more general question of the source of the idea that knowledge is somehow self-protective, I begin by returning to the eighteenth-century European Enlightenment to pose the problem in its most basic form: Should knowledge production be granted any special legal protection? What are the grounds, if any, for the regulation of intellectual property transactions – or, in less economically presumptuous terms, the regulation of intellectual life? Here laissez-faire and dirigiste responses can be distinguished. The laissez-faire response is that once people enjoy sufficient wealth not to have to live hand-to-mouth, they ought to use their leisure to improve themselves and the polity. The implied analogy, perhaps made most explicit in the opening of Aristotle’s Metaphysics, is the imperative to physical fitness among the well-fed as a sign of both one’s superior status and preparedness to defend that superiority in warfare. Moreover, one would not be capable of advancing the frontiers of knowledge, were one not in a position to expend resources on lines of inquiry that might end up bearing no fruit. Thus, the fiscal benefit typically granted to the production of intellectual innovation in the eighteenth century was a prize, not a salary, grant, or for that matter, royalty. In other words, the reward consisted of a largely ceremonial event to mark the formal recognition of the innovation. Potential rivals for the prize were presumed to have independent means of material support, by virtue of either literal or adopted fathers: i.e., inheritance or patronage. (This is not the place to explore the Darwiniancum-Freudian implications of this situation.) In either case, they harbored no expectations of living off their innovations, as today’s royalty regimes potentially allow. The contest to solve some problem left over by Newton was regarded in the spirit of a game, in which even Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA losers never lose so much that they cannot return to compete in the next battle of wits. The dirigiste response is associated with the reasoning behind the patent law provision in the U.S. Constitution. The U.S. founding fathers, whose perspective on human nature owed more to Hobbes than Aristotle, did not believe that a free citizenry would be necessarily inclined toward the pursuit of knowledge. After all, a happy existence may be obtained through relatively effortless and unproductive means, like charging high rents to tenants on one’s property. At the same time, the founding fathers also believed in the overall benefits of new knowledge to the progress of the common wealth. This led to a characteristically eighteenth-century strategy of converting private vices into public virtue by providing explicit financial incentives for people to engage in knowledge production, namely, the temporary monopoly on inventions afforded by a patent. Moreover, since the main economic impact of a successful invention is that it destabilizes, or creatively destroys, markets, as more people seek patents, everyone else will soon have reason to engage in the same activity in order to restore their place in the market. Thus, a lethargic economy dominated by rent-seekers is quickly transformed into a dynamic commercial environment. Both the laissez-faire and dirigiste approaches to the regulation of intellectual life continue to have cultural resonance today. The idea that society is best served by individuals exercising their right to be wrong, a theme that unites civic republican democracy and Popperian philosophy of science, presupposes that inquirers are materially insulated from the consequences of their bold conjectures, just as the laissez-faire approach would have it (Fuller 2000a, chap. 1; Fuller 2002a, chap. 4). More controversially, the dirigiste sensibility lurks in the “orientalism” that has led political economists from Adam Smith onward to demonize the decadence of the East in favor of the industriousness of the West, with Western aristocrats consigned to the oriental side of the divide. A feature strikingly common to the laissezfaire and dirigiste Enlightenment approaches to intellectual property regulation is the absence of any assumption that knowledge is selfprotective. To be sure, both approaches presuppose that new knowledge is potentially available to any rational being inclined to pursue it. However, the inclination to inquiry is not itself universal. Certain economic conditions first need to be in place before the epistemic appetite is whetted. In the dirigiste case, it consists of a financial incentive to counteract the natural tendency to gain the most pleasure from the least effort; in the laissez-faire case, it is simply a generalized cultural expectation of people who are relatively secure in their material existence. So, if that is the view from the Enlightenment, where does the idea of knowledge as selfprotective come from? As so often happens with our ideas about knowledge, the answer lies in a syncretistic understanding of history. That is, factors of rather different origins are treated as contributing to a common contemporary effect. I have already indicated the determining role of what Alvin Gouldner (1970) dubbed the “welfare-warfare state” in establishing the modern political economy for the production of knowledge as a public good. Each citizen, simply by virtue of performing the fiscal duties of a citizen, contributes to the capital needed to produce public goods and, of course, becomes a potential beneficiary of that investment. However, in fact, most citizens reap modest epistemic returns from their investment, namely, the assortment of skills that enable them to earn a living. The identities of the few who benefit as Einstein did are rather unpredictable, since they would not necessarily have been in direct contact with the researchers whose work theirs builds upon or, for that matter, overturns. Rather, these innovators encounter their precursors secondhand, through textbooks and their often undistinguished classroom interpreters. Those still in the grip of Thomas Kuhn’s mythic history of science easily forget how this very basic element of knowledge consolidation and transmission – a textbook usable by the entire range of a discipline’s practitioners – first emerged in the context of nation-building efforts in the late nineteenth century (Olesko 1993). In earlier times, an aspiring intellectual innovator would not have appeared credible, had he not made personal contact with a recognized master of the innovator’s discipline. By such cultish means, disciplinary practitioners jealously protected their knowledge so that it could not be easily appropriated by others. And while these ancient prejudices linger in aca- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 27 SCHWERPUNKTTHEMA demic hiring practices, the provision of free public education has sufficiently loosened their constraint on actual intellectual innovation to leave the impression that innovators can come from anywhere, thereby contributing to the illusion that knowledge is self-protective. 4 Conclusion: Will Universities Survive the Era of Knowledge Management? Academics are too easily flattered by talk of “knowledge management” (Fuller 2002a). They often think it points to the central role of universities in society. Yet, the phrase signals quite the opposite – that society is a veritable hotbed of knowledge production, over which universities do not enjoy any special privilege or advantage. Academics have been caught off-guard because they have traditionally treated knowledge as something pursued for its own sake, regardless of cost or consequences. This made sense when universities were elite institutions and independent inquirers were leisured. However, there is increasing global pressure to open universities to the wider public, typically for reasons unrelated to the pure pursuit of knowledge. Today’s universities are expected to function as dispensers of credentials and engines of economic growth. Consequently, academics are no longer in full control of their performance standards. In this context, knowledge managers have their work cut out. Former Fortune editor Tom Stewart (1997) calls universities “dumb organizations” that have too much "human capital” but not enough “structural capital”. Behind these buzzwords is the view that a fast food chain like McDonalds’ is a “smart organization” because it makes the most of its relatively ill-trained staff through the alchemy of good management. In contrast, business as usual in academia proceeds almost exactly in reverse, as department heads and deans struggle to keep track of the activities of its overeducated staff. If a McDonalds’ is much more than the sum of its parts, a university appears to be much less. Academics remain largely in denial about the impact of knowledge management. Nevertheless, the sheer increase in the number of university heads drawn from business and industry concedes that McDonalds’ and MIT may be, at least in principle, judged by the same performance standards. A glaring recent example is Seite 28 Richard Sykes, whose appointment as Rector of Imperial College London was based largely on his successful merger of two transnational drugs companies, Glaxo and Smith-Kline. Not surprisingly, he has recently tried to merge Imperial and University College London into the UK’s premier research-led university. Moreover, it is unreasonable to expect the increasing number of academics on short-term contracts to defend the integrity of an institution that cannot promise them job security. Even Ph.D.s quickly acquire the survival skills and attitudes of the much less trained disposable staff one finds at McDonalds’. Thus, they become quite willing and able to move for better pay and work conditions (Jacob and Hellstrom 2000). Indeed, many academics – and not just professional knowledge managers – have endorsed recent steps taken to disaggregate the unity of teaching and research that has defined the university since its modern reinvention in early 19th century Germany. These steps occur daily with the establishment of each new on-line degree program and science park – the one reducing the university to a diploma mill, the other to a patent factory. Though they pull in opposing directions, these two “post-academic” organizations share an overriding interest in benefiting those who can pay at the point of delivery. In this context, universities appear quite vulnerable, as they have always been hard-pressed to justify their existence in such immediate cost-benefit terms. But it would be a mistake to place all the blame for this “service provider” view of universities on knowledge managers, or even the recent wave of neo-liberal ideology. Academics who nostalgically recall the flush funding for universities in the heyday of the welfare state often forget that service provision was precisely what lay behind the appeal of academia to policymakers. The public was willing to pay higher taxes because either they (or, more likely, their children) might qualify for a course of study that would enable them to improve their job prospects or academics might come up with a cure or a technique that would improve the quality of life in society. The same mentality operates today, only in an increasingly privatised funding environment. In short, a Faustian bargain was struck during the era of the welfare-warfare state that was typically cloaked in a social democratic rhetoric. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA Universities grew to an unprecedented size and significance, but in return they had become the premier site of socio-economic reproduction. In the long term, this bargain has caused the universities to lose their political – and consequently their intellectual – independence, a point that is increasingly clear with the removal of state legal and financial protection. After having been in the service of all taxpayers and judged by the benefits provided to them, universities are now being thrown into a global market where US universities already enjoy a long history of providing high quality knowledge-based goods and services on demand. At least, this is how the shifting political economy of academia appears from the European side of the Atlantic. It is now common for university heads to complain that lingering attachments to the welfare state prevent governments from charging the full student fees needed to compete with US universities on the world stage. They seem to assume that Americans are willing to pay a lot for higher education at the best institutions because these have a long track record of proving themselves in the marketplace. However, this does not explain how, say, the Ivy League manages to officially charge the world’s highest fees, yet require only a third of the students to pay them. Timehonoured universalist, democratic, and meritocratic ideals may explain why the Ivy League has this policy, but the mystery for Europeans is to determine how they have pulled it off. As it turns out, the European understanding of the American scene – especially at the elite end – is seriously flawed. What makes the flaw so serious is that it involves forgetting what has historically made universities such a distinctive European contribution to world culture. I shall return to this shortly. But at an even more basic level, this flaw should remind us of the long-term corrosive effect that marginal utility thinking has had on how we conceptualize value. Both welfare state economics and the current wave of neo-liberalism agree that the economy is built from transactions in which the traders are simultaneously trading with each other and trading off against their own competing interests. Thus, the rational economic agent is willing to accept a certain price, but only for a certain amount of any good or service. Beyond that point, ‘diminish- ing returns’ set in and rational agents shift their spending elsewhere. This means that goods and services are judged by the prospect of their impact on the consumer in the relative short term. Such a frame of reference is fundamentally antithetical to the character of the university. To their credit, welfare economists have long realized that their conception of the economy tends to devalue benefits that accrue only in the long term and especially to others not intimately connected to the agent (Price 1993). As we saw in the previous section, the welfare state conception of universities as both instances and producers of ‘public goods’ was meant to address this problem by arguing, in effect, that it is cheaper to indemnify everyone in a society than to target particular citizens for providing the costs and enjoying the benefits. But to unsympathetic neo-liberal ears, this sounds like a concession that higher education is a market with an indeterminate price structure. Could this be because producers and consumers are impeded from effectively communicating with each other? Such a suspicion motivates the knowledge manager’s general call for the removal of state barriers to the free competition of universities, which will quickly force them to restructure and perhaps even devolve, in the face of market forces. However, buried beneath this now familiar line of thought is its anchoring intuition: The paradigm case of all economic activity is the exchange of goods that might occur in a weekly village trade fair between parties trying to provide for their respective households. From that standpoint, the main practical problem is how to clear the market so that no one is left with unsold goods or unmet needs once the sun goes down. This formulation of the problem makes at least three assumptions that are alien to the economic situation in which university has (always) found itself: 1. Each trader is both a ‘producer’ and ‘consumer’. In contrast, the two roles are clearly distinguished in any transaction between a university and a prospective client, including a student. 2. No trader wants a surplus of goods, let alone accumulate as many goods as possible. Unused goods will either rot or be the target of thieves. In contrast, the sheer accumulation of knowledge – be it in books, Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 29 SCHWERPUNKTTHEMA brains, or databanks – is central to the university’s mission. 3. There is a cyclical structure to each trader’s needs that ideally corresponds to the trade fair’s periodicity. There are no inherently insatiable desires, only recurrent desires that are met as they arise. In contrast, the idea of termination is so foreign to academic inquiry that attempts to arrest or even channel its conduct have tended to be treated as repressive. However, universities can be managed as other than multi-purpose service providers joined to their clients by discrete transactions that end once the academic goods have been delivered. Recall that what originally entitled a university to corporate status under Roman law (universitas in Latin) was its pursuit of aims that transcend the personal interests of any of its current members. This enabled universities to raise their own institutionally earmarked funds, which were bestowed on individuals who were "incorporated" on a non-hereditary basis. This typically required renegotiating one’s identity through examination or election, as well as being willing to become something other than one already is. Along with universities, the original corporations included churches, religious orders, guilds, and cities. In this respect, being a student was very much like being a citizen. Commercial ventures came to be regularly treated as corporations only in the 19th century. Before then, a business was either a temporary and targeted venture (akin to a military expedition) or an amplified version of family inheritance, the default mechanism for transmitting social status under Roman law. The corporate origin of universities is of more than historical interest. The oldest and most successful US universities were founded by British religious dissidents for whom the corporate form of the church was very vivid. From the 17th century onward, American graduates were cultivated as “alumni” who regard their time in university as a life-defining process that they would wish to share with every worthy candidate. The resulting alumni endowments, based on the Protestant “tithing” of income, have provided a fund for allowing successive generations to enjoy the same opportunity for enrichment. In return, the alumni receive glossy magazines, winning sports teams (which the Seite 30 alumni worship every weekend), free courses, and nominal – and occasionally not so nominal – involvement in university policy. Two-thirds of Ivy League students have their education subsidized in this fashion. Moreover, the leading public American universities display similar, and sometimes even stronger, tendencies in the same direction. Thus, UCLA, the University of Michigan, and the University of Virginia are “public universities” that are 70 % privately funded, relatively little of which comes from full payment of student fees. In contrast, the two main strategies for “privatizing” the universities in former welfare state regimes – market-driven tuition fees and income-based graduate taxes – operate with a long-term strategy for institutional survival that is nothing more than a series of short-term strategies. At most, these compulsory payment schemes would enable universities to replace the capital they invest in their students, but they would also provide little incentive for graduates to contribute more than had been invested in them. If anything, such fees and taxes could become a source of resentment, non-compliance, and even overall fiscal failure, since in a world where knowledge is pursued as a positional good, it becomes harder to justify high quality university education on a shortterm value-for-money basis. Therefore, to overcome the knowledge manager’s jibe that they are dumb organizations, universities must endeavour to be wholes much greater than the sum of their parts. At the very least, this means that a university’s value must be measured beyond the short-term benefits it provides for immediate clients, including students. The ideal of uniting teaching and research promised just such a breadth of organizational vision, one worth updating today. After all, universities are unique in producing new knowledge (through research) that is then consolidated and distributed (through teaching). In the former phase, academia generates new forms of social advantage and privilege, while in the latter phase, it eliminates them. This creative destruction of social capital entitles universities to be called the original entrepreneurial organizations. However, universities have been neither produced nor maintained in a social vacuum. With the slow but steady decline of the welfare state, it is time to recover the university as one of the Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA original corporations, whose style of “privatization” is superior to the “trade fair” model that has dominated modern economic thought and today threatens the institution’s integrity. References Collins, R., 1998: The Sociology of Philosophies: A global theory of intellectual change. Cambridge: Harvard University Press Faundez, J., 1994: Affirmative Action: International perspectives. Geneva: International Labour Organization Fukuyama, F., 1992: The End of History and the Last Man. New York: Free Press Fuller, S., 2000a: The Governance of Science. Milton Keynes, U.K.: Open University Press Fuller, S., 2000b: Thomas Kuhn: A Philosophical History for Our Times. Chicago: University of Chicago Press Fuller, S., 2002a: Knowledge Management Foundations. Woburn, Mass: Butterworth-Heinemann Fuller, S., 2002b: The University: A social technology for producing universal knowledge. Technology in Society 25, pp. 217-234 Gibbons, M.; Limoges, C.; Nowotny, H.; Schwartzman, S.; Scott, P.; Trow, M., 1994: The New Production of Knowledge: The dynamics of science and research in contemporary societies. London: Sage Publications Gouldner, A., 1970: The Coming Crisis in Western Sociology. New York: Basic Books Grundmann, R.; Stehr, N., 2001: Why is Werner Sombart not part of the core of classical sociology? Journal of Classical Sociology 1, pp. 257-87 Hirsch, F., 1977: The Social Limits to Growth. London: Routledge and Kegan Paul Jacob, M.; Hellstrom, Th. (eds.), 2000: The Future of Knowledge Production in the Academy. Milton Keynes UK: Open University Press Kitch, E., 1980: The law and the economics of rights in valuable information. The Journal of Legal Studies 9, pp. 683-723 Krause, E., 1996: The Death of the Guilds: Professions, States, and the Advance of Capitalism. New Haven, Conn.: Yale University Press Lutz, M., 1999: Economics for the Common Good. London: Routledge Noble, D., 1991: The Classroom Arsenal. London: Falmer Press Olesko, K., 1993: Tacit Knowledge and School Formation. In: Geison, G.; Holmes, F. (eds.): Re- search Schools. Osiris, New Series, Volume 8, Chicago: University of Chicago Press, pp. 16-29 Price, C., 1993: Time, Discounting, and Value. Oxford: Blackwell Samuelson, P., 1969: Pure Theory of Public Expenditures and Taxation. In: Margolis, J.; Guitton, H. (eds.): Public Economics. London: Macmillan, pp. 98-123 Schumpeter, J., 1950 [1942]: Capitalism, Socialism, and Democracy. New York: Harper and Row Schumpeter, J., 1961 [1912]: The Theory of Economic Development. Chicago: Galaxy Books Stehr, N., 1994: Knowledge Societies. London: Sage Publications Stewart, Th., 1997: Intellectual Capital. London: Nicolas Brealey Contact Prof. Steve Fuller Department of Sociology University of Warwick Coventry CV4 7AL, United Kingdom Tel.: +44 - 24 76 / 523 - 940 Fax: +44 - 24 76 / 523 - 497 E-Mail: s.w.fuller@warwick.ac.uk Internet: http://www.warwick.ac.uk Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 « Seite 31 SCHWERPUNKTTHEMA Policing Science: Genetics, Nanotechnology, Robotics by William Leiss, McLaughlin Centre for Risk Assessment, University of Ottawa The paper opens with the question raised by Grundmann and Stehr, as to whether “knowledge policy” may include “the aim of limiting, directing into certain paths, or forbidding the application and further development of knowledge”. It then explores this theme with reference to contemporary developments in biotechnology and nanotechnology, where the objective of knowledge is to enable us to create and modify at will biological entities (including humans and combined species known as “chimeras”), as well as self-assembling mechanical entities, ab initio through recombinant DNA techniques. I argue that a new category of risks is created by the promised technological applications of these forms of knowledge, called “moral risks”, which threatens the ethical basis of human civilization; these are also “catastrophic risks”, in that their negative and evil aspects are virtually unlimited. The paper asks whether our institutional structures, including international conventions, are robust enough to be able to contain such risks within acceptable limits; or alternatively whether these risks themselves should be regarded as unacceptable, a position which would impel us to seek to forbid individuals and nations from acquiring and disseminating the knowledge upon which those technologies are based. 1 Introduction: “Eppur si muove” (“And yet it moves!”) At the conference “The Governance of Knowledge”, Essen, Germany, September 5-7, 2001, Reiner Grundmann and Nico Stehr presented the background paper “Policing Knowledge: A New Political Field” which poses “the question of social surveillance and regulation of knowledge”. They suggest that “knowledge policy” may include “the aim of limiting, directing into certain paths, or forbidding the application and further development of knowledge” (Stehr, Grundmann 2003; Stehr 2005). If scientific knowledge is included here, as I assume it is, this proposition will not be well received. One of the great founding faiths of modern society is that of the infinite benefits of the liberation of Seite 32 the natural sciences from the intellectual and institutional shackles of dogma, including religion; its inspirational image is that of Galileo before the Inquisition, forced to recant publicly his belief about earth’s movement in space, but unyielding in his mind and certain subjectively of his ultimate vindication.1 Anyone who seeks to challenge this faith is in for a rough ride. Are there forms of knowledge about nature (including a technological capacity to manipulate nature based on them), now envisioned as practical possibilities in foreseeable futures, of which it may be said that they are too dangerous for humanity to possess? Too dangerous, at least, in the hands of that radically imperfect humanity in and around us, including its all-toodelicate veneer of civilization, which now seems prepared to seek that knowledge? And if so, is it even conceivable that one could argue for their suppression on the grounds that, once realized they will inevitably be deployed, to ends so evil, running unhindered into the future, as to destroy the moral basis of civilization?2 I at least am not ready to answer these questions – although they are being raised by some in the academic community, especially with reference to biotechnology. An editorial earlier this year in New Scientist, commenting on the inadvertent laboratory creation of a virulent engineered virus which could be used as a weapon in biological warfare (see further discussion below), said: There’s also the problem that many biologists choose to ignore biotechnology’s threats…. John Steinbruner of the University of Maryland, College Park, has suggested setting up bodies to oversee areas of biological research. Such bodies could question or even stop research, or decide if results should be published. As Steinbruner is well aware, his proposal strikes at the heart of scientific openness and freedom. But leaving things as they are is not an option. Biotechnology is beginning to show an evil grin. Unless we wipe that smile from its face, we’ll live to regret it.3 Here I wish only to ruminate on specific themes with reference to a number of potentially catastrophic risks – risks having a dimension that calls into question the future of humanity itself – related to advances in contemporary scientific knowledge. I define “catastrophic risk” in this sense as the possibility of harms to humans and other Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA entities that call into question the future viability of existing animal species, including our own. Thus these are not only risks to the present generations of living animal species, but also to future (perhaps all future) generations of presently existing species. One well-known risk of this type is what has been called “nuclear winter”, the threat of a pervasive environmental catastrophe that could follow a large-scale exchange of nuclear weapons between the United States and the former Soviet Union (now Russia), under the doctrine of “mutually assured destruction.” The hypothesis of environmental catastrophe was based on the expectation that the earth’s atmosphere would become loaded with particulate matter, blocking much of the solar radiation reaching the earth’s surface, perhaps for a period of years (such an event is thought to have occurred following the impact of massive asteroids colliding with the earth).4 In addition, of course, the huge doses of radiation emitted by these exploding weapons would have profound genetic consequences for plants and animals. 2 The Lords of Creation Given the existing stockpiles of nuclear weapons, the risks associated with them still exist, although (in view of the political instability in Russia) it is difficult to know whether the probability now is greater or less than before. But new catastrophic risks are on the horizon, and these have a fundamentally different character that may require very different institutional responses from us. Their common characteristic, considered as basic and applied science and the technological applications made possible through them, is that they are all based on our latest understanding of biological systems through molecular biology. More specifically, their common scientific basis is the capacity to characterize complete genomes and to manipulate them by means of recombinant DNA techniques (or to create DNA-like mechanical structures). The ultimate goal, already envisioned and set as an objective for research, is a knowledge of genomics so complete that living entities (and life-like mechanical entities) could be constructed, or alternatively deconstructed and then rebuilt and varied, ab initio. According to an article published in Science in 1999, researchers working with a microbial parasite sought to characterize and develop “an organism with a minimal genome, the smallest set of genes that confers survival and reproduction”:5 But since each of the 300 genes found to be essential could have multiple functions (pleiotropism), investigators had no way of finding the degree of redundancy and whittling the genome down further. The next logical step: make a synthetic chromosome of just those genes to build a living cell from the ground up. Considered in their human implications, I regard these developments as giving rise to a new type of catastrophic risk, which I have called “moral risks”.6 Gradations of being (inorganic and organic matter, plants, insects, animals, humans) are and always have been a foundation-stone of humanity’s ethical and religious systems. More particularly, “self-consciousness” has been regarded as the essential and distinguishing mark of a human being, uniquely; yet as illustrated in the following section we have, apparently even among some senior scientists, an inclination to experiment with “crossing” these dimensions of existence in an almost casual mood. In my opinion very great evils await us in going down that road.7 3 A Short List of “Catastrophic Risks” 1. There are risks from the use of future bioengineered pathogens used as weapons or war or terrorism.8 A recent review in Nature listed the following possibilities:9 a) Transferring genes for antibiotic resistance (e.g., to anthrax or plague, as Russian scientists have done) or pathogenicity (the toxin in botulinin, which could be transferred to E. coli), or simply mixing various traits of different pathogens, all of which is said to be “child’s play” for molecular genetics today. b) Through “directed molecular evolution”, especially what is called “DNA shuffling”, producing “daughter genes” by shattering genes and then recombining gene fragments in ways that change the natural evolutionary pathways of bacteria. c) Creating “synthetic” pathogens, that is, “artificial” bacteria and viruses, by start- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 33 SCHWERPUNKTTHEMA ing with a synthesized “minimal genome” which was capable of self-replication (a kind of empty shell), to which “desired” traits could be added at will. d) Creating hybrids of related viral strains. These possibilities multiply as scientists begin publishing the complete DNA sequences of well-known pathogens: “… [G]enomics efforts in laboratories around the world will deliver the complete sequence of more than 70 major bacterial, fungal, and parasitic pathogens of humans, animals and plants in the next year or two….”10 Scientists working in these areas point out that actually getting engineered viruses and bacteria to survive in the environment, and to be maximally useful as weapons of war and terrorism, would not be easy to do; moreover, defenses against them can be constructed. What we are faced with the advances in molecular genetics, therefore, is an increase in the risks (possible harms) of novel agents being used in these ways for nefarious purposes. 2. There are related risks from accidental or unintended consequences of genomics research, especially from the genetic engineering of viruses and bacteria, which could result from the escape into the environment of virulent new organisms, irrespective of whether these organisms were intended originally for “beneficent” or “malevolent” purposes. There was a brief flurry of publicity earlier this year when Australian researchers announced that, in engineering the relatively harmless mousepox virus with a gene for the chemical interleukin 4, in an attempt to create a contraceptive vaccine for mice, they had accidentally made the virus exceptionally toxic: “The virus does not directly threaten humans. But splice the IL-4 gene into a human virus and you could create a potent weapon. Add the gene to a pig virus, say, and you could wreck a nation’s food supply”.11 3. There are risks to the “nature” of humans and other animals from intended or unintended consequences of genetic manipulations that either introduce reproducible changes into an existing genome (e.g., human or animal germ-line gene therapy), thus modifying existing species, or create en- Seite 34 tirely new variant species. For illustration here, I will confine myself to the example of “chimeras”, that is, combined entities made up of parts of the genome of two or more different species, including of course humans. Some molecular biologists apparently already have done casual experiments inserting human DNA into the eggs of other animals and growing the cell mass for a week or so; and there is much speculation as to what would happen if human and chimpanzee DNA were crossed, since chimps share over 98 % of human genes.12 4. The DNA of all species now on earth is composed of the same four chemical bases, abbreviated A, T, C, G, arranged into two pairs (A/T, C/G), that make up the “ladders” on the double helix of DNA; different combinations of the base-pairs specify one of 20 amino acids, which combine to form various proteins.13 Some scientists are experimenting with adding more chemicals that would act as new bases, so that, for example, there would be six rather than four bases and perhaps three base-pairs. One of the scientists doing this work is Peter Schultz: “Schultz often says living things have only 20 amino acids because God rested on the seventh day. ‘If He worked on Sunday,’ he said, ‘what would we look like?’”14 The self-comparison between Dr. Schultz and God is interesting, to say the least. 5. There have been widely-publicized discussions of certain unique risks to organic life, stemming from possibilities allegedly inherent in the development of robotics and nanotechnology, especially in a nowinfamous paper by Bill Joy (April 2000), Chief Scientist at Sun Microsystems and creator of the “Java” script. Joy wrote: The 21st-century technologies – genetics, nanotechnology, and robotics (GNR) – are so powerful that they can spawn whole new classes of accidents and abuses. Most dangerously, for the first time, these accidents and abuses are widely within the reach of individuals or small groups…. I think it is no exaggeration to say that we are on the cusp of the further perfection of extreme evil, an evil whose possibility spreads well beyond that which weapons of mass destruction bequeathed to the na- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA tion-states, on to a surprising and terrible empowerment of extreme individuals.15 The link between nanotechnology and biotechnology is fascinating: Although the former works with intrinsically inert materials, it is seeking to turn them into a perfect analogue of a biological (self-assembling) system. One of the leading Canadian scientists in this field, Dragon Petrovic, has explained the quest as follows: In the future, he predicts, technicians will teach individual molecules and atoms to assemble themselves into wires and sheets of impeccable purity and thinness…. [Imagine] instruments made of compounds that are self-assembled, atom by perfect atom – materials so pure that they could never snap apart or break under normal conditions…. “Imagine [Petrovic says] the linkage to telecom – can we get DNA molecules to self-assemble into perfect sheets and wires only an atom thick, and then send electrons and photons to stimulate the DNA to do things – start growing; stop growing; assemble into certain geometric shapes? It’s analogous to what a structure like bone does in nature, where the brain is the electronic device and the nervous system transmits the information”.16 Bill Joy’s essay already had explored the dark side possibly inherent in the quest for self-replicating nanotechnology machines; the internal quotation in the passage by Joy below is from a book by Eric Drexler, Engines of Creation:17 An immediate consequence of the Faustian bargain in obtaining the great power of nanotechnology is that we run a grave risk – the risk that we might destroy the biosphere on which all life depends. As Drexler explains: Tough omnivorous “bacteria” [created by nanotechnology] could outcompete real bacteria: They could spread like blowing pollen, replicate swiftly, and reduce the biosphere to dust in a matter of days…. Among the congnoscenti of nanotechnology, this threat has become known as the “gray goo problem”. The “gray goo problem” attracted so much attention that in England the Royal Society and the Royal Academy of Engineering commissioned a special expert report on it: “Nanoscience and nanotechnologies: Opportunities and Uncertainties” (July 2004). This report contained a special appendix on the “problem”, which, it suggested, represented a remote and dubious risk; but it also addressed some unique and quite relevant risks, associated with nanotechnologies, which will be a challenge for government regulatory regimes to come to grips with.18 One important point must be emphasized here, namely, that what has been just described are (hypothetical) catastrophic “downside risks”, that is, the potential for very great harms to be done through some future technologies that are already on the drawing-boards. For each of these developments there are both “upside benefits”, resulting from future applications of these technologies that could bring substantial benefits to us, as well as the potential for “protective” technological innovations that could mitigate, offset, reduce, or even eliminate at least some of the downside risks. To take the example of the engineering of viruses as bioweapons: As a counter to this threat (and also just to reduce the debilitating effects of viral infections on population health), research is under way in molecular genetics to develop new antiviral drugs that can block the infectious action of any viruses at the cellular level (preventing receptor binding, cell penetration, replication, production of viral proteins, and so on).19 Considered as a totality, however, what these conjoined prospects do is to continually “raise the stakes” in our technological game with nature, whereby the new sets of risks and benefits reflect both, and simultaneously, the potential for an upside of hitherto unattainable benefits and a downside of hitherto unimaginable horrors. As discussed in a later section, this entire prospect increases the challenge to our social institutions to manage our technological prowess so as to realize the benefits and avoid the harms, and likewise increases the risk that we will be unable to do so. 4 What is different today? There are undoubtedly other types of catastrophic risks, but those introduced above are sufficient for purposes of discussion! My main point is that these newer risks are fundamentally different in character from the case of nuclear win- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 35 SCHWERPUNKTTHEMA ter, and the difference has to do with the distribution of knowledge and technological capacity relevant to them (thus requiring a very different institutional response). The technologies giving rise to the nuclear winter risk are controlled by just two nation-states and are maintained (for the most part, and until now) under a thick blanket of military security and secrecy, although the smuggling of nuclear materials out of the former Soviet Union is cause for worry. Both the essential theoretical knowledge, and the engineering capacity needed to turn that into weapons, is confined to a relatively small circle of experts and officials. Not so with the new technologies. The catastrophic risk areas listed above stem from current research programs that are widely distributed around the world; moreover, the strongest drivers of them are private corporations, including the large pharmaceutical multi-nationals, acting with full encouragement, support, and incentives from national governments. Especially where the possible health benefits of genetic manipulations are concerned, the combined public-private interests are overwhelmingly supportive, driving the research ahead at an accelerating pace. Governments especially are enthralled with the economic significance of these new technologies, are competing with each other under innovation agendas to capture major shares of the corporate investments, and are loathe to stop and think about unintended consequences. All of the characteristics of the knowledge and applications in these areas mean that it is extremely difficult even to think about controlling either the process or the results. For one thing, the knowledge is widely distributed among individual scientists; for another, it is widely distributed among private actors (corporations) which have the option of moving their operations on a regular basis, seeking perhaps the least-regulatory-intensive national base on the globe. (Might we expect H. G. Wells’ The Island of Doctor Moreau to be replicated many times?20) Third, the technologies themselves become increasingly “simplified” and thus easier to hide, if necessary; the genetics technologies, for example, can be carried out in small laboratories almost anywhere. Sergei Popov, the Russian scientist who pioneered germ warfare research using recombinant DNA techniques, observed recently: “The whole technology be- Seite 36 comes more and more available. It becomes easier and easier to create new biological entities, and they could be quite dangerous”.21 Fourth, oversight is inhibited by the lure of truly extraordinary economic and health benefits promised by the new knowledge and technologies. And fifth, just the astonishing pace of innovation itself today makes the prospect of control and regulation a challenge. During the past year national governments have been scrambling to respond to just a few of the dimensions of these new risks. Most attention has been focused on human cloning, where a few rogue scientists have challenged authorities in various jurisdictions to “try to stop us”, and laws prohibiting this technology are being passed rapidly. But this is a relatively crude technology, albeit one which excites public attention, and one wonders whether authorities will become complacent about their ability to control unacceptable technologies due to their experience with this case. (Meanwhile, there are increasing reports that many genetics scientists are “going underground”, in the sense that they have stopped talking publicly about their research in progress for fear that public reactions will be hostile and will result in official steps to halt it.) Among the scientists cited in this paper, two (Bill Joy and Ian Ramshaw) have called for urgent action under the Biological and Toxic Weapons Convention (1975, hereafter BTWC), to provide explicitly for a global oversight effort over some of the new technologies and their applications described earlier. Unfortunately, and ironically in view of what was to happen only two months later, at a meeting of the parties in Australia in July 2001 the United States unexpectedly blocked the process of completing a protocol under the BTWC that would have made the Convention something other than a statement of good intentions, for in its present form it has no provisions for verification or compliance monitoring. The US government has been pressured by its biotechnology industry sector not to agree to a verification protocol, under which inspections of laboratories and other facilities by international teams of experts would be carried out in all the signatory countries, because industry fears that its intellectual property and commercial secrets could be compromised. At the time of writing other signato- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA ries were considering whether they should proceed to complete the adoption of the verification protocol without US support.22 Unfortunately, we know international negotiation to be at the best of times a tedious and protracted process, and there is reason to believe that in this domain it could be fractious and unsuccessful. This is because all of the technologies described represent frontiers of industrial innovation in which great multinational corporations and the national governments which protect their interests (especially the United States) have significant investments; both corporations and governments would be loathe to see those investments and the immense payoffs expected from them jeopardized by an international control regime. A recent article co-authored by a molecular geneticist and a specialist in the international convention on biological weapons has called for an urgent new effort to strengthen verification under the 1975 Convention and to enlist the biomedical research community in an effort to strengthen deterrence against the uses of bio-engineered organisms for war and terrorism.23 5 Conclusion Now is the time for intensive exploration of the theme of policing science and to ask the following types of questions: 1. Can we characterize a set of new catastrophic risks, as defined here, related to the leadingedge technologies that are being developed? 2. Do these new risks have an essential character that will make them difficult to control, because the knowledge and the technologies will be so widely diffused? 3. Can these risks be confined to acceptable dimensions by the institutional means now at our disposal, including international conventions on prohibitions? If not, what new tools do we need, and how can we get them? 4. Do professional associations of scientists working in these fields have special responsibilities to assist societies in controlling these risks, and if so, are those responsibilities now being discharged adequately?24 What is at risk in this game, now, is the possibility that the tension between science and society will become both unmanageable for institutions and unbearable for individuals, in other words, that the destructive applications of our operational power finally will overwhelm the rest. This possibility arises out of the striking contrast between the pace of change in social and legal institutions (especially international agreements), on the one hand, and in new scientific and technological breakthroughs in the sciences, especially in genomics, including applications relevant to biowarfare and bioterrorism on the other. In the first-mentioned the pace is painfully slow and progress often remains ineffective even after decades of negotiation, as in the case of the Convention on Biological and Toxic Weapons. The second proceeds at a frenetic and steadily-accelerating pace To reduce the probability that change in the second will overwhelm our social and legal capacity to steer technological development away from the zone of catastrophic risks, it is necessary first to get agreement among influential social actors that this is, as described here, a momentous challenge which contemporary society cannot avoid. The first practical test of our resolve in this regard, I believe, is whether influential scientists can be mobilized in the cause, scientists who will reaffirm the need for new oversight structures, to be erected both within the practice of science itself and also in the relation between science and society. Hegel made a remark, I believe, somewhere in his writings, to the effect that only the hand which inflicts a wound can heal it. The wound here is the rupture with the dominant pre-modern relation of humanity and nature, governed by value-laden categories of being, and its replacement by modern science’s purely operational orientation to the totality of the natural world. I will not speculate here on what a healing of that rupture could mean now, at least, not in any “ontological” sense. But in a practical sense, as a matter of public policy, I think it is clear what is required – namely, that the practitioners of science join others in a program to try to bring our operational powers under the control and direction of social institutions that have universal validity, ones that correspond in sufficient measure with the common aspirations of humanity. It is my contention that today’s dominant institutions do not have such validity and that, as a result, everyone on earth is at risk of having these powers become in- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 37 SCHWERPUNKTTHEMA struments in an Armageddon waged to the bitter end by contending social, ethnic, national, and religious interests. What remains to be seen is whether the task as defined here can be widely recognized and grasped as such, while there is still time, and whether our scientific enterprise can be steered towards the shelter of a social compact having universal validity.25 If it turns out that despite our best efforts this cannot be done, there will arise a set of other questions that, for now at least, are too abhorrent for many even to consider. These questions have to do with the possibility that, taking both “normal” human passions and human institutional failings into consideration, there may be forms of knowledge that, as a practical matter, are too dangerous for us to possess, and that our only choice is to renounce and suppress such knowledge or suffer the consequences. In mentioning them we go to the heart of the fateful compact between science and society that has set the course for the development of modern society from the seventeenth century onwards, under the program known as the domination of nature. It is likely that contemporary society is not ready to deal with them, at least, not yet. Notes 1) 2) 3) 4) Galileo Galilei (1564-1642): http://www.rit.edu/~flwstv/galileo.html There is a practical argument to the effect that, since the development and deployment of such knowledge cannot be thwarted, the most prudent course of action is to superintend its progress closely, so that technological antidotes to the potentially most frightful and destructive applications will be ready before they are needed. I regard this as a strong and possibly definitive counter-position to the one posed here in the series of rhetorical questions. New Scientist, 13 January 2001 (http://www.newscientist.com/editorial/_22731. html). On asteroid risk: http://impact.arc.nasa.gov/: “Statistically, the greatest danger is from an NEO [Near-Earth-Object] with about 1 million megatons energy (roughly 2 km in diameter). On average, one of these collides with the Earth once or twice per million years, producing a global catastrophe that would kill a substantial (but unknown) fraction of the Earth’s human population. Reduced to personal terms, Seite 38 this means that you have about one chance in 20,000 of dying as a result of a collision.” 5) The Scientist 14[1]: 12, Jan. 10, 2000 (http://www.the-scientist.com/yr2000/jan/ multiple_p12_000110.html) 6) “We encounter a state of moral risk when we pose certain options for ourselves, as goals which might be realized by using science to manipulate nature, that imply fundamental changes in the ‘order of being’ as it has been experienced by humans until now.” Leiss, In the Chamber of Risks, Chapter 11, “Into the Maze of Moral Risks”, p. 267. 7) See generally ibid., pp. 259-68, where Mary Shelley’s great novel, Frankenstein (1816), provides the basis for discussion. 8) The awareness on the part of US officials that the bioengineering of pathogens using recombinant DNA techniques could pose new bioterrorism and biowarfare risks goes back to the beginning of the 1980s: Miller et al., Germs, pp. 80-84. Under the leadership of Sergei Popov, Russian scientists at “Biopreparat”, the huge cover operation for the former Soviet Union’s biological warfare research program, began carrying out this type of recombinant research at about this same time, creating among other things a “superplague” germ by inserting the gene for diphtheria toxin into plague bacteria, as well as engineering viruses so that they would trigger catastrophic autoimmune responses in the victims. Popov and his associates were not only interested in making lethal products; their experiments included attempts to manipulate moods though alterations in brain chemistry. Ibid., pp. 300-304. 9) Dennis, “The Bugs of War”. 10) Fraser and Dando, “Genomics and future biological weapons: the need for preventive action by the biomedical community”, p. 2. 11) New Scientist, 13 January 2001 (http://www.newscientist.com/editorial/_22731. html). “Ian Ramshaw, a member of the Australian team, says [no one] could have foreseen that the altered virus would kill even vaccinated mice.” The researchers were so alarmed by what they had inadvertently done that they first notified the Ministry of National Defense, then waited two years before publicly announcing and publishing their experiment, simultaneously calling for modifications to the international convention on biological warfare to include devices of this type. The original story is in New Scientist, 10 January 2001 (http://www.newscientist.com/news/news.jsp?id =ns9999311) See also Miller et al., pp. 310-312. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA 12) Scott Foster, “Man-beast hybrid beyond talking stage,” The National Post (Toronto, Canada), 22 August 2001, p. A16. “Last October, Greenpeace Germany dug up a patent claim for a human-animal hybrid, … U.S.-based Biotransplant and Australia-based Stem Cell Sciences grew a pig-human embryo to 32 cells before ending its life”. 13) On DNA see the superb graphics and animation at: http://vector.cshl.org/dnaftb/ 14) Andrew Pollack, “Not Life as we know it,” The National Post (Toronto, Canada), 26 July 2001, p. A15 (reprinted from The New York Times). 15) Bill Joy, “Why the future doesn’t need us,” Wired Magazine (http://www.wired.com/ wired/archive/8.04joy_pr.html) 16) Allen Abel, “The God of Small Things,” Saturday Night Magazine (The National Post, Toronto, Canada), 21 & 28 July 2001, pp. 34-37. 17) Drexler, Engines of Creation, online in its entirety at: http://www.foresight.org/EOC/ 18) http://www.royalsoc.ac.uk/templates/search/ websearch.cfm?mainpage=/nanotec/ pressmedianov03.htm 19) Haseltine, “Genetic Traps for Viruses”; cf. Miller et al., pp. 305-307. 20) First published in 1896, this is the story of a rogue scientist who sets up a secret scientific research facility on a remote Pacific island in order to pursue vivisectionist experiments on animals and humans. The entire text is available at: http://www.bartleby.com/1001/0.html 21) Quoted in Miller et al., p. 304. 22) http://www.brad.ac.uk/acad/sbtwc/ See especially G. S. Pearson, M. R. Dando, and N. A. Sims, “The US rejection of the Composite Protocol: A huge mistake based on illogical assessments,” and G. S Pearson, “Why Biological Weapons present the Greatest Danger,” at: http://www.brad.ac.uk/acad/sbtwc/evaluation/ evalu22.pdf 23) Fraser and Dando, op. cit., p. 4. 24) The 1975 Asilomar Conference that established some early ground-rules for DNA research at the initiative of the scientific community itself, had a 25th-anniversary meeting in 2000. At least according to one report, some senior scientists today are doubtful that the “Asilomar model” will prove to be useful in the future for the oversight of problematic applications of DNA research, particularly because of the enormous pressure of commercial interest that has developed in the meantime. See The Scientist 14[7]: 15, 3 April 2000 (http://www.the-scientist.com/ yr2000/apr/russo_p15_000403.html) 25) There is not time here to develop this concept adequately. Here it must suffice to say that “universal validity” is not an absolute, in the sense that every person must “buy in,” but rather is some common orientation that can attract and hold the support of the most influential and enduring cultural traditions around the world. References Dennis, C., 2001: The Bugs of War. Nature 114 (17 May), pp. 232-5 Drexler, E.; 1986: Engines of Creation: The Coming Era of Nanotechnology. New York: Anchor Books Fraser, C.M.; Dando, M.R., 2001: Genomics and future biological weapons: the need for preventive action by the biomedical community. Nature Genetics, advance online publication, 22 October (http://nature.com.anthrax) Haseltine, W.A., 2001: Genetic Traps for Viruses. Scientific American, November, pp. 56-63 Leiss, W., 2001: In the Chamber of Risks: Understanding Risk Controversies. Montreal: McGillQueen’s University Press Miller, J.; Engelberg, St.; Broad, W., 2001: Germs: Biological Weapons and America’s Secret War. New York: Simon & Schuster Stehr, N., 2005: Knowledge Politics. Governing the Consequences of Science and Technology. Boulder, Colorado: Paradigm Publishers (forthcoming) Stehr, N.; Grundmann, R., 2003: Social control and knowledge in democratic societies. Science and Public Policy 30, pp. 183-188 The Royal Society, 2004: Nanoscience and nanotechnologies: Opportunities and Uncertainties. London (July) Contact Prof. William Leiss, PhD, Scientist McLaughlin Centre for Risk Assessment University of Ottawa 1 Stewart St., Room 311 Ottawa, ON K1N 6N5 Tel.: +1 - 613 - 562 - 58 00, - 21 16 Fax: +1 - 613 - 562 - 53 80 E-Mail: wleiss@uottawa.ca Internet: http://www.leiss.ca Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 « Seite 39 SCHWERPUNKTTHEMA Feedback Loops in the Politics of Knowledge Production by Troy Duster, New York University The current debates about the role of race in the biological sciences, clinical genetics, and the allied fields of practical applications (pharmacogenomics and forensics) have generated a considerable amount of friction and heat. Adversaries tend to line up on one side or the other of the argument about the legitimacy, or lack of it, of the category of race. This is an unfortunate binary trap, and can be avoided if we can step back and look at the feedback loops between social and biological categories in the production of knowledge. 1 Fluidity in the Scientific Status of the Concept of Race A consortium of leading scientists across the disciplines from biology to physical anthropology issued a “Revised UNESCO Statement on Race” in 1995 – a definitive declaration that summarizes eleven central issues, and concludes that in terms of “scientific” discourse, there is no such thing as a “race” that has any scientific utility: …the same scientific groups that developed the biological concept over the last century have now concluded that its use for characterizing human populations is so flawed that it is no longer a scientifically valid concept. In fact, the statement makes clear that the biological concept of race as applied to humans has no legitimate place in biological science (Katz 1995, p. 4, 5). Note that the statement is not only about the utility of the concept of race for biological science. Rather, it asks in its title, “Is race a legitimate concept for science?” and in the quotation above, states that the concept “is so flawed that it is no longer a scientifically valid concept.” For more than two centuries, the intermingling of scientific and common-sense thinking about race has produced remarkable trafficking back and forth between scientists and the laity, confusing for both laypersons and scientists about the salience of race as a stratifying practice (itself worthy of scientific investigation) versus race as a socially de-contextu- Seite 40 alized biologically accurate and meaningful taxonomy. The current decade is no exception. In the rush to purge common-sense thinking of groundless belief systems about the biological basis of racial classifications, the current leadership of scientific communities has overstated the simplicity of very complex interactive feedback loops between biology and culture and social stratification. I will demonstrate how and why “purging science of race” – where race and ethnic classifications are embedded in the routine collection and analysis of data (from oncology to epidemiology, from hematology to social anthropology, from genetics to sociology) – is neither practicable, possible, nor even desirable. Rather, our task should be to recognize, engage and clarify the complexity of the interaction between any taxonomies of race and biological, neurophysiological, social, and health outcomes. Whether or not race is a legitimate concept for scientific inquiry depends upon the designation of the unit of analysis of “race”, and will in turn be related to the purposes for which the concept is deployed. This may seem heretical at the outset, but may rescue an important role for examining the purpose of an investigation to legitimize the analytic utility of the concept of race. My strategy will be threefold. First, I will summarize an emerging clinical genetics problem from recent blood studies that is now forcing scientific medicine to reconsider the practical or efficacious meaning of race when it comes to blood transfusions. Second, I will turn to recent attempts to identify individuals from ethnic and racial populations through the use of the new technologies of molecular genetics. Here it is vital to note the emphasis upon the practical applications of these technologies, from their uses in forensics (the exclusion or probable identification of suspects in criminal investigations) to pharmacogenomics – a field that explicitly deploys the concept of “race” in the attempt to focus the delivery of pharmaceuticals to populations so designated, and does not bother to place quotation marks around the concept. Third, I will briefly point to the possible, even likely interaction between racial or ethnic identity, nutritional intake, and biochemical manifestation of disease states, most notably, cancer and heart disease. Finally, I will suggest a way to address and even re- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA solve the confusing and contradictory messages about “race” from the biological sciences and their applied satellites. I will conclude with some remarks about how anthropologists (and others working on aggregate data on selected populations designated by “race”) should try to advance our understanding of how “race” is always going to be a complex interplay of social and biological realities with ideology and myth. 2 Context and Content for Feedback Loops: Setting the Empirical Problem By the mid 1970s, it had become abundantly clear that there is more genetic variation within the most current common socially used categories of race than between these categories (Polednak 1989; Bittles and Roberts 1992; Chapman 1993; Shipman 1994). The consensus is a recent development. For example, in the early part of the twentieth century, scientists in several countries tried to link up a study of the major blood groups in the ABO system to racial and ethnic groups.1 They had learned that blood type B was more common in certain ethnic and racial groups – which some believed to be more inclined to criminality and mental illness (Gundel 1926; Schusterov 1927). They kept running up against a brick wall because there was nothing in the ABO system that could predict behavior. While that strategy ended a full half-century ago, there is a contemporary arena in which hematology, the study of blood, has had to resuscitate a concern with “race”. In the United States there has been an increasing awareness developed over the last two decades of the problem that blood from Americans of European ancestry (read mainly white) tends to contain a greater number of antigens than blood from Americans of African or Asian ancestry. This means that there is a greater chance for hemolytic reactions for blacks and Asians receiving blood from whites, but a lower risk for whites receiving blood from Asians or blacks. Here we come to a fascinating intersection between the biological and social sciences. In the United States, not only do whites comprise approximately 80 percent of the population, proportionally fewer blacks and fewer Asian Americans donate blood than do whites. This social fact has some biological consequences, which in turn have some social consequences. This provides a remarkably interesting intersection. While the full range of analysts, commentators, and scientists – from postmodern essayists to molecular geneticists to social anthropologists – have been busily pronouncing “the death of race”, for practical clinical purposes the concept is resurrected in the conflation of blood donation frequencies by “race”. I am not merely trying to resurrect “race” as a social construct (with no biological meaning) – no more than I am trying to resurrect “race” as a biological construct with no social meaning. Rather, I am arguing that when “race” is used as a stratifying practice (which can be apprehended empirically and systematically) there is often a reciprocal interplay of a biological outcome that makes it impossible to completely disentangle the biological from the social. While that may be obvious to some, it is completely alien to others, and some of those “others” are key players in current debates about the biology of race. In late September 1996, Tuskegee University hosted a conference on the Human Genome Project, with specific reference to the Project’s relevance to the subject of race (Smith and Sapp 1997). In attendance was Luca Cavalli-Sforza, a pre-eminent population geneticist from Stanford University and perhaps the leading figure behind the Human Genome Diversity Project.2 Cavalli-Sforza had appeared on the cover of Time magazine a few years earlier, as something of a hero to the forces that were attacking the genetic determinism in The Bell Curve.3 At this conference, he repeated what he had said in the Time article: “One important conclusion of population genetics is that races do not exist” (ibid., p. 53). If you take differences between two random individuals of the same population, they are about 85 % of the differences you would find if you take two individuals at random from the whole world. This means two things: (1) The differences between individuals are the bulk of the variation; (2) the differences among populations, races, continents are very small – the latter are only the rest, 15 %, about six times less than that between two random individuals of one perhaps very small population (85 %). Between you and your town grocer there is on average a variation which is almost Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 41 SCHWERPUNKTTHEMA as large as that between you and a random individual of the whole world. This person could be from Africa, China, or an Australian aborigine (ibid., p. 55). Cavalli-Sforza is speaking here as a population geneticist, and in that limited frame of what is important and different about us as humans, he may be empirically correct. But humans give meaning to differences. At a particular historical moment, to tell this to an Albanian in Kosovo, a Hutu among the Tutsi, to a Zulu among the Boers, or to a German Jew among the Nazis, may be as convincing, for the purposes of further action, as telling it to an audience of mainly African Americans at Tuskegee University.4 Indeed, David Botstein, speaking later in a keynote address, had this to say about the Bell Curve: So from a scientific point of view, this whole business of The Bell Curve, atrocious though the claims may be, is nonsense and is not to be taken seriously. People keep asking me why I do not rebut The Bell Curve. The answer is because it is so stupid that it is not rebuttable. You have to remember that the Nazis who exterminated most of my immediate family did that on a genetic basis, but it was false. Geneticists in Germany knew that it was false. The danger is not from the truth, the danger is from the falsehood. (ibid., p. 212) 3 The American Anthropological Association Statement on “Race” In May 1998, the American Anthropological Association issued its own statement on “race” (1998). It attempts to address the myths and misconceptions, and in so doing takes a “corrective” stance towards the folk beliefs about race. The statement strongly states the position that “physical variations in the human species have no meaning except the social ones that humans put on them”. But in casting “the problem” in this fashion, it gives the impression that the biological meanings that scientists attribute to race are biological facts, while the social meanings that laypersons give to race are first either errors or mere artificial social constructions, and second not themselves capable of feedback loops into the biochemical, neurophysiological, and cellular aspects of our bodies that, in turn, can be studied, scientifically. The statement of the Anthropological Associa- Seite 42 tion is consistent with that of the UNESCO statement on race. However, by formulating the matter so that it is “only the social meanings that humans provide” implies that mere lay notions of race provide a rationale for domination, but have no other utility. There is profound misunderstanding of the implications of a “social contructivist” notion of social phenomena. How humans identify themselves, whether in religious or ethnic or racial or aesthetic terms, influences their subsequent behavior. Places of worship are socially constructed with human variations of meaning and interpretation and use very much in mind. Whether a cathedral or mosque, a synagogue or Shinto temple, those “constructions” are no less “real” because one has accounted for and documented the social forces at play that resulted in such a wide variety of “socially constructed” places of worship. “Race” as social construction can and does have a substantial effect on how people behave. One important arena for further scientific exploration and investigation is the feedback between that behavior and the biological functioning of the body. It is now appropriate to restate the well-known social analytic aphorism of W.I. Thomas, but to refocus it on human taxonomies of other humans: If humans define situations as real, they can and often do have real biological and social consequences. 4 Explicating the Conflation of Crime, Genetics and Race If “race” is a concept with no scientific utility, what are we to make of a series of articles that have appeared in the scientific literature over the last seven years, looking for genetic markers of population groups that coincide with common-sense, lay renditions of ethnic and racial phenotypes? It is the forensic applications that have generated much of this interest. Devlin and Risch (1992a) published an article on “Ethnic differentiation at VNTR loci, with specific reference to forensic applications” – a research report that appeared prominently in the American Journal of Human Genetics. The presence of null alleles leads to a large excess of single-band phenotypes for blacks at D17S79…. This phenomenon is less important for the Caucasian and Hispanic popu- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA lations, which have fewer alleles with a small number of repeats (p. 540) …it appears that the FBI’s data base is representative of the Caucasian population. Results for the Hispanic ethnic groups, for the D17S79 locus, again suggest that the data bases are derived from nearly identical populations, when both similarities and expected biases are considered…. For the allele frequency distributions derived from the black population, there may be small differences in the populations from which the data bases are derived, as the expected bias is .05. (p. 546) The work of Devlin and Risch (1992a, 1992b), Evett et al. (1993, 1996) and others suggest that there are only about 10 percent of sites in the DNA that are “useful” for making distinctions. This means that at the other 90 percent of the sites, the allele frequencies do not vary between groups such as “Afro-Caribbean people in England” and “Scottish people in England”. But it does not follow that because we can not find a single site where allele frequency matches some phenotype that we are trying to identify (for forensic purposes, we should be reminded), that there are not several (four, six, seven) that will not be effective, for the purposes of aiding the FBI, Scotland yard, or the criminal justice systems around the globe in highly probabilistic statements about suspects, and the likely ethnic, racial, or cultural populations from which they can be identified – statistically. An article in the 8 July 1995 issue of the New Scientist entitled “Genes in black and white” details some extraordinary claims made about what it is possible to learn about socially defined categories of race from reviewing information gathered using new molecular genetic technology (Vines 1995): In 1993, a British forensic scientist published what is perhaps the first DNA test explicitly acknowledged to provide “intelligence information” along “ethnic” lines for “investigators of unsolved crimes”. Ian Evett, now at the Home Office’s forensic science laboratory in Birmingham, and his colleagues in the Metropolitan Police, claim that their DNA test can distinguish between “Caucasians” and “AfroCaribbeans” in nearly 85 percent of the cases…. Evett’s work, published in the Journal of Forensic Science Society, draws on apparent genetic differences in three sections of human DNA. Like most stretches of human DNA used for forensic typing, each of these three regions differs widely from person to person, irrespective of race. But by looking at all three, say the researchers, it is possible to estimate the probability that someone belongs to a particular racial group. The implications of this for determining, for legal purposes, who is and who is not “officially” a member of some racial or ethnic category are profound. Two years after the publication of the UNESCO statement purportedly burying the concept of “race” for the purposes of scientific inquiry and analysis, and during the same time period that the American Anthropological Association was deliberating and generating a parallel statement, an article appeared in the American Journal of Human Genetics, authored by Ian Evett and his associates, summarized thusly: Before the introduction of a four-locus multiplex short-tandem-repeat (STR) system into casework, an extensive series of tests were carried out to determine robust procedures for assessing the evidential value of a match between crime and suspect samples. Twelve databases were analyzed from the three main ethnic groups encountered in casework in the United Kingdom; Caucasians, Afro-Caribbeans, and Asians from the Indian subcontinent. Independence tests resulted in a number of significant results, and the impact that these might have on forensic casework was investigated. It is demonstrated that previously published methods provide a similar procedure for correcting allele frequencies – and that this leads to conservative casework estimates of evidential value. (Evett et al. 1996, p. 398) These new technologies have some not-sohidden potential to be used for a variety of forensic purposes in the development and “authentication” of typologies of human ethnicity and race. A contemporary update of an old idea of the idea of deciding upon “degree of whiteness” or “degree of nativeness” is possibly upon us, anew, with the aid of molecular genetics. Vines (1995) describes the Allotment Act of 1887, denying land rights to those native Americans who were “less than half-blood”. The U.S. government still requires American Indians to produce “Certificates with Degree of Indian Blood” in order to qualify for a number of entitlements, including being able to have one’s art so labeled. The Indian Arts and Crafts Act of 1990 made it Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 43 SCHWERPUNKTTHEMA a crime to identify oneself as a Native American when selling artwork without federal certification authorizing one to make the legitimate claim that one was, indeed, an authentic (“onequarter blood” even in 1990s) American Indian. As noted above, it is not art, but law and forensics that ultimately will impel the genetic technologies to be employed on behalf of attempts to identify who is “authentically” in one category or another. Geneticists in Ottawa, Canada have been trying to set up a system “to distinguish between ‘Caucasian Americans’ and ‘Native Americans’ on the basis of a variable DNA region used in DNA fingerprinting” (Vines 1995, p. 37). For practical purposes, the issue of the authentication of persons’ membership in a group (racial/ethnic/cultural) can be brought to the level of DNA analysis. The effectiveness of testing and screening for genetic disorders in risk populations that are ethnically and racially designated poses a related set of vexing concerns for the “separation” of the biological and cultural taxonomies of race. 5 Genetic Testing and Genetic Screening When social groupings with a strong endogamous tradition (such as ethnic or racial groups) intermarry for centuries, they are at higher risk for pairing recessive genes and passing on a genetic disorder. In the United States, the best knowns of these clustered autosomal recessive disorders are Tay-Sachs disease, beta-thalassemia, sickle-cell anemia, and cystic fibrosis. For Tay-Sachs, concentrated primarily among Ashkenazi Jews of northern and eastern European ancestry, about one in thirty is a carrier, and approximately one in every 3,000 newborns will have the disorder. For cystic fibrosis, about one in thirty Americans of European descent is a carrier, with a similar incidence rate. In contrast, approximately one in every 12 American blacks is a carrier for sickle-cell anemia and one in every 625 black newborns will have the disorder. Irish and northern Europeans are at greater risk for phenylketonuria. In the United States, one in 60 Caucasians is a carrier, and about one in every 12,000 newborn Caucasians is affected (Detailed information on the Incidence of Genetic Disorders can be found in Burhansstipanov et al. 1987, p. 6-7). Seite 44 When both parents are carriers of the autosomal recessive gene, the probability that each live birth will be affected by the disorder is 25 percent. However, being a carrier, or passing on the gene so that one’s offspring is also a carrier, typically poses no more of a health threat than carrying a recessive gene for a different eye color. That is, carrier status typically poses no health threat at all. The health rationale behind carrier screening is to inform prospective parents about their chances of having a child with a genetic disorder. In the United States, the two most widespread genetic screening programs for carriers have been for Jews of northern European descent (Tay-Sachs) and for Americans of western African descent (sickle-cell anemia). From 1972 to 1985, there was widespread prenatal screening for both disorders, and by 1988, newborn screening for sickle-cell anemia had become common (Duster 1990). It is the autosomal recessive disorders, located in risk populations that coincide with ethnicity and race, that are of special interest as we turn to address genetic screening for populations that are at greatest risk for a disorder. It is important to distinguish between a genetic screen and a genetic test. A genetic test is done when there is reason to believe that a particular individual is at high risk for having a genetic disorder, or for being a carrier of a gene (recessive) for a disorder. So for example, a sibling of someone who has been diagnosed with Huntington’s (a late-onset neurological disorder) would be a candidate for a genetic test for that disorder. A genetic screen, on the other hand, is used for a population that is at higher risk for a genetic disorder. Thus, with the risk figures cited above, Ashkenazi Jews were the subjects of genetic screening for Tay-Sachs. 6 The Interaction between Race as Identity, Nutrient Consumption, and Health The scientific literature on the rates of specific cancers in racially and ethnically designated populations is fairly well-developed. For example, Ashkenazic Jewish women are reported, clinically, to have higher rates of breast cancer than other groups. African-American men have almost double the rate of prostate cancer of white men in certain age groups, according to Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA reports released by the National Cancer Institute (Ries et al. 2002). How might this be explained, using race not simply as an “outcome” – but as a factor that helps produce the outcome? Consider the possibility that certain forms of cancer may be a function of nutrition and diet. Groups with certain dietary patterns or restrictions might then be systematically (i.e., apprehensive scientifically) at greater risk for cancer. If members of a certain group identify themselves as say, Ashkenazic Jewish, and then have a diet that follows certain patterns, they might well routinely have rates of certain groups of cancers, at both lower and higher risks than groups with different dietary habits. African American males, for example, may, by identifying as African Americans, be more likely to eat a category of food (“soul food”) that might systematically put them at higher risk for prostate cancer. With this formulation, I am “bringing the systematic study of race” back into the “scientific inquiry” – even though I am not going to the molecular level to attempt a reductionist account of “race as caused” at the level of the DNA. Here is where the computer revolution enters the story: Up until very recently, we could not do much with these random variations in the DNA, called single nucleotide polymorphisms – SNPs. However, with the new computers, we can now put the DNA of several clusters of people on computer chips, and see what might be patterns in their DNA (Hamadeh and Afshari 2000). It is now possible to do hundreds, even thousands of experiments in a few hours. This might prove to be a useful technology in the hunt for particular regions that might help explain some illnesses. For example, if we get a few hundred patients, all with prostate cancer – then look at their SNP profiles using this chip technology. Or perhaps with heart disease, a similar strategy. With these new SNPs on chips, we will come up with new taxonomies of people who share certain kinds of patterns in their DNA, and who suffer from the same illness Even with strong epidemiological evidence that heart disease and hypertension among African Americans is strongly associated with such social factors as poverty, there has been a persistent attempt to pursue the scientific study of hypertension through a link to the genetics of race. Dark pigmentation is indeed associated with hypertension in America. Michael Klag et al. (1991) reported the results of a carefully controled study looking at the relationship between skin color and high blood pressure. He and his colleagues found that darker skin color is a good predictor of hypertension among blacks of low socioeconomic status, but not for blacks of any shade who are “well employed or better educated”. The study further suggested that poor blacks with darker skin color experience greater hypertension “not for genetic reasons” but because darker skin color subjects them to greater discrimination, with consequently greater stress and psychological/medical consequences. Of course, from another way of looking at it, “darker skin color” is dark mainly for genetic reasons, so it is all a matter of how one chooses to direct theorizing about the location of causal arrows. When practicing physicians see “darker skin color,” their diagnostic interpretation and their therapeutic recommendations are systematically affected. Schulman et al. (1999) recently published some research indicating that in clinical practice, physicians are likely to make systematically different recommendations for treatment of heart disorders, by race, even when patients present the same symptoms. Thus, when there is an analysis of outcome data such as “cause of death” by race, and researchers find that blacks have a higher incidence of death from heart failure – it would be easy to make an incorrect inference about causation and direction of the relationship between the variables. By heading toward an unnecessarily binary, socially constructed fork in the road, by forcing ourselves to think that we must either choose between either “race as biological” (now out of favor) and “race as merely a social construction” we fall into an avoidable trap. A refurbished and updated insight from W. I. Thomas can help us. It is not an either/or proposition. Under some conditions, we need to conduct systematic investigation, guided by a body of theory, into the role of “race” (or ethnicity, or religion) as an organizing force in social relations, and as a stratifying practice (Oliver and Shapiro 1995). Under other conditions, we will need to conduct systematic investigation, guided by a body of theory, into the role of the interaction of “race” (or ethnicity, or religion) Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 45 SCHWERPUNKTTHEMA however flawed as a biologically discrete and coherent taxonomic system, with feedback loops into the biological functioning of the human body; or with medical practice. The latter studies might include examination of the systematic administration of higher doses of xrays to African Americans; the creation of genetic tests with high rates of sensitivity to some ethnic and racial groups, but low sensitivity to others; and the systematic treatment, or lack of it, with diagnostic and therapeutic interventions to “racialized” heart and cancer patients. It is not difficult to understand why they persisted. Humans are symbol-bearing creatures that give meaning to their experiences and to their symbolic worlds. The UNESCO statement is ultimately about the problem of the difference between first-order constructs in science, versus second-order constructs. Some fifty years ago, Felix Kaufmann ([1944] 1958) made a crucial distinction that throws some light on the controversy. Kaufmann was not addressing whether or not there can be a science of race. Rather, he noted that there are different kinds of issues, methodologies, and theories that are generated by what could be called “first-order constructs” in the physical and natural sciences versus “second-order constructs.” For the physical and natural sciences, the naming of objects for investigation and inquiry, for conceptualizing and finding empirical regularities, is in the hands of the scientists and their scientific peers. Thus, for example, the nomenclature for quarks or neurons, genes or chromosomes, nitrogen or sulfides, etc., all reside with the scientist in his/her role as the creator of first-order constructs. This is quite different from the task of the observer, analyst, or scientist of human social behavior. This is because humans live in a preinterpreted social world. They grow up, from infancy, in a world that has pre-assigned categories and names for those categories, which were in turn provided by fellow common-sense actors, not by “scientists” (Schutz 1973). Their continual task is to try to navigate, negotiate and make sense of that world. The task of the social scientist is therefore quite distinct from that of the natural scientist. While the latter can rely upon “first-order constructs”, the former must construct a set of categories based upon the preinterpreted world of common-sense actors. The Seite 46 central problem is that “race” is now, and has been since 1735,5 both a first- and second-order construct. The following joke, making the rounds among African-American intellectuals, makes the point with deft humor: ‘I have noted’, the joke laments, ‘that my research demonstrating that race is merely a social and ideological construction helps little in getting taxis to pick me up late at night’. This throws into a different light the matter of whether race can be studied scientifically. If we mean by that, is there a consensus among the natural scientists about race as a “first-order construct”, then the answer since about 1970 is categorically “no”. The UNESCO statement summarizes why this is so at every level that is significant to the biological functioning of the organism, with two exceptions. We have already noted that scientific research on first-order constructs about race as a biological category in science in the last four decades has revealed over and over again that there is greater genetic heterogeneity within versus between major racial groupings (Polednak 1989; Bittles and Roberts 1992; Chapman, 1993; Shipman 1994). One exception is that the gene frequencies, as demonstrated in the use of specific polymorphic markers, occur more frequently in certain populations than in others. But this distribution of gene frequencies, though occasionally overlapping with racial groupings, is definitively not only a racially defined issue. For example northern Europeans have greater concentrations of cystic fibrosis than southern Europeans, and both are categorized as “Caucasians”. Moreover, southern Europeans have higher rates of betathalassemia than northern Europeans – but even more to the point, sickle-cell anemia is found in greater concentration in Orchomenos, Greece, than among African Americans (Duster 1990). This is not a biologically racially defined matter (i.e., racial in the sense of first-order constructs). 7 Race and “Second-Order Constructs” Financially, the biggest difference between whites and African Americans today is their median net worth, which is overwhelmingly attributable to the value of equity in housing stock. In 1991, the median net worth of white households ($ 43,279) was more than 10 times that of the Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA median net worth of African-American households ($ 4,169, Bureau of the Census 1991). This is a truth that can be determined by the systematic collection of empirical data, and either replicated or refuted – which is to say that it can be investigated scientifically, without reference to blood groups, the relationship between genotype and phenotype, or the likelihood that one group is more likely to be at risk for cystic fibrosis while the other is more likely to be at risk for sickle-cell anemia. Here is why: In 1939, the Federal Housing Authority’s Underwriting Manual that provided the guides for granting housing loans explicitly used race as one of the most important criteria. The manual stated that loans should not be given to any family that might “disrupt the racial integrity” of a neighborhood. Indeed, the direct quote from Section 937 of the FHA manual went so far as to say that “If a neighborhood is to retain stability, it is necessary that properties shall be continued to be occupied by the same social and racial classes” (Massey and Denton 1993, p. 54). On this basis, for the next thirty years, whites were able to get housing loans at 3-5 percent, while Blacks were routinely denied such loans. For example, of 350,000 new homes built in Northern California between 1946 and 1960 with FHA support, fewer than 100 went to blacks. That same pattern holds for the whole state, and for the nation as well. To throw out the concept of race is to take the non-thinking alternative – the ostrich approach to race and ethnicity, pioneered and celebrated by the French government: “We don’t collect data on that topic. Therefore, it does not exist!”6 Or perhaps the legacy of Sapir and Whorf where language limits thinking is alive and well in the scientific study of race. Notes 1) For the discussion in this paragraph, and for the references to the German literature that are used here, I am indebted to William H. Schneider (1996). 2) The Human Genome Diversity Project is not to be confused with the Human Genome Project. The latter is a $ 3-billion effort, jointly funded in the United States by the National Institutes of Health and the Department of Energy. The goal is to map and sequence the entire human genome, and the major rationale for the project, from the outset approximately a decade ago, was to provide information that would assist medical genetics in de-coding, better understanding, and eventually, hopefully producing gene therapeutic interventions for genetic disorders. In contrast, the Human Genome Diversity Project has been concerned with tracing human populations through an evolutionary history of many centuries. Its goal was primarily to better understand human evolution (Committee on Human Genome Diversity 1997). 3) This was a popular book by Richard Herrnstein and Charles Murray (1994). 4) Tuskegee, after all, was the site of the infamous syphilis experiments on black males – where the Public Health Service of the U.S. Government had studied the racial effects of how the disease ravages the body of blacks in contrast to whites (Jones 1981). 5) This was the year that Linnaeus published System Naturae, in which he revealed a four-part classification scheme of the human races that has residues still today. 6) Perhaps an internally consistent emanation from a society that gave the world the Cartesian formulation about thought and existence – and subject/object dualities. References American Anthropological Association, 1998: American Anthropological Association statement on ‘race’. American Anthropologist 100(3), p. 712-13 Bittles, A.H.; Roberts, D.F. (eds.), 1992: Minority Populations: Genetics, Demography and Health. London: Macmillan Burhansstipanov, L., Giarratano, S.; Koser, K.; Mongoven, J., 1987: Prevention of Genetic and Birth Disorders. Sacramento: California State Department of Education, p. 6-7 Chapman, M. (ed.), 1993: Social and Biological Aspects of Ethnicity. New York: Oxford University Press Committee on Human Genome Diversity, 1997: Scientific and Medical Value of Research on Human Genetic Variation. In: Evaluating Human Genetic Diversity. National Research Council. Washington, D.C.: National Academy Press, p. 16-22 Devlin, B.; Risch, N., 1992a: Ethnic differentiation at VNTR loci, with specific reference to forensic applications. American Journal of Human Genetics 51, p. 534-48 Devlin, B.; Risch, N., 1992b: A note on the HardyWeinberg equilibrium of VNTR data by using the Federal Bureau of Investigation’s fixed-bin method. American Journal of Human Genetics 51, p. 549-53 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 47 SCHWERPUNKTTHEMA Duster, T., 1990: Backdoor to Eugenics. New York: Routledge Evett, I.W., 1993: Criminalistics: The future of expertise. Journal of the Forensic Science Society 33(3), p. 173-8 Evett, I.W., Gill, P.D.; Scranage, J.K.; Wier, B.S., 1996: Establishing the robustness of short-tandemrepeat statistics for forensic application. American Journal of Human Genetics 58, p. 398-407 Evett, I.W.; Buckleton, I.S.; Raymond, A.; Roberts, H., 1993: The evidential value of DNA profiles. Journal of the Forensic Science Society 33(4), p. 243-4 Gundel, M., 1926: Einige Beobachtungen bei der rassenbiologischen Durchforschung SchleswigHolsteins. Klinische Wochenschrift 5, p. 1186 Hamadeh, H.; Afshari, C.A., 2000: Gene chips and functional genomics. American Scientist 88(6), p. 508-15 Herrnstein, R.J.; Murray, C., 1994: The Bell Curve: Intelligence and class structure in American life. New York: The Free Press Jones, J.H., 1981: Bad Blood: The Tuskegee syphilis experiment: A tragedy of race and medicine. New York: The Free Press Katz, S.H., 1995: Is race a legitimate concept for science? The AAPA Revised Statement on Race: A Brief Analysis and Commentary, University of Pennsylvania, February Kaufmann, F., [1944] 1958: Methodology of the Social Sciences. New York: Humanities Press Klag, M.; Whelton, P.K.; Coresh, J.; Grim, C.E.; Kuller, L.H., 1991: The association of skin color with blood pressure in U.S. blacks with low socioeconomic status. Journal of the American Medical Association 265(5), p. 599-602 Massey, D.S.; Denton, N.A., 1993: American Apartheid: Segregation and the Making of the Underclass. Cambridge, MA: Harvard University Press Oliver, M.L.; Shapiro, Th.M., 1995: Black Wealth/ White Wealth: A new perspective on racial inequality. New York: Routledge Polednak, A.P., 1989: Racial and Ethnic Differences in Disease. New York, N.Y.: Oxford University Press Ries, L.A.G.; Eisner, M.P.; Kosary, C.L.; Hankey, B.F.; Miller, B.A.; Clegg, L.; Edwards, B.K. (eds.), 2002: SEER Cancer Statistics Review, 1973-1999, National Cancer Institute. Bethesda, MD. Table XXII-1 Schneider, W.H., 1996: The history of research on blood group genetics: Initial discovery and diffusion. History and Philosophy of the Life Sciences 18(3), p. 277-303 Seite 48 Schulman, K.A.; Berlin, J.A.; Harless, W.; Kenner, J.F.; Sistrunk, S.; Gersh, B.J.; Dube, R.; Taleghani, C.K.; Burke, J.E.; Williams, S.; Eisenberg, J.M.; Escarce, J.J., 1999: The effect of race and sex on physicians’ recommendations for cardiac catheterization. New England Journal of Medicine 34(8, February 25), p. 618-26 Schusterov, G.A., 1927: Isohaemoagglutinierenden Eigenschaften des menschlichen Blutes nach den Ergebnissen einer Untersuchung an Sträflingen des Reformatoriums (Arbeitshauses) zu Omsk. Moskovskii Meditsinksii Jurnal 1, p. 1-6 Schutz, A., 1973: Common Sense and Scientific Interpretation of Human Action. In: Collected Papers I: The Problem of Social Reality, edited and introduced by Maurice Natanson (The Hague: Martinus Nijhoff) Shipman, P., 1994: The Evolution of Racism: Human differences and the use and abuse of science. New York: Simon and Schuster Smith, E., Sapp, W. (eds.), 1997: Plain Talk About the Human Genome Project. Tuskegee, Ala: Tuskegee University Vines, G., 1995: Genes in black and white. New Scientist 147(8 July), p. 34-7 Contact Troy Duster, Director Institute for the History of the Production of Knowledge Professor of Sociology, New York University 285 Mercer Street, 10th Floor New York, NY 10003-6653, USA Tel.: +1 - 212 - 998 - 8882 Fax: +1 - 212 - 995 - 4904 E-Mail: troy.duster@nyu.edu « Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA Genetically Modified Foods and Consumer Mobilization in the UK by Javier Lezaun, London School of Economics In the late 1990s “the consumer” became the key constituency in the struggle over genetically modified foods in the United Kingdom. Consumers were represented and mobilized in a variety of strategies of commercialisation and opposition. This article traces one of the genealogies of this process: the effort of the British food industry to produce an accurate image of the consumer of biotechnology foods, and to enlist that image in a successful marketing strategy for GM products. A comprehensive labelling policy was seen as the key to addressing consumer demands and anxieties, but this strategy soon faltered, as companies abandoned the use of transgenic ingredients under pressure from anti-GM campaigners. The article draws attention to the particular epistemologies of the consumer that are produced in the course of disputes over new technologies, and interrogates the emphasis on information and choice as the fundamental elements of a proper “consumer understanding.” On 27 March 1999, four members of the “genetiX snowball” campaign walked calmly into a Tesco supermarket in London, and “confiscated” foods allegedly containing genetically modified ingredients. When the “snowballers” refused to pay for the foods they had seized – offering to exchange them for organic products instead – they were briefly arrested by the police. One of the activists stated the reason for their action as follows: “Tescos are breaking the law by selling food which is not proven to be safe and which is endangering other farmers’ crops in the production process through genetic pollution. I intend to carry on decontaminating supermarkets and I hope others will join in”.1 GenetiX snowball was a small group formed in the late 1990s by a small number of environmental activists with roots in the peace movement of the previous decade. It initiated its campaign against genetically modified organisms (GMOs) in the summer of 1998, with the uprooting of a few dozen plants at the Model Farm that the American biotechnology firm Monsanto owned in Watlington, Oxfordshire. That action resembled many others then taking place against genetically modified crops throughout Britain.2 The marked difference between this initial action of “non-violent civil responsibility” and the supermarket decontamination exercise in London less than a year later illustrates an important shift in the tactics of mobilization and protest against the release of transgenic organisms in the United Kingdom. What had begun as a campaign targeting experimental farms and test fields where GM crops were being introduced into the local environment, morphed into an effort to pressure food manufacturers and retailers to abandon the use of genetically modified ingredients and thereby affect the international political economy of agricultural biotechnology. The locus of resistance moved progressively from the country to the city, the farm to the supermarket, and the decontamination of fields to the confiscation of contaminated foods. The change, in the case of genetiX snowball, reflected an ongoing discussion of consumption- versus production-oriented tactics among its members. “So far, genetiX snowball has focused on the production end of GM food – the GM crops in our fields,” a member pointed out in a posting on the group’s website. “But is it really enough to keep the genetic peril from our own field whilst it is being imported from fields in other countries? We also need to pay attention to the consumer end of things – the GM products in our supermarkets”.3 Ultimately, the supermarket was chosen as the location where direct action could meet the international diffusion of genetically modified foods, and certainly the “consumer end of things” became in the late 1990s the central arena in the struggle over the new technology in the United Kingdom and the rest of Europe. If anything, the “snowballers” were rather late in joining a general trend away from traditional forms of environmental activism, and towards the mobilization of consumers at the point of purchase. Large environmental groups had decided to frame the issue primarily in terms of “consumer rights.” Friends of the Earth described the introduction of genetically modified foods in the United Kingdom as “a crime against Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 49 SCHWERPUNKTTHEMA consumer choice,” and initiated in 1998 their Supermarket Challenge campaign, while Greenpeace published the popular “supermarket shoppers’ guide” to help consumers avoid products containing GM ingredients, and routinely staged protests in front of retailers and manufacturers. Throughout 1998 and 1999 several British newspapers carried regular sections advising readers on how to avoid consuming GM foods, and offered purchasing tips in the style and format of other consumer information campaigns.4 The result of this multifaceted campaign was swift and extraordinarily successful. By the spring of 1999, all major UK supermarket chains and food manufacturers had made promises to eliminate genetically modified ingredients from their shelves and products. So effective were the “supermarket challenge” campaigns that, by the time the snowballers carried their decontamination action in London, only two food retail chains – Tesco and Safeway – were still refusing to phase out GM food and ingredients.5 The importance of the action of the four “snowballers” in the London supermarket lies less in its novelty or originality, and more in what it says about the trajectory of action of the British environmental movement in its opposition to genetically modified organisms. If a group so deeply embedded in the traditions and tactics of the ecology and peace movement could stage their “decontamination” actions in a supermarket, it was clear that the terrain of the struggle had changed decisively, and that “the consumer end of things” had indeed become the vital arena of action. 1 Tracing the genealogies of consumer mobilizations We must ask how the consumer emerged as the key constituency in the GM food debate, and what kind of consumer was mobilized in the disputes over food biotechnology. It is perhaps difficult to retrieve the problematic centrality of consumer rights and interests, now that “consumer choice” has become an incontrovertible axiom in the policy and politics of genetically modified organisms. The right of consumers to choose is a political truism – the kind of unassailable cliché that fills the speeches of government officials, corporate CEOs and activists alike. However, we need to recuperate some of Seite 50 the strangeness that this idea should evoke, and to trace its particular genealogy in the debates over GM foods. Not that long ago, Raymond Williams found the very idea of “consumer choice” paradoxical. It was a “curious phrase,” he argued, because historically the term ‘consumer’ is a product of the age of mass production and of increased corporate control over the market. Contrary to the traditional concept of ‘customer,’ which used to denote a personalized and regular relationship between a buyer and a seller, the ‘consumer’ was by definition an abstract actor, who operated in an abstract market over whose internal functioning he had very little knowledge or control. “Consumer choice” is in this sense a paradoxical slogan, for it brings together elements that are historically divergent. The emergence of the notion of “the consumer” went hand in hand with the individual’s loss of actual control over market forces and exchanges (Williams [1976] 1983, p. 78-9). I use the term “consumer mobilization” to describe the process of developing a particular image of “the consumer” and inserting it into the strategies of market actors. I borrow the expression from Miller and Rose’s study of psychological knowledge in the advertisement industry of the 1950s. Mobilization is a process of producing knowledge about and making statements on behalf of a certain public, thereby linking it to other actors’ strategies. This is, Miller and Rose argue, “less a matter of dominating or manipulating consumers than of ‘mobilizing’ them by forming connections between human passions, hopes and anxieties, and very specific features of goods enmeshed in particular consumption practices” (Miller, Rose 1997, pp. 1-36). If the actor entitled to “consumer choice” is construed as an abstract entity, and positioned vis-à-vis abstracted market forces, the process of “consumer mobilization” is a concrete practice of inserting particular understandings of consumer motivation and behaviour into market strategies. The following sections will address one example of such mobilization. Rather than focusing on the tactics of “consumer power” used by the “snowballers” and others to oppose the introduction of GM foods, I would like to consider the other side of the coin: the articulation and enlistment of a particular understanding of the consumer in the marketing strategies Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA of the British food industry. This genealogy of consumer mobilization has been relatively neglected, which is surprising given that the food industry tried to develop an operational view of the consumer of GM foods even before biotechnology became a “public issue” in the late 1990s. The industry deployed for this purpose a variety of consumer research tools – surveys, focus groups, and “stakeholder consultations” – to develop a coherent commercialization strategy for GM foods. The purpose was to find the “path of least resistance” to the British consumer, to preempt as far as possible a damaging public controversy, and to articulate a “food chain” approach, or a single industry strategy towards the marketing of GM foods. As demonstrated below, the image of the consumer that the industry developed is not radically different from the constituency that would later be mobilized by the likes of Greenpeace and Friends of the Earth. In both cases the discourses centered on the right of consumers to know, and the responsibility of companies to provide them with informed choice. Yet, while the industry hoped that these principles would allay consumer fears and gain acceptance for the new technology, in the hands of activists they became the battle cry of an increasingly unruly constituency. 2 Producing “Consumer Understanding” for the Food Industry It would be easy to infer from the industry’s rapid retreat in the face of the anti-GMO mobilization that the arrival of GM foods, and the responses generated in the British public, took the industry unprepared. Nothing could be farther from the truth. From the early 1990s streneous efforts had been made by the industry to predict the likely consumer response to food biotechnology, and to develop a coherent strategy of commercialization for the food sector as a whole. The possibility of serious consumer opposition to GM foods was always present in the minds of leading industry executives, who had experienced, throughout the 1990s, a series of “food safety scares” culminating in the BSE crisis in 1996. Drawing from these experiences, the industry tried to find the antidote to a crisis of consumer confidence and to plan well ahead of the arrival of GM products into the British market. Two elements were central to this planning: a process of consultation among key companies, and a program of consumer research designed to map out the anxieties, fears and desires of the future consumer of GM foods. Both elements were centralized at the Institute of Grocery Distribution (IGD), the research arm of the largest UK retailers and manufacturers. It was the IGD Policy Issues Council who, in 1994, began to address the issue of food biotechnology and created a Biotechnology Advisory Working Group encompassing the largest retailers, key international manufacturers (i.e. Unilever, Nestlé), a British biotechnology company (Zeneca), and interested stakeholders (i.e. the National Farmers Union, the Consumers’ Union). The goal was to develop an understanding of “consumer attitudes and consumer requirements” which would help identify both a “strategy for the introduction of products of biotechnology in order of consumer acceptance,” and the “retailers and manufacturers with the customer profile most likely to accept the new technology” (Brown 1994, p. 72). At the time, the view put forward by IGD consumer researchers was already dominated by the perception that “consumer confidence in the food industry has been rocked,” and that consumers were proving to be “far more aware and less trusting of developments in food production” than the industry had thought (ibid., p.v.). Given the general lack of trust, and a concern with avoiding the mistakes of the recent past, the industry focused on accurately anticipating and addressing the possible consumer pitfalls of GM foods: We have learnt from our experience with food irradiation that consumers will not accept new technology without sufficient information and time to evaluate the new technology. In order to meet consumer requirements for information on biotechnology and to ensure that food products of biotechnology are introduced appropriately it is essential to fully understand consumer awareness, understanding and acceptance of biotechnology (ibid., p. 33). On the basis of these preliminary views, the Working Group issued its first public statement on biotechnology in October of 1995. The dec- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 51 SCHWERPUNKTTHEMA laration did not include specific commitments, but it did introduce some key terms that would dominate the industry’s discourse throughout the 1990s: As an industry we are committed to a policy of openness and facilitating understanding as a means of addressing any concerns about the new technology. We believe that the provision of information is essential to enable customers to make an informed choice about food products. The industry will endeavour to make information available in the most effective manner to give an objective and balanced view of genetic modification (IGD/PIC Biotechnology Advisory Working Group, October 1995). Terms like “openness” (or later, “transparency”), “understanding,” and, more crucially, “informed choice” would dominate future public statements on food biotechnology. Labeling, though not explicitly mentioned in the statement, was the central issue under discussion. The absence of a clear position on this issue was indicative of the uncertainty about the position of North American producers of agricultural commodities on the segregation of GM crops, and of the divisions that this uncertainty generated among different sectors of the food industry. Supermarkets were keen to make a comprehensive commitment to labeling, but the large manufacturers were skeptical of its feasibility. The main opposition to labeling, however, came from companies and sectors not represented in the IGD working group – biotechnology firms selling transgenic seeds to North American farmers, and international providers of raw materials and food and feed ingredients. Partly to bridge the differences within the industry, the IGD initiated its consumer research program. Between 1994 and 1997 this generated an increasingly consistent image of consumer attitudes and behavior, particularly on consumers’ opinions on labeling. According to the reports of the IGD, consumer attitudes to GM foods were characterized by a low level of awareness of the issues at hand, combined with a very strong desire for adequate “information.” The consumers interviewed in the focus groups seemed fundamentally ambivalent about the risks and benefits of the new technology, but decisive and demanding as far as their right Seite 52 to proper information was concerned. “There was,” an IGD report points out, “little unprompted mention of the process and when asked about genetic modification the participants expressed no knowledge.” Yet, as soon as the researchers provided “a simple explanation of the technology,” the participants in the focus groups began to express tangible views on the issue. On the crucial issue of labeling, the IGD’s research subjects offered a clear heuristic of labeling and trust: Product labelling was seen as an essential route to providing information. (…) If information was not made available consumers would presume that the industry had something to hide. On the other hand, if industry was perceived to be open and honest about genetic modification, this conveyed industry confidence in the technology and this would be conveyed to the consumer (Sadler, 2000, p. 147).6 On the basis of this interpretation, the IGD began to formulate a more precise position, specifying the kinds of information that would satisfy the consumers’ demands. Of all the products containing or consisting of GMOs, which ones should be labeled, and how? The evidence produced in the focus groups suggested that “the important issue for consumers would be the presence of modified genetic material, a novel entity that would be perceived to present a potential risk…. Consumers would be unable to differentiate between genetic material that is viable (intact; active) and non-viable (degraded through processing; inactive)” (Sadler 2000, p. 45). This suggested a labeling regime based on the ability of the food provider to know whether transgenic material had at any point been involved in the manufacture of the product. The consumers represented by the IGD thought that “product labeling is independent of the concentration or format of GM ingredients; if the company knows an ingredient from a GM crop is present, however small, then the product should be labeled” (ibid., p. 180). It was at this time, a couple of years into the launch of the IGD Biotechnology Initiative, that the food industry achieved its first, and groundbreaking success in the commercialization of GM foods, a success that helped solidify the emerging views on the link between labels and consumer acceptance. The product in question was a tomato purée derived from a Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA genetically modified tomato developed by the British firm Zeneca. In 1996, two supermarket chains – Sainbury’s and Safeway – agreed to commercialize cans of the tomato purée under their own labels. The cans, sold at a comparatively cheaper price than conventional alternatives, were clearly labeled as “produced from genetically modified tomato.” Following the premise that “the more publicity the better,” the launch included an intense media campaign (see Harvey 1999).7 Sainsbury’s and Safeway sold 1.6 million cans of the genetically modified tomato purée. It is now easy to forget that the first experience of the British food industry with a GM product was, by their own standards, highly successful. Consumers seemed perfectly happy to purchase a genetically modified food, provided it offered some direct benefit (in this case, a better price) and was clearly labeled. To many in the food industry, this represented the validation of a theory of consumer behavior that linked the acceptance of food biotechnology to the provision of clear and unambiguous labels and information. Nigel Poole, who was then group manager for external and regulatory affairs at Zeneca, emphasized the exemplarity of the tomato purée case in testimony to the House of Lords. “Listening” to social concerns and providing consumers with “choice,” he argued, were the key to the successful marketing of a GM product: You need many other things to come together, not just to bring the product out but to make a commercial success. The stakeholders are an essential part of that. When we started the launch of the tomatoes we communicated – and, I want to emphasize, we listened to – many different parts of society from the media to civil servants, to Members of Parliament, Lords, members of the European Parliament, local people and consumers. We tried our best to build their thinking and their thoughts into the way we behaved. When we came forward we thought this would be the first such product in Europe. It is easy for us: it is our culture, but we wanted to make sure that there was choice. That was never a question. The reason we labelled our tomato puree was not for safety reasons at all. It was simply because we wanted to give information to the consumer.8 Soon after the launch of the tomato purée, the IGD Policy Issues Council issued in March 1997 its final recommendations on the labeling of genetically modified products. Ross Buckland, then president of the IGD, urged the food industry to adopt the regulations in order to “demonstrate a positive commitment to consumer understanding and choice”.9 “As we have seen with food irradiation,” the guidelines document reminded its readers, “new technologies are not always readily accepted by consumer. The provision of freely available, objective information and, where practicable, informed choice are key to the successes of these products” (IGD 1997, p. 18). To meet the demand for information, the guidelines proposed labeling criteria that were stricter and more inclusive than the rules of the European Novel Foods Regulation. They called for the labeling of any foods “known to contain modified genetic material, whether active or not” (ibid. pp. 7-19),10 which, for the first time, made labeling independent of whether the new products were substantially different from their conventional counterparts. The IGD recommended labelig even of foods where the modified DNA or protein was no longer “intact,” on the basis, once again, of the consumer’s alleged inability to appreciate the distinction between different types or degrees of modification. The inclusiveness of these labeling criteria corresponded to a very particular understanding of the relationship between consumer confidence and the inscription of information in food products. In the thinking of the IGD, labeling was first and foremost a marketing instrument. Labels were expected to provide consumers with choice, but also to generate a familiarity with products that might otherwise generate suspicion. Rather than a warning sign, the industry hoped, labels could be a way of earning the confidence of the public. “When purchasing products for consumption at home,” Michele Sadler, consumer preferences manager at the IGD argued, “consumers wanted products to be labelled as this conferred that the food producers had nothing to hide about use of biotechnology” (Sadler 1998, pp: 306-309). This position resonated with the corporate philosophy of several major players in the UK food industry, particularly retailers trying to build a brand identity around their ability to “listen to the consumer.” Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 53 SCHWERPUNKTTHEMA Enshrining consumer choice as the key to success was appealing to retailers and other industry sectors who, at this stage, had no direct investment in the success biotechnology, and who would very likely be able to shift the technical burdens and labeling to their suppliers. 3 Market Failure It is well known how the story developed after this. Soon after the food industry announced the new labeling guidelines, what had been a planned concerted strategy towards the managed introduction of GM foods turned, under increasing consumer pressure, into a series of individual and uncoordinated avoidance actions, as company after company tried to limit the impact of the controversy on their brands by promising to eliminate GM ingredients from their products. By the spring of 1999 the GMO issue had become, according to the industry’s own polls, the main “food safety concern” of British consumers, surpassing pesticides, food poisoning, or even BSE. Supermarkets began to offer “GMO-free” products, thereby violating the IGD guidelines, which had urged that “under no circumstances should negative claims, such as ‘free from genetically modified [ingredient]’ or ‘contains no genetically modified [ingredient],’ be used.” Iceland, a mediumsize retailer that had not participated in the IGD initiative, was the first to publicize its products as “containing no GMOs,” but very soon all the major supermarket chains, as well as the largest food manufacturers, announced similar policies of avoidance. By the spring of 1999, following the decision of Tesco and Unilever to cave in to the anti-GM campaign, The Independent of London could publish a triumphant paeon to the power of consumer mobilization: What a good week this has been for those who believe in the power of the consumer. Nothing, we had been told, was to stand in the way of the progress that was genetically modified food; only Luddites and hysterics, we were led to understand, had doubts about health implications; why wait for further testing, said those who know better, when the technology was available now? The consumers didn’t accept any of this, and made it clear that they wanted more information before buying new foods. One by one the supermarkets, which had started selling geneti- Seite 54 cally modified products without so much as a blush, began to change their tune.11 Despite streneous attempts to anticipate the reactions and anxieties of the virtual consumer of GM foods, the particular form that consumer mobilization took in the late 1990s seemed to take the IGD by surprise. Suddently, the consumer appeared as an unruly constituency. Several culprits for the failure of the industry’s consumer management efforts were readily at hand. The media was blamed for its sensationalistic coverage of the GMO issue, which replaced the consumer’s legitimate demand for “meaningful” information with irrational fear. On the other hand, the introduction of unsegregated transgenic soybeans and maize from North America had made the labeling recommendations largely unfeasible. Since companies had no way of knowing whether the ingredients of their products were conventional or modified, but had reason to assume that a majority of their products would contain at the very least traces of trasgenic organisms, the strict application of the IGD guidelines would lead to the labeling of all food products. The culprit in this case was also easy to identify: the American company Monsanto, which had failed to heed the warning of the British food industry and had refused to segregate genetically modified crops from conventional commodity streams. The uncontrolled introduction of Monsanto’s soybeans violated all the axioms of the IGD’s understanding of a successful commercialization strategy, which rested on careful management and piecemeal introduction of products. As an IGD review of the events of the late 1990s argued: The inclusion of a GM soya variety in the commodity stream was in contrast to the UK industry’s desired approach to introducing GM products. GM soya had no direct consumer benefit, and without segregation, consumers would not easily be able to exercise choice. With soya ingredients used in an estimated 60% of processed foods, the possible presence of GM soya ingredients in a wide range of products would give consumers the impression of a very fast introduction of the technology (Sadler 2000, p. 27). Many things have changed since 1999, when most food companies decided to avoid transgenic ingredients in their products. New European regulations have strengthened the labeling Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA requirements for GM foods, and some new transgenic organisms have been authorized for commercialization. Theoretically, then, the food industry could proceed with the marketing of GM foods. Yet, no company seems willing to attach the stigma of a GM label to its products. One could expect that the market failure of GM foods in the UK would lead to a reexamination of the model of consumer behavior that the British food industry applied in their commercialization strategy of the mid-1990s. The model put forward by the IGD and adopted by the food industry was predicated on the existence of an “epistemic” consumer, an actor whose competencies and behavior are defined in terms of “understanding” the issues – or, more frequently, not understanding them – and whose fundamental demand, precisely because he does not understand, is an abstract “right to know,” to be satisfied through product labeling. There are signs that this peculiar epistemology of consumer behavior has lost some of its appeal, and future controversies over new technologies will probably see the mobilization of a different sort of consumer. An IGD report published after the onslaught of anti-GM consumer boycotts already insinuated that perhaps what really concerned consumers might not be information and the provision of choice between products, but rather a “lack of control” over the introduction of new technologies (Sadler 2000, p. 81).12 An inkling that suggests a form of consumer mobilization less focused on the epistemology of shopping behavior and more attentive to the politics of technology development and control; an understanding of consumers that centers less on the choice between products and more on the legitimization of processes of technological innovation. Notes 1) Genetix Snowball, Press Release, 27 March 1999 2) For an analysis of this form of action, see Iain A. Boal, 2001, pp. 155-185 3) GenetiX snowball, “The principles for supermarket decontamination.” At http://www.gn.apc.org/ pmhp/gs/shopping.htm, retrieved 20 August 2001. 4) Several “consumer guides” appeared in the late 1990s, among them Sue Dibb and Tim Lobstein, GM Free: A Shopper’s Guide To Genetically Modified Food (Virgin Publishing, 1999) and Joanna Blythman, How To Avoid GM Food (Fourth State Limited, 1999). The emphasis on responsible consumption resonates with a long tradition of “green consumerism” among British environmentalists. In the landmark Consumers’ Guide to the Protection of the Environment, published in 1971 by Friends of the Earth, Jonathan Holliman argued that “the conversion to a life style more related to the ability of the Earth to supply our needs must start by the consumer regaining the political power of the individual to have real choice in the market place.” Green consumer guides, the predecessors of the bestselling anti-GM guides of the late 1990s, were extremely successful in the late 1980s. Some have argued that green consumerism was a “compromised response” to the status quo Thatcherism, a sort of hybrid between environmental activism and the free-market ideology that dominated British policy and politics in the 1980s and 1990s. In this view, the reliance on “consumer power” would be a result of the difficulty of shaping the policy process through the institutions of political representation. The role of the state, as a target and potential ally of environmental activism, became secondary, shifting the emphasis to the ability of individual citizens to affect changes in the marketplace in their capacity as consumers. For an extended interpretation of the British case, see Mike Robinson, The Greening of British Party Politics (Manchester: Manchester University Press, 1992). 5) And both retailers changed their position shortly, under increasing competitive pressure from rivals that had already made commitments to “GM-free” foods. 6) Sadler’s report provides a summary of the work of the IGD consumer researchers on the acceptability of GM foods throughout the 1990s. The consumers’ position on labeling was sometimes independent of their concrete attitude towards bioengineered foods. “A few consumers said,” the IGD report quoted above pointed out, “that their decisions on labeling were not necessarily driven by what they wanted, but what they felt was right for other consumers who might be concerned about genetic modification.” (p. 174) Consumers were providing opinions on the right to know whether a food product had been genetically modified, rather than on the issue of genetic modification per se, and their demand for labeling could be interpreted as a declaration of the rights of consumers, rather than a show of mistrust in the technology. 7) As had been the case with the commercialization of the FlavrSavr tomato in the United States, biotechnology and food industry execu- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 55 SCHWERPUNKTTHEMA tives thought at the time (1996) that a highpublic profile could only help the prospects of the new products. According to the industry’s own data, about 22 million viewers received information about the new product through television commercials and news reports. Martineau provides a first-hand account of the regulatory and public relations disputes involved in the FlavrSavr case (cf. Martineau). 8) Dr Nigel J. Poole, Testimony before the House of Lords, Select Committee on the European Communities, 3 June 1998. 9) Ross Buckland, Chief Executive of Unigate PLC, Chairman of the Policy Issues Council and IGD President, Foreword to the Institute of Grocery Distribution, Labelling and Communication Guidelines (Wartford: Institute of Grocery Distribution, March 1997). 10) Institute of Grocery Distribution, Labelling and Communication Guidelines, p. 7. In this, as in other cases, the IGD justified their conclusions by reference to the insights generated by the consumer research program. On the issue of labeling active versus inactive modified genetic material, the IGD argued that “our discussions with consumers on this subject demonstrated that they were unable to distinguish between active and inactive (as a result of processing) genetic material” (p. 5). 11) The Independent on Sunday, 21 March 1999. 12) This is, of course, not a particularly innovative idea. It was already present in the early reports of IGD researchers, although there it was expressed as a concern over the timing of technological innovation (i.e. the speed with which GM foods would be introduced). The importance of control was also strongly argued in a report commissioned by Unilever and published simultaneously with the IGD labeling guidelines. In Uncertain World, Robin Grove-White Phil Macnaghten, Sue Mayer and Brian Wynne cautioned that “reliance on labels as a political response to concerns about the wider cumulative implications of biotechnology for society, reduces inherently general issues to matters of atomised consumer ‘decision’ at the point of sale.” See Uncertain World: Genetically Modified Organisms, Food and Public Attitudes in Britain (Centre for the Study of Environmental Change, Lancaster University, March 1997). Similar arguments are being made at the moment about the introduction of nanotechnology in the UK, and the need to incorporate the concerns of citizens and consumers earlier in the research and development process. See for instance James Wilsdon and Rebecca Willis, See- Seite 56 through Science: Why Public Engagement Needs to Move Upstream (Demos, 2004). References Boal, I.A., 2001: Damaging Crops: Sabotage, Social Memory, and the New Genetic Enclosures. In Lee Peluso, N.; Watts, M. (eds.): Violent Environments. Ithaca: Cornell University Press, pp. 155-185 Brown, C.M., 1994: Consumer Attitudes In Agriculture and Food: A Critical Review. Watford: The Institute of Grocery Distribution Harvey, M., 1999: Genetic Modification as a BioSocio-Economic Process: One Case of Tomato Puree. CRIC Discussion Paper No. 31, University of Manchester IGD – Institute of Grocery Distribution, 1997: Labelling and Communication Guidelines. Wartford: Institute of Grocery Distribution Martineau, B., 2001: First Fruit: The Creation of the Flavr Savr Tomato and the Birth of Biotech Foods. New York: McGraw-Hill Miller, P.; Rose, N., 1997: Mobilizing the Consumer: Assembling the Subject of Consumption. Theory, Culture & Society, 14(1), pp. 1-36 Sadler, M., 1998: Labelling genetically modified soya and maize in the EU. Nutrition & Food Science 6 (1998), pp. 306-309 Sadler, M., 2000: GM Foods: Past, Present, Future? Industry’s Approach, Consumer Attitudes, Expectations for the future. Watford: Institute of Grocery Distribution, p. 147 Williams, R., 1983[1976]: Keywords: A vocabulary of culture and society. New York: Oxford University Press, p. 78-9 Contact Dr Javier Lezaun ESRC Research Officer Centre for Analysis of Risk and Regulation (CARR) London School of Economics and Political Science Houghton Street, London, WC2A 2AE, UK Tel.: +44 (0) 20 - 7955 - 78 38 Fax: +44 (0) 20 - 79 55 - 65 78 E-Mail: J.Lezaun@lse.ac.uk « Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA Speaking Truth to Bureaucratic Power: Three National Responses to Cholera by Stephen Turner, University of South Florida The State delegates its executive authority to civil servants, or bureaucracies, and delegates much of the “discussion” leading up to decisions to advisory bodies of various kinds. But there are strong national differences in the patterns of delegation, particularly in relation to expert knowledge. The article examines three major traditions in the light of one revealing example: the problem of cholera in the nineteenth century. It also considers the problem of expert knowledge in relation to claims made by Ulrich Beck (1992, 1994, 1995, 1997) to the effect that some form of popular participation is an appropriate corrective to expert opinion. 1 Cholera and Experts In recent writings regarding cholera in the nineteenth century, scholars have increasingly made clear the extent to which the “right” experts were ignored, the distinctiveness and contingency of the situations which they were in, and the extent to which politics, especially bureaucratic politics, played a significant role in both the failed reception of new ideas about cholera failure to implement the necessary measures, particularly the creation of sanitation processes and water filtration. The story of the Hamburg epidemic of 1892 is emblematic of expertise gone wrong. The reaction of the London St. James Parish Board, which was persuaded to remove the handle of the Broad Street pump by a commission that included John Snow, is emblematic of right decision making. The actions of the sanitary commission of the city of New York also stand out as a success. The actions in Britain of the General Health Board, which operated with a bad theory of cholera that was only slowly abandoned, is an example of partial success. London was spared an epidemic like Hamburg’s as a result of their efforts. Richard Evans’s classic text on the Hamburg cholera epidemic of 1892 comes to the following conclusion: Hamburg experienced a major cholera epidemic in 1892 for three basic reasons. Last in order of importance, and coming into operation only when the other two factors had their effect, was the chronic overcrowding, poverty, and malnutrition which ... existed in virtually all the poorer areas of the city, above all after the new harbor construction of the 1880s. This acted as a “multiplier” of the disease by facilitating its rapid spread from person to person. It could only come into action because the disease was carried to virtually every household in the city by mains water. The failure of the Senate and the Citizens’ Assembly to agree on a proper filtration system for the water-supply until it was too late, and the failure to implement a comprehensive system of sewage disposal and treatment, must be accounted the principal reasons for the epidemic proportions reached by the disease ... Most important of all was the Hamburg authorities’ policy of concealment and delay. (Evans 1987, p. 304) This is a good point to begin the comparisons, because this was a case in which expert knowledge – science – was catastrophically misgoverned. The misrule in Hamburg occurred through a combination of the inability of “public dialogue between the broadest variety of agents” – to use Beck’s phrase – to reach agreement, and a powerful official bureaucratic apparatus able to keep secrets. So we may take it as a test of a certain model of governance of science: one in which powerful bureaucracies are directed and controlled by public discussions which are themselves governed by elaborate procedures. The alternatives to this model are those in which intermediate bodies operate to provide facts or conclusions that can be made the subject of public discussion and action. In Hamburg there had been, prior to the epidemic of 1892, a long political discussion over the problem of drinking water, of precisely the inconclusive kind that Beck supposes should be an expected outcome of what we may call, for want of a standard label, “expert-egalitarian” discussion, by which we may mean “discussions in which everyone is treated as undifferentiated with respect to their expertise”. A political decision for filtration and clean water, which, according to the theories accepted elsewhere, was essential to avoid cholera being spread through the water supply, would have been costly. It was Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 57 SCHWERPUNKTTHEMA blocked through disagreement over how to charge for it, as well as because of skepticism about the need. The popular opinion was that the available river water was especially pure, and this was an important reason for the failure of the political discussion to produce agreement. Yet the Hamburg politicians did consider expert advice from their local bureaucrats and the local medical community: the two were closely entwined, and both groups supported a theory of cholera derived from Max von Pettenkoffer’s view of cholera (Evans 1987, pp. 194-7, 199200), which minimized the problem of transmission through water of the cholera bacterium. Pettenkoffer, a Munich physician, held the view that the cholera bacterium alone could not produce the disease. In a famous demonstration, he drank a beaker of infected water, to no ill effect. He thought the disease required other conditions, including “fermentation” in the ground, which implied different public health measures. The board acted in accordance with a process in which they were constrained not by the views of other experts, which might have forced them to consider alternatives to their own view, but were directly controlled only by the Hamburg senate and lower house, that is to say by politicians and notables who provided the sole form of official public discussion. Hamburg also had commissions. But public discussion in these commissions conformed rather closely to Beck’s ideal: the commission was ignored (Evans 1987, p. 158). There was no delegation of decisionmaking power to expert bodies, no “monopolization,” which is what Beck in principle rejects. Delay and non-decision were the consequence. 2 Where Bureaucratic Expertise Fails The inadequacy of the advice of the Hamburg medical community reflects a more general phenomenon. One of the features of bureaucracies is that career advancement is heavily dependent on conformity. Strong bureaucracies penetrate into the professional or expert community, affecting the climate of opinion within them. The effect of a powerful bureaucracy in this case was to assure conformity with what turned out to be a mistaken theory of cholera. But powerful bureaucracies of this sort succeeded elsewhere. In Berlin, the same kind of bureaucratic power produced conformity with Seite 58 what turned out to be the right view, and Berlin was spared. But Koch’s powers, as described by Evans, are the fullest realization of the intertwining of bureaucratic power and control of opinion through the control of careers: Koch could ... be assured ... of vigorous backing from the Imperial government in imposing his views on cholera prevention on medical authority throughout the Empire. Already in June 1884 he was made a member of the Prussian Privy Council (Staatsrat) and coopted onto the Cholera Commission for the German Empire. This had hitherto been controlled by Pettenkoffer. Koch became the dominant force. In the same year he organized a course of the diagnosis and prevention of cholera, in which 146 doctors took part, including 97 civilian (i.e., nonmilitary) doctors from all parts of Germany and 20 other countries. In 1885 he became full professor (Ordinarius) of Hygiene at the University of Berlin, and was appointed Director of a specially created institute for Infectious Diseases in 1891. These positions enabled him to influence large numbers of pupils in favor of his ideas and methods. His influence was further spread by his senior pupils. ... Koch founded a journal for the propagation of his ideas, the Zeitschrift für Infektionskrankheiten. Thus Koch and his pupils were rapidly taking over the field of hygiene (Evans 1987, pp. 266-67). So the expert advice which the politicians dealt with in each case was essentially monolithic, but different. The expert with authority in Berlin was Koch. But Koch had no direct authority over Hamburg, whose physicians were influenced by Pettenkoffer. 3 Multiple Sources of Expertise If we consider two other cases with different structures, the results are revealing. In London, there was a national bureaucracy, the General Health Board, headed by a statistician and sanitary reformer named William Farr. Farr was wrong about cholera – he was a miasmatist, who had produced an impressive curve fit to data on cholera deaths in London, which he published, based on the idea that elevation decreased the number of cholera deaths in an epidemic. He also produced a vast quantity of research relating to other variables, especially social variables, water quality and so forth, none of which Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA produced the startling consistency of the elevation data. The bureaucracy headed by Farr was never powerful as a regulatory body. Decisions about water, for example, were local. Moreover, the career structure of London medicine was such that no bureaucracy had much ability to assure the conformity of the local medical community. Farr’s office had a monopoly on the official publications it produced about cholera, but these were not binding on local authorities. Nor was there any particular career benefit to conformity to the position of the General Health Office. And this led to a different outcome. Beginning with the political achievement, which is only now being acknowledged, of the St. James Parish committee which was persuaded to remove the handle of the Broad Street pump – now one of the most celebrated episodes in the history of medicine (Brody et al 1999). The means by which this political act occurred are partly known. The parish committee, faced with a local outbreak of cholera, what we would now call a “cluster,” appointed Snow and a clergyman named Henry Whitehead to a special cholera inquiry committee to deal with an outbreak of cholera near Golden Square. He applied the spot map technique, and found that 73 of the 83 cases were near the Broad Street pump, which Snow reasoned was the source. Whitehead was skeptical of this explanation at first, but was soon convinced. Some who drank the water escaped cholera, others who didn’t drink it contracted the disease. But the proportions were overwhelmingly in support of the pump hypothesis. The parish committee asked Snow to write the report up, and Whitehead himself figured out what had contaminated the pump water – a leaky cesspool three feet from the pump. The material came from the washing of the diapers of an infant who had died and for whom the cause of death was listed as diarrhea. The discovery led the parish committee to excavate the pump area, which revealed that the brick linings of both the well and the cesspool had decayed, allowing seepage. The pump’s handle was removed, and the outbreak subsided. This was an act of a small political body faced with an emergency, but in a position to create its own commission, listen to its conclusions, and act independently on them – or decline to act. This dramatic episode was only a small part of the story, however. Snow’s own efforts began long before this episode, and the absorption of his views continued long after. The medical background was complex. Cholera was the most researched disease of the century, and many correlations, as well as many well-attested cases, were part of its large literature. Snow, a private physician, was struck by the many remarkable cases in which cholera spread over vast distances, apparently carried by individuals, strange cases in which cholera attacked one group, such as the passengers of a particular ship, and spared those that had left from the same port at the same time, and cases where one company of soldiers passing a water hole and drinking from it left healthy, and the next one became deathly ill. These cases were difficult to square with any sort of miasmatic or “fermentation” account. Snow hypothesized, as it turned out correctly, that the real cause was minute material in the evacuations of the victims, that got into the water supply or was otherwise ingested. In an era in which proportionality of cause and effect was a standard methodological rule, and before the microbe account of disease was accepted, this was a radical idea. It was also easy to regard it not as radical, but as old news. Even Farr’s research office agreed in some respects with the basic idea: bad water was one of the many variables they found to be associated with cholera. But bad water was badly defined, and not defined in a way that was readily amenable to policies that allowed epidemics to be stopped or prevented. In the long run, this was the loophole through which the bureaucracy grudgingly accepted Snow’s arguments – as though they had been theirs all along. But it was an important loophole, for it allowed for the institution of reforms that had the desired result. Snow’s hypothesis was startlingly reconfirmed as a result of a natural experiment in which a mysterious outbreak of cholera occurred after changes had been made in the water supply, but only among the customers of one water company. This appeared to refute Snow. It was then discovered that the company had been illegally drawing water from a source that was “impure.” What is striking about this story is, on the one hand, the obduracy of the bureaucratic experts, though they did eventually concede that Snow was right, and on the other the ability of Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 59 SCHWERPUNKTTHEMA Snow – and the motivation– to persuade the parish committee, which promptly created a “commission” rather than attempting to make the decision on its own, to act on his ideas, and the openness of the committee to being persuaded. The result was that London did not have another cholera epidemic after the changes in the water supply were fully put into effect. 4 Private Expertise: the American Case The American version of this story is equally interesting, largely because it represents a different combination of politics, expertise, and bureaucratic structures. In the United States, public health matters in the nineteenth century were for the most part controlled by municipalities, which were, in the case of New York and other major cities, democratic in a particular sense – dominated by the “spoils system”. The major device for dealing with the threat of cholera was sanitation, and sanitation contracts were political plums. Boards of Health, in a typical arrangement that applies to many boards even today, were composed of elected officials who were stakeholders of various kinds who sat as the board of health and used its special powers when circumstances required. The politicians – Democrats, in this case – preferred to conduct business as usual. But they were vulnerable to reformers, and in the manner that they were defeated the deep roots of national political and bureaucratic traditions become visible. Tocqueville, writing a few decades before, had observed that “a single Englishman will often carry through some great undertaking, whereas Americans form associations for no matter how small a matter. Clearly the former regard association as a powerful means of action, but the latter seem to think of it as the only one” ([1835]1966, p. 514). This is precisely how cholera was attacked. As Charles Rosenberg notes in his history of the American response to cholera (1962), “it is hardly surprising that New York’s Citizens’ Association (an informal group of respectable – and predominantly Republican – Gothamites organized early in the 1860’s to promote ‘honest government’) should sponsor a subsidiary Council of Hygiene and Public Health” (p. 187). This “council” – a case of a Tocquevillian association – surveyed the sanitation arrangements of the city, and re- Seite 60 ported the dismal results of the sanitary regime in place. Another arm of the Citizens’ Council was at work on reforming the political structure that produced it, proposing a bill in the state legislature to create a board of health that did not operate on the spoils system, and had experts rather than politicians on it. This was a lesson drawn from the examples of Paris and London, but also from Providence, Rhode Island and Philadelphia. The bill required that the board consists of medical men trained especially for public health work (Rosenberg 1962, pp. 188-91). The state of knowledge in 1866 was expressed by the New York Academy of Medicine, yet another Tocquevillian association – which advised the medical profession to “for all practical purposes, act and advise in accordance with the hypothesis (or the fact) that the cholera diarrhoea and ‘rice-water discharges’ of cholera patients are capable in connection with wellknown localizing conditions, of propagating the cholera poison, and that rigidly enforced precautions should be taken in every case to disinfect or destroy these ejected fluids” (quoted in Rosenberg 1962, p. 195). The resolution reflected some medical politicking – the “local conditions” clause assured unanimity, though few doubted that the discharges alone were the cause. But it also reflected the internationalization of expertise on the topic, and the rapidity of “conversions” to the “Snow-Pettenkoffer” account of the disease, which in practice was the Snow account, was impressive. The New York Sanitary Commission, which had been granted enormous power by the legislature, acted accordingly: “... the bedding, pillows, old clothing, and utensils – anything that might ‘retain or transmit evacuations of the patient’ – were piled in an open area and burned” (Rosenberg 1962, p. 205). New York City escaped cholera, other states copied the legislation (Rosenberg 1962, p. 211), and the contained “epidemic” of 1866 was the last serious cholera threat in the United States. The politics of opposition are worth noting, especially in light of Beck’s demands. The Commission was imposed by the state legislature, which was dominated by Republicans; the Democrats, Catholics, and immigrants of New York City opposed it as the creation of rural Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA lawyers that favored the rich at their expense (Rosenberg 1962, p. 208). The New York Sanitary Commission was composed of experts, but experts who were experts as private individuals rather than individuals who were the creation of a consensus producing career structure in a powerful bureaucracy. They were accountable professionally but also accountable as public figures for their actions, in the sense that their personal and professional reputations were closely tied to the outcomes of what were very public decisions. And there were associations, such as the Citizens’ Council and the New York Academy of Medicine, which were independent watchdogs, with an eye on the practices of other governments and on international expertise. A member of such a board was highly constrained by these bodies – someone who did not wish to jeopardize a carefully built-up reputation both as an individual and as an expert would be obliged to resign or to protest bad decisions. 5 Expert Egalitarianism Beck’s model contrasts with this rather sharply, because in a situation of expert egalitarianism, reputation is unimportant or equalized, as is responsibility for the outcome: rather than being held responsible, a person can behave irresponsibly without consequences or act in terms of self-interest without consequences. Indeed, this is a major part of the Hamburg story. The issue of taxation which was entirely a matter of interest politics prevented the reaching of a resolution, exactly as Beck says is a permissible outcome, with the consequence that filtration devices were not built until after the epidemic had taught the public lesson that they were necessary. To be sure, if Hamburg had been as fortunate as Berlin to have had the right leading figures in its bureaucracy, bureaucratic power and the consensus it favored would have produced the right decision. But the issue of “governance” is not eliminated by the existence of powerful bureaucracies. Someone needs to pick the powerful bureaucrats and to judge the bureaucracy. The Hamburg notables and politicians, who were closely related to the medical community, proved incapable of doing so. Thus the combination of interest group democracy and powerful bureaucracy is more generally prone to the same very particular kind of error, and in this case it proved fatal. 6 Using Expertise Effectively Germany had the best science at the time of the Hamburg epidemic – Koch had won a Nobel Prize for identifying the cholera bacterium. Yet it had the worst cholera epidemic of Europe, long after other countries had solved their cholera problem. Is it too much to compare this to the situation in German physics during WWII? There again, Germany had the best scientist, Heisenberg, and the best intellectual resource base. The customary view of this episode is that authoritarianism led to failure. Heisenberg, uncorrected by vigorous debate from his subordinates, made a key error and failed to see the solution to the problem of fusion. But in a larger perspective, the problem may be seen to be one of the organization of scientific activity: The bureaucratic structure of the research effort led, as it led in the Hamburg medical community, to a consensus that turned out to be false. And it is difficult to imagine a powerfully bureaucratic mode of the governance of science that would not be systematically prone to this kind of error. James Bryant Conant, the last High Commissioner of Germany and the first American Ambassador to West Germany, writing after the Second World War, described the following model for presenting expert opinions to decision-making bodies. To avoid what he took to be the central problem of scientists promoting their own hobby horses, he suggested that even a good idea ought to be able to withstand criticism and proposed that opponents be selected to play the role of devil’s advocate. These opponents would argue for alternative proposals so that decision-makers would be given a genuine choice, but also so that the experts would be forced to articulate arguments that would be not merely persuasive to nonexperts but tested against the criticisms of the expert opponent. This left judging in the hands of nonexperts, but gave experts their due as pleaders of cases. There is a sense in which this model is the one that most closely represents the situation in St. James Parish, and in the body that the parish committee created when it joined Snow with a skeptical clergyman. Snow obviously was arguing not only a minority Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 61 SCHWERPUNKTTHEMA view but a view opposed by the official bureaucracy. Snow nevertheless prevailed, producing perhaps the single best decision in the whole cholera affair. The New York model is also revealing: expertise constrained by expert scrutiny, in a situation in which the “outside” experts are genuinely independent, and in which the reputations of the experts exercising authority are, in effect, marketized, so that they would suffer for their obduracy, constrains experts very effectively, while at the same time producing decisive results– the New York methods were highly effective and easy to imitate. Whether this is a model that can be used in other political traditions, such as the German, in which “cooperation” is the working norm, is open to question. In each of the cases some other means of protection against the error-prone combination of bureaucratic power and the quasi-scientific “consensus of scientists” existed. And this is something that powerful bureaucracies which create their own climates of opinion effectively preclude. Rosenberg, Ch.E., 1962: The Cholera Years: The United States in 1832, 1849, and 1866. Chicago: The University of Chicago Press Tocqueville, A. de, [1835]1966: Democracy in America. ed. J. P. Mayer, trans. George Lawrence. Garden City, NY: Doubleday & Company, Inc. Contact Stephen Turner Graduate Research Professor of Philosophy Department of Philosophy FAO 226 University of South Florida Tampa, FL 33620, USA Tel.: +1 - 813 - 974- 55 49 Fax: +1 - 813 - 974 - 59 14 E-Mail: turner@shell.cas.usf.edu « References Beck, U., 1992: The Risk Society: Towards a new modernity. London, Newbury Park, Cal.: Sage Publications Beck, U., 1994: The reinvention of politics: Towards a theory of reflexive modernization. In: Beck, U.; Giddens, A.; Lash, S. (eds.): Reflexive Modernization. Stanford, Cal.: Stanford University Press, pp. 1-55 Beck, U., 1995: Ecological Enlightenment: Essays on the Politics of the Risk Society. M. Ritter (trans.). Atlantic Highlands, N.J.: Humanities Press International, Inc. Beck, U., 1997: Erfindung des Politischen: The Reinvention of Politics: Rethinking Modernity in the Global Social Order. Mark Ritter (trans.). Cambridge: Polity Press; Cambridge, Mass.: Blackwell Publishers Brody, H; Vinten-Johansen, P.; Paneth, N.; Rip, M.R., 1999: John Snow revisited: Getting a handle on the Broad Street pump. Pharos 62(1), pp. 2-8 Conant, J., 1951: Science and Common Sense. New Haven, CT: Yale University Press Evans, R.J., 1987: Death in Hamburg: Society and Politics in the Cholera Years 1830-1910. Oxford: Clarendon Press Seite 62 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA Reflexive Wissenspolitik: Öffnung und Erweiterung eines neuen Politikfeldes von Peter Wehling, Universität Augsburg Reflexive Wissenspolitik umreißt eine Perspektive der konzeptionellen Erweiterung und sozialen Öffnung des neu entstehenden Handlungs- und Diskursfeldes „Wissenspolitik“. Sie ist auf die reflexive Infragestellung der etablierten Wissensordnungen in modernen Gesellschaften gerichtet und gewinnt entscheidende Impulse aus der zunehmenden Anerkennung und Politisierung des Nichtwissens. Dass die modernen Gesellschaften sich gegenwärtig in einem Übergang zur so genannten Wissensgesellschaft befinden, gilt im politischen Diskurs mittlerweile fast schon als Trivialität. Wesentlich interessanter – und zugleich weniger selbstverständlich – ist die Einsicht, dass gerade in den so etikettierten Gesellschaften neue Formen der politischen Gestaltung von und des sozialen Umgangs mit Wissen erforderlich werden und sich zum Teil bereits herausbilden. In der sozialwissenschaftlichen Diskussion wird mit Blick hierauf von der Emergenz eines neuartigen Diskurs- und Politikfeldes, der „Wissenspolitik“, gesprochen (vgl. Stehr 2003a, S. 105 ff. sowie die Beiträge in Stehr 2003b). Die Konturen, Akteure, Ziele, Reichweite und möglichen Grenzen einer solchen Politik bleiben bisher allerdings noch recht undeutlich, und zwar besonders dann, wenn man diese nicht mit bereits etablierten Ressortpolitiken wie der Forschungs- und Technologiepolitik identifizieren will.1 Betrachtet man das sich herausbildende Feld genauer, so lassen sich (mindestens) drei unterschiedliche, zum Teil auch kontrastierende Akzentuierungen von Wissenspolitik erkennen: Eine innovationsorientierte Variante von Wissenspolitik (Rammert 2003) ist auf die Förderung eines neuen Typus heterogener, verteilter Wissensproduktion ausgerichtet; eine regulative Wissenspolitik (Stehr 2003a, 2003c) zielt demgegenüber auf die „Überwachung“ des in rasantem Tempo zunehmenden Wissens, um mögliche Negativfolgen von vorneherein vermeiden oder zumindest begrenzen zu können; eine reflexive Wissenspolitik (Wehling 2003a; Böschen 2004) schließlich unterwirft die bisher als selbstverständlich wahrgenommenen Grundlagen moderner „Wissensordnungen“, etwa die Trennungen zwischen Experten und Laien oder zwischen Fakten und Werten, einer kritischen Infragestellung und Überprüfung. In meinem Beitrag möchte ich zunächst diese drei Akzentuierungen von Wissenspolitik jeweils kurz skizzieren und die Frage aufgreifen, ob und inwieweit sich daraus – trotz aller Unterschiede – ein übergreifendes Politikfeld sowie ein neuartiger, eigenständiger Politiktypus herauskristallisieren könnten (Kap. 1). Zeigen wird sich dabei, dass vor allem die in den letzten Jahren beobachtbare Anerkennung und Politisierung des Nichtwissens weit reichende und überraschende Implikationen für die Wissenspolitik beinhaltet. Diese möchte ich im 2. Kapitel exemplarisch an der seit einigen Jahren geführten Debatte um ein „Recht auf Nichtwissen“ in der humangenetischen Diagnostik verdeutlichen. Vor diesem Hintergrund werde ich abschließend einige gesellschaftstheoretische Implikationen und politischinstitutionelle Konsequenzen von Wissenspolitik hervorheben (Kap. 3). Diese scheinen mir primär im Aufbrechen der etablierten Wissensordnungen der modernen Gesellschaft, einschließlich des bisher (fast) ungebremsten „Willens zum Wissen“ (Michel Foucault), zu liegen. Insofern erweist sich eine reflexive Wissenspolitik als entscheidende Perspektive zur sozialen Öffnung und Erweiterung des entstehenden Diskurs- und Handlungsfeldes. 1 Drei Felder von Wissenspolitik – Differenzen und mögliche Gemeinsamkeiten Wie Innovations- und Technikgeneseforschung in den letzten Jahren überzeugend herausgearbeitet haben, haben ökonomistische, technokratische und korporatistische Modelle von Innovationsprozessen ihre Plausibilität eingebüßt und sollten daher durch vielschichtigere Konzepte einer reflexiven „Innovation im Netz“ (Rammert 1997) abgelöst werden. Innovationen entstehen demnach in temporären, interaktiven und offenen Netzwerken, in die eine Vielzahl von Akteuren aus unterschiedlichsten sozialen Bereichen einbezogen sind und in denen heterogene Wissenformen und „verteilte“ Wissensbestände miteinander verknüpft werden müssen. Vor diesem Hintergrund hat Werner Rammert Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 63 SCHWERPUNKTTHEMA (2003) die These formuliert, gegenwärtig bildeten sich eine neuartige „innovationsorientierte Wissenspolitik“, ein „Regime der heterogen verteilten Wissensproduktion“ sowie eine damit in Wahlverwandtschaft stehende Form der „fragmentalen Differenzierung“ jenseits einer säuberlichen funktionalen Differenzierung in spezialisierte Teilsysteme heraus. Als die entscheidenden Paradoxien (und zum Teil auch Grenzen) einer erfolgreichen „Steuerung“ des Wissens erscheinen in diesem Rahmen die Verknüpfung der heterogenen Wissensformen sowie die Nutzung des impliziten Wissens, das zwar zunehmend an Bedeutung gewinne, aber eben nicht restlos explizit gemacht und formalisiert werden könne. Doch während das Regime verteilter Wissensproduktion und der Typus fragmentaler Differenzierung über wesentliche Struktur- und Funktionsprinzipien moderner Gesellschaften (oder zumindest über deren gängige soziologische Beschreibung) hinausweisen, bleibt das Ziel der damit verknüpften innovationsorientierten Wissenspolitik – wenigstens auf den ersten Blick – sehr nah an den etablierten Erwartungshorizonten der Moderne: Es besteht, so Rammert, darin, „eine adäquate institutionelle Infrastruktur bereitzustellen, die das Wachstum der Wissensproduktion sichert und beschleunigt“ (Rammert 2003, S. 483). Man kann vermuten, dass hiermit nicht die gängige Vorstellung einer linearen, eindimensionalen Zunahme des wissenschaftlich-technischen Wissens als Motor und Grundlage von Innovation und Innovationsfähigkeit gemeint ist, sondern die wechselseitige, interaktive Steigerung und Vernetzung der heterogenen, verteilten Wissensbestände und -formen (ebd., S. 493). Gleichwohl stellt sich die Frage, ob eine „Politik des quantitativen Wissenswachstums“ ohne weiteres durch eine „qualitative Politik der Wissensdiversität“ ergänzt werden kann, wie Rammert (ebd., S. 501 f.) vorschlägt – oder ob nicht zwischen diesen beiden Zielen innovationsorientierter Wissenspolitik doch ein gewisses Spannungs- und Konfliktverhältnis besteht. Denn keine andere Wissensform ist in modernen Gesellschaften in auch nur annähernd vergleichbarer Weise auf die quantitative Zunahme des Wissens hin ausgelegt wie die Wissenschaft. Und falls der „geradezu herausragende Stellenwert des wissenschaftlichen und technischen Wissens in der modernen Gesellschaft“ inzwischen tatsächlich Seite 64 vor allem darauf beruht, „dass wissenschaftliches Wissen, mehr als jede andere Wissensform, permanent zusätzliche (...) Handlungsmöglichkeiten fabriziert und konstituiert“ (Stehr 2003a, S. 36),2 läuft dann eine Wissenspolitik, die auf quantitatives Wachstum und dessen Beschleunigung zielt, nicht Gefahr, das wissenschaftliche Wissen gegenüber anderen Formen zu favorisieren? Erschwert es nicht gerade die Bedingungen für den angestrebten Erhalt unterschiedlicher Zeithorizonte, für die Diversität der Wissensformen und die „angemessene Balance“ zwischen explizierbarem und implizitem Wissen (Rammert 2003, S. 501), wenn lokales Erfahrungs- und Kontextwissen oder auch gesellschaftliches Reflexionswissen durch die Wachstumsdynamik der Wissenschaft unter zu starken Zeit- und Anpassungsdruck gesetzt werden? Jedenfalls nimmt – dies unterstreichen die aktuellen forschungs-, technologie-, umweltpolitischen und ethischen Konflikte um Gentechnik, Biomedizin, Nanotechnologie etc. in eindrucksvoller Weise – mit dem schnellen Wachstum des wissenschaftlich-technischen Wissens auch die Wahrnehmung von Risiken und Gefährdungen zu, und zwar nicht mehr nur der Risiken des Wissens, sondern ebenso sehr derjenigen des dabei miterzeugten Nichtwissens (vgl. Krohn 2003; Wehling 2003b, 2004). Politik, Öffentlichkeit und Individuen müssen sich nicht allein damit auseinandersetzen, was die Wissenschaft weiß (und kann), sondern in steigendem Maße auch damit, was sie dabei nicht weiß und welche möglicherweise fatalen Konsequenzen dies haben könnte. Daher werden im Horizont der von Stehr skizzierten regulativen Wissenspolitik gerade das beschleunigte Wachstum des wissenschaftlich-technischen Wissens sowie die ebenso rasch zunehmenden, in ihren Auswirkungen kaum überschaubaren Eingriffsmöglichkeiten in die „äußere“ und „innere“ Natur als Triebkraft für die Herausbildung des neuen Handlungsfeldes angesehen: „Die Entwicklung des Politikfeldes Wissenspolitik ist eine wenn auch verzögerte Reaktion auf die außerordentliche Geschwindigkeit, mit der neue Erkenntnisse und technische Möglichkeiten in modernen Gesellschaften wachsen.“ (Stehr 2003a, S. 19) Dementsprechend sieht Stehr in der „Überwachung“ und „Regulierung“ des Wissens oder gar in der „gesellschaftlichen Kontrolle neuer Erkenntnisse“ (Stehr 2003c) den Kern der sich allmählich Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA entwickelnden Wissenspolitik. Denn bei der Bewertung der sozialen Folgen von Wissenschaft und Technik habe sich eine bemerkenswerte Akzentverschiebung vollzogen: „weg von der Lösung einmal aufgetretener Probleme, die sich aus der Anwendung von Technik und Wissenschaft ergeben, hin zur möglichen Reduktion oder Prävention nicht gewollter, jedenfalls ungeplanter Folgen“ (Stehr 2003c, S. 118). Die lange Zeit vorherrschende Haltung, die „nachträgliche Entsorgung der unangenehmen Folgen“ sei ausreichend, werde jedenfalls mit wachsender Skepsis betrachtet (ebd.). Doch obwohl Stehr selbst (ebd., S. 126) betont, dass Regulierung „keinesfalls gleichbedeutend mit Verbot, Unterdrückung oder dem Verzicht, Anreize zu schaffen,“ sein müsse, ist bisher noch nicht recht erkennbar, wie, nach welchen Kriterien und von welchen Akteuren die anvisierte, gleichsam präventive Überwachung des Wissens und die Kontrolle seiner Anwendung ins Werk gesetzt werden könnte. Mit den von Stehr aufgeworfenen Fragen steht ein diskursives Feld in engem Zusammenhang, auf dem sich seit einigen Jahren ebenfalls die Herausbildung einer in vielerlei Hinsicht neuartigen Wissenspolitik jenseits der etablierten Forschungs- und Technologiepolitik beobachten lässt: die Auseinandersetzungen darüber, wer bei bestimmten Themen legitimerweise den Status eines „Experten“ in Anspruch nehmen könne und wer demgegenüber als „Laie“ von den entsprechenden Beratungsund Entscheidungsprozessen ausgeschlossen bleibe. Harry Collins und Robert Evans (2002) sehen in der Bearbeitung und Klärung dieser Fragen sogar das übergreifende Thema einer „dritten Welle“ von science studies, die sie als „studies of expertise and experience“ bezeichnen.3 Vor allem im Kontext der neueren Entwicklungen im Bereich der Biomedizin und Gentechnik ist in den letzten Jahren in der Tat eine reflexive Überprüfung und Erosion tradierter Grenzziehungen und Wissenshierarchien moderner Gesellschaften in Gang gekommen. Die Frage, wessen Wissen und Bewertungsmaßstäbe etwa in den Debatten um die Zulassung der Präimplantationsdiagnostik oder um die Risiken gentechnisch manipulierter Nahrungsmittel als relevant anzusehen sind, kann immer weniger im Rückgriff auf die vermeintlich objektive, wissenschaftlich feststell- bare Faktizität der Problemlagen und auf die professionelle Zuständigkeit bestimmter Personengruppen (vor)entschieden werden, sondern wird zum Gegenstand kontroverser gesellschaftlicher Aushandlungsprozesse (Wynne 2002). Gebündelt und zugespitzt werden solche Debatten gegenwärtig in der Frage nach den Möglichkeiten und Grenzen einer „Demokratisierung von Expertise“ (Liberatore und Funtowicz 2003), beispielsweise durch Formen partizipatorischer Technikfolgenabschätzung. In eine ähnliche Richtung weist Frank Fischers Versuch, Wissenspolitik als „politics of local knowledge“ zu entfalten, um auf diese Weise zu einer Neubestimmung der Rolle von Bürgern und Experten in Umweltkonflikten zu kommen (Fischer 2000). In solchen sozialen Prozessen, Diskursen und Auseinandersetzungen kristallisiert sich der Typus einer „reflexiven Wissenspolitik“ heraus, die – in Ergänzung und Erweiterung der regulativen Perspektive – auf die grundlegende Infragestellung, Öffnung und Transformation tradierter und eingespielter Wissensordnungen zielt (vgl. auch Lau und Böschen 2003). Unter „Wissensordnung“ verstehe ich hierbei einen Komplex sozial anerkannter, diskursiv, institutionell und kulturell stabilisierter Wissenshierarchien und Grenzziehungen (zwischen Fakten und Werten, Experten und Laien, „objektivem Wissen“ und „subjektivem Meinen“ etc.) sowie je spezifische Praktiken der Erzeugung und der kognitiven oder normativen Bewertung von Wissen. Entscheidende Impulse für die Herausbildung einer reflexiven Wissenspolitik sind von der in den letzten 15 bis 20 Jahren zu beobachtenden Entdeckung und Anerkennung des Nichtwissens, auch und gerade des wissenschaftlichen Nichtwissens, ausgegangen (vgl. u. a. Ravetz 1990; Luhmann 1992; Beck 1996). Anerkennung des Nichtwissens beinhaltet nicht allein ein geschärftes Bewusstsein davon, dass die Wissenschaft mit dem wachsenden Wissen zugleich auch immer mehr Nichtwissen über die Voraussetzungen, Implikationen und Folgen dieses Wissens produziert. Hinzu kommt die Einsicht, dass dieses Nichtwissen nicht lediglich in der Form eines bloß temporären „NochNicht-Wissens“, d. h. eines noch nicht gelösten, aber klar umrissenen wissenschaftlichen Forschungsproblems auftritt, sondern ebenso sehr in Gestalt eines grundsätzlichen „Nicht-Wissen- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 65 SCHWERPUNKTTHEMA Könnens“, eines „unerkannten Nichtwissens“ (die Wissenschaft weiß gar nicht, was sie nicht weiß), oder auch eines begründeten „NichtWissen-Wollens“ (vgl. zu diesen Unterscheidungen ausführlicher Wehling 2004). Die Anerkennung dieser Pluralität und Heterogenität von Nichtwissensformen und -definitionen mündet fast zwangsläufig in eine „Politisierung des Nichtwissens“ (Stocking und Holstein 1993) ein: Mit welcher Ausprägung des Nichtwissens man es überhaupt zu tun hat und welche Konsequenzen daraus zu ziehen sind, ist weder objektiv vorgegeben noch autoritativ und eindeutig festzulegen. Eröffnet wird damit ein Feld gesellschaftlicher, (wissens-)politischer Auseinandersetzungen, in denen die bisherige Definitionshoheit der Wissenschaft über das Nichtwissen, über seine Relevanz und möglichen Konsequenzen, relativiert und aufgebrochen wird. Parallel dazu differenzieren und vervielfältigen sich die Strategien des Umgangs mit Nichtwissen: Das nahe liegende, als selbstverständlich erscheinende Bemühen, Nichtwissen durch Wissen zu ersetzen, erscheint nur noch als eine mögliche Reaktionsform auf die Problematik unter anderen – und keineswegs immer als die angemessene und aussichtsreichste. Wenn man beispielsweise mit Nichtwissen konfrontiert ist, das als unüberwindbar eingeschätzt wird, wäre es kontraproduktiv, vorrangig auf Wissensgewinn zu setzen. Vielmehr ist es in einer solchen Situation angebracht, sich mit den Möglichkeiten und Grenzen des Entscheidens unter Nichtwissensbedingungen auseinanderzusetzen (vgl. Wehling 2002 sowie bereits Collingridge 1980). Zudem kann man immer weniger darauf vertrauen, dass die (noch) unbekannten Folgen wissensbasierten Handelns schon „rechtzeitig“ und gleichsam „von selbst“ ans Licht kommen würden, so dass noch korrigierend eingegriffen werden könnte. Statt dessen ist mit einer unter Umständen lange anhaltenden Unerkennbarkeit von Handlungskonsequenzen zu rechnen, da man gar nicht weiß, wo, wie und wann sie zu beobachten sind.4 Auf diese Weise wirkt die paradox erscheinende Frage, wie unter Bedingungen des Nichtwissens „bewusst“ gehandelt und „begründet“ entschieden werden soll, auf die Wahrnehmung des Wissens zurück und lässt seine Grenzen und Ambivalenzen schärfer hervortreten: Die Politisierung des Nichtwissens geht in eine Politisierung des Wissens über. Seite 66 Lassen sich in den teilweise recht unterschiedlichen Ansatzpunkten und Akzentsetzungen einer innovationsorientierten, einer regulativen und einer reflexiven Wissenspolitik überhaupt gemeinsame Orientierungen erkennen, die es rechtfertigen würden, von der Emergenz der Wissenspolitik als einem neuen Feld und neuartigen Politiktypus zu sprechen? Oder hat man es stattdessen „nur“ mit jeweils bereichsspezifischen, sektoralen Wissenspolitiken zu tun, die sich nebeneinander herausbilden? Ungeachtet der heterogenen Ausgangspunkte scheint sich dennoch eine Art übergreifender Impuls abzuzeichnen, in dem die drei skizzierten Perspektiven von Wissenspolitik übereinkommen und sich überschneiden. Dieser Impuls liegt nach meinem Eindruck in dem Beharren auf der gesellschaftlichen, demokratischen Gestaltbarkeit und Gestaltung des Umgangs mit Wissen und Nichtwissen, d. h. vor allem mit der Unterschiedlichkeit von Wissens- und Nichtwissensformen. So verstanden liegt der „Kern“ von Wissenspolitik in der Öffnung (und Eröffnung) eines Handlungsfeldes, das bislang vor allem durch die Objektivitäts- und Monopolisierungsansprüche der Wissenschaft sowie durch szientistisch-technokratische Politikmodelle beherrscht und gleichsam eingefroren war. Dass besonders eine sich als reflexiv verstehende Wissenspolitik tief greifende Infragestellungen der kulturell wie institutionell fest verankerten, wenn nicht sogar als „natürlich“ erscheinenden Selbstverständlichkeiten moderner (Wissens-) Gesellschaften beinhalten kann, möchte ich im Folgenden exemplarisch an der Debatte um ein „Recht auf Nichtwissen“ in der humangenetischen Diagnostik verdeutlichen. 2 Das Recht auf Nichtwissen: ein Beispiel reflexiver Wissenspolitik Die Forderung nach einem formellen oder informellen Recht, die eigene genetische Ausstattung nicht zu kennen, nicht kennen zu müssen und auch anderen jegliches Wissen darüber untersagen zu dürfen, wird seit Mitte der 1980er Jahre in Reaktion auf die neuartigen Potenziale der Humangenetik erhoben (vgl. Wehling 2003c). Im Mittelpunkt der Aufmerksamkeit steht dabei die prädiktive Gendiagnostik, d. h. die Möglichkeit, mittels individueller DNA-Analysen die Determination oder zumin- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA dest Prädisposition zu bestimmten Erkrankungen bereits weit vor deren Ausbruch – aber häufig ohne Erfolg versprechende Präventionsoder Therapiemöglichkeiten – festzustellen. Vor diesem Hintergrund soll ein ausdrückliches „Recht auf Nichtwissen“ zwei sozialen Risiken entgegenwirken: Erstens sollen „Gefährdungen der Personalität durch Einbußen an Selbstbestimmung und Autonomie“ (Damm 1999, S. 435) aufgrund von belastendem Wissen über die eigene Zukunft verhindert werden; zweitens soll neuartigen gesellschaftlichen Diskriminierungen (und einer möglichen „ReNaturalisierung“ sozialer Ungleichheitsstrukturen) aufgrund einer „ungünstigen“ genetischen Ausstattung vorgebeugt werden. Mit Blick auf die Vermeidung so genannter „Personalitätsrisiken“ stehen zwei spezifische Ausprägungen der prädiktiven Gendiagnostik im Vordergrund: zum einen die Frühdiagnose seltener, monogenetisch determinierter und spät manifest werdender Krankheiten (z. B. Chorea Huntington), für die bisher weder Prävention noch Therapie existieren; zum anderen die Feststellung genetischer Prädispositionen für multifaktoriell, also auch durch nicht-genetische Einflüsse bedingte Erkrankungen. Hierbei können lediglich statistische (und wissenschaftlich oft stark umstrittene) Aussagen über erhöhte Erkrankungsrisiken getroffen werden. Bezogen auf die einzelne Person bleibt jedoch unklar, ob, wann und in welcher Stärke es tatsächlich zum Ausbruch der Krankheit kommen wird. Das bekannteste Beispiel für eine solche Konstellation ist die genetische Disposition für Brustkrebs, die bei etwa fünf Prozent dieser Erkrankungen eine Rolle spielt. Für Frauen, bei denen ererbte Mutationen in den so genannten „Tumorsuppressor-Genen“ BRCA 1 und BRCA 2 festgestellt werden, steigt das statistische Risiko, ohne dass bisher Einigkeit darüber bestünde, in welchem Ausmaß (vgl. Lemke 2004, S. 70 ff.). Alle bisher bekannten präventiven Maßnahmen sind zudem sowohl ungewiss hinsichtlich ihrer Erfolgsaussichten als auch selbst risikoreich, wenn nicht – wie die prophylaktische Brustamputation – sogar extrem belastend. Das prädiktive genetische Wissen kann unter solchen Umständen kaum auflösbare Ängste erzeugen, den Betroffenen die (vermeintliche) Verpflichtung zu einem letztlich illusionären „Risikomanagement“ auferlegen und sie in ausweglose Ent- scheidungssituationen hineintreiben. Nichtwissen kann in dieser Situation gegenüber dem Wissen als die bessere Alternative erscheinen – und dies verleiht der Forderung nach einem zu schützenden Recht, die eigene genetische Konstitution nicht zu kennen, ihre Überzeugungskraft. Zugleich soll das Recht auf Nichtwissen Personen mit tatsächlich oder vermeintlich ungünstiger genetischer Ausstattung vor Stigmatisierung und Benachteiligung vor allem auf dem Arbeitsmarkt, im Gesundheits- und Bildungssystem sowie im (privaten) Versicherungswesen bewahren. In der angloamerikanischen Diskussion wird in diesem Zusammenhang nicht ohne Grund vor der Herausbildung einer in wichtigen gesellschaftlichen Bereichen diskriminierten „genetic underclass“ gewarnt (Nelkin 1995).5 Politisch und rechtlich konzentriert sich dieser Strang der Debatte gegenwärtig auf die Frage, ob und unter welchen Bedingungen Arbeitgeber oder Versicherungsunternehmen die Durchführung von Gentests zur Voraussetzung von Vertragsabschlüssen machen dürfen. Bemerkenswert an dieser Diskussion ist nicht allein, dass die Risiken, inhärenten Unsicherheiten, ambivalenten Konsequenzen und Machteffekte des wissenschaftlichen Wissens zum Thema gesellschaftlicher Auseinandersetzungen werden. Neu und ungewöhnlich ist vielmehr vor allem, dass darauf mit der Forderung nach Anerkennung eines begründeten „Nicht-Wissen-Wollens“ reagiert wird. Dieses Recht auf Nichtwissen schöpft seine Rechtfertigung nicht aus „vormodernen“, religiös motivierten Tabus und Erkenntnisverboten, sondern aus eben den Werten und Zielen personaler Autonomie und individueller Freiheit, die auch die Wissensdynamik moderner Gesellschaften legitimieren. Vielleicht zum ersten Mal wird Nichtwissen in modernen Gesellschaften nicht als ein zu überwindender, defizitärer Zustand oder als schlichte Ignoranz abgewertet, sondern ausdrücklich als ein eigenständiges Rechtsgut aufgefasst, wenngleich dessen tatsächliche soziale Durchsetzungsfähigkeit sich vermutlich als sehr begrenzt erweisen wird. „Recht auf Nichtwissen“ heißt dabei selbstverständlich nicht, dass nun umgekehrt das Wissen und Wissen-Wollen per se illegitim seien. Sie werden jedoch zunehmend begründungspflichtig; denn, wie die Enquete-Kommission „Recht und Ethik der modernen Medizin“ des Deutschen Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 67 SCHWERPUNKTTHEMA Bundestags feststellt: „Auch Eingriffe in das Recht auf Nichtwissen bedürfen einer Rechtfertigung“ (Enquete-Kommission 2002, S. 132). Zu erwarten sind somit vielschichtige und konfliktträchtige Abwägungs- und Aushandlungsprozesse zwischen den – wenigstens im Prinzip – gleichrangigen Rechtsansprüchen auf Wissen oder Nichtwissen genetischer „Informationen“. Betrachtet man die Debatte um ein Recht auf Nichtwissen in der Humangenetik als ein – sicherlich exponiertes und (noch) singuläres – Beispiel reflexiver Wissenspolitik, so wird deutlich, dass eine solche Politik mehr beinhaltet als die Mobilisierung, Steuerung oder Überwachung von Wissen. Reflexive Wissenspolitik kann sich vielmehr als eine „Politik des Nichtwissens“ herausstellen, die die institutionalisierte Präferenz für Wissen, das auf Dauer gestellte Bemühen, auftretende Probleme vorrangig oder ausschließlich durch mehr Wissen zu bewältigen, grundlegend in Frage stellt. Der in modernen Gesellschaften wirksame Automatismus, wonach die Steigerung und Nutzung von Wissen als per se rational gilt und daher von Begründungen entlastet ist, wird aufgebrochen, und die Frage wird zumindest formulierbar, „ob Wissen überhaupt besser ist als Nichtwissen, ob Wissen stets dem Nichtwissen vorzuziehen ist“ (Gamm 2000, S. 204). Vor diesem Hintergrund lässt sich schließlich auch erkennen, dass der seit dem 17. Jahrhundert in modernen Gesellschaften dominant gewordene „Wille zum Wissen“ nicht einfach die Befreiung einer „natürlichen“ menschlichen Neugier aus traditionalen, religiösen Fesseln darstellt. Vielmehr handelt es sich dabei um ein zwar äußerst erfolgreiches, aber gleichwohl kontingentes und, zumindest in seinen Anfängen bei Francis Bacon, seinerseits religiös begründetes historisches Projekt, das nicht nur auf einer spezifischen Konstruktion der Wissensgegenstände basiert, sondern auch dem erkennenden Subjekt „eine bestimmte Position, einen bestimmten Blick und eine bestimmte Funktion“ zuweist (Foucault 2001, S. 15). 3 Gesellschaftstheoretische und politische Implikationen Worin liegen demnach die gesellschaftliche Brisanz und die gesellschaftstheoretische Relevanz der sich herausbildenden Wissenspolitik(en)? Rammert sieht sie vor allem in der Seite 68 Emergenz eines neuen Regimes der verteilten Wissensproduktion sowie eines neuartigen Typs der „fragmentalen“ Differenzierung, die heterogene Elemente netzwerkartig und gleichsam „quer“ zu den Linien funktionaler Differenzierung und den disziplinären Trennungen des Wissens miteinander verknüpfe (vgl. Rammert 2003, S. 487 f., S. 492). Nach Stehr ist im Aufkommen von Wissenspolitik ein Indiz dafür zu sehen, dass moderne Gesellschaften offenbar immer weniger bereit sind, „die ‚naturwüchsige’ Weiterentwicklung wissenschaftlicher Erkenntnisse und technischer Fertigkeiten als Segen zu begreifen, als Entschlüsselung der Rätsel der Natur, als Emanzipation von Lasten und Schmerzen, als Instrument für eine bessere Gesellschaft, als Realisierung dessen, was den Menschen von anderen Kreaturen unterscheidet, als Schlüssel zu umfassendem Wohlergehen oder einfach als Befreiung von ‚ewigen’ natürlichen und gesellschaftlichen Zwängen aller Art“ (Stehr 2003a, S. 11). Die „herkömmliche Vorstellung, (...) jeder Wissenszuwachs sei Wertschöpfung, der dem Menschen automatisch Nutzen bringe“, sehe sich daher zunehmend der Kritik ausgesetzt (ebd.). Hieran anknüpfend lassen sich die am weitesten reichenden theoretischen Implikationen und sozialen Konsequenzen von Wissenspolitik in der Veränderung (oder zumindest Infragestellung) der dominanten sozialen Praktiken, institutionellen Trennungen und „kulturellen Codes“ moderner Gesellschaften vermuten (vgl. Reckwitz 2003). Vor allem die Erosion vermeintlich unverrückbarer Grenzziehungen (zwischen Wissen und Meinen, Experten und Laien etc.) sowie die Anerkennung und Politisierung des Nichtwissens unterlaufen im Sinne einer vielschichtigen „reflexiven Modernisierung“ (Beck et al. 2001) die etablierten Wissensordnungen, die sich bislang durch naturalisierende und objektivistische Selbstbeschreibungen mehr oder weniger erfolgreich gegen Reflexion und kritische Überprüfung abschotten konnten. Das bedeutet selbstverständlich nicht, dass diese Praktiken durch eine reflexive Wissenspolitik bereits faktisch transformiert würden oder auch nur ihre Dominanz verlören. Sie werden aber, wie am Beispiel des modernen „Willens zum Wissen“ dargestellt, in ihrer historischen Kontingenz sichtbar, begründungsbedürftig und wenigstens prinzipiell ent- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA scheidungsoffen – und damit zum Gegenstand gesellschaftlicher Auseinandersetzungen. Vor diesem Hintergrund kommt nicht zuletzt die Konflikthaftigkeit des Feldes der Wissenspolitik scharf in den Blick. In den (Nicht-) Wissens- und Risikokonflikten beispielsweise um Biomedizin oder grüne Gentechnik kreist ein Großteil der Auseinandersetzungen, noch vor der innovationsorientierten Koordination und Vernetzung der heterogenen, verteilten Wissensbestände, grundsätzlicher darum, ob bestimmte Wissensformen, Problemwahrnehmungen und soziale Rationalitäten überhaupt als legitime und relevante „Stimmen“ anerkannt werden. Letztlich steht hierbei die Akzeptanz und Legitimität einer pluralistischen Wissenspolitik selbst in Frage; denn diese erscheint aus der Perspektive funktional spezialisierter Teilsysteme oder korporatistischer Politik- und Innovationsmodelle schnell als überflüssige, störende Einmischung „von außen“. So gesehen stellt Wissenspolitik bisher eher eine Art von quer liegender und fragiler „Subpolitik“ dar als ein bereits anerkanntes und institutionell gefestigtes Politikmuster. Dass hierbei vielfältige Definitions-, Legitimations- und Entscheidungskonflikte aufbrechen, sollte daher kaum überraschen. Welche Instrumente und Ressourcen stehen den Akteuren von Wissenspolitik in diesem Rahmen zur Verfügung – und wer sind überhaupt die Akteure von Wissenspolitik? Diese Frage bleibt in der bisherigen Diskussion weitgehend offen; Einigkeit besteht in den vorliegenden Konzeptionen jedoch darüber, dass Wissenspolitik kein zentralisiertes, staatlich organisiertes Politikfeld ist und sein sollte. Rammert geht zu Recht davon aus, dass Wissenspolitik sich nur aus der zunehmenden Partizipation unterschiedlicher, heterogener Akteure sowie der Bildung interaktiver Politik- und Innovationsnetzwerke heraus entwickeln kann. Entscheidend wird somit sein, die Zugänge offen zu halten, korporatistische Schließungen und Verkrustungen immer wieder aufzubrechen und die Restabilisierung tradierter sozialer und kognitiver Grenzziehungen zu verhindern. Insofern liegt in einer „qualitativen Politik der Wissensdiversität“ (Rammert) der dynamische (und auch normative) Impuls des neuen Feldes. Eine solche Politik wird allerdings nicht in allen Fällen zur Beschleunigung des Wissenswachstums und zur Förderung von Innovationen beitragen. Unter den Bedingungen von Ungewissheit, Nichtwissen und normativem Dissens kann das begründete und legitime Ergebnis einer pluralen Wissenspolitik auch darin bestehen, das Wachstum des Wissens zu regulieren und zu begrenzen. Wissenspolitik in spätmodernen Gesellschaften heißt somit nicht zuletzt, innovationsorientierte, regulative und reflexive Perspektiven immer wieder neu in produktiven Kontakt und Konflikt zu bringen. Anmerkungen 1) Vgl. zur Differenz von Wissens- und Forschungspolitik Stehr 2003a, S.13 ff. 2) Es ist demnach vor allem die Neuheit, weniger die „Wahrheit“ und „Objektivität“ des Wissens, die gegenwärtig die gesellschaftliche Dominanz der Wissenschaft begründet (Stehr 2003a, S. 37 f.). 3) Sheila Jasanoff (2003) und Brian Wynne (2003) kritisieren allerdings zu Recht, dass Collins und Evans zwar den Experten-Status über den Rahmen von wissenschaftlicher Qualifikation und professioneller Position hinaus erweitern, Expertise dabei aber nach wie vor im Sinne der Verfügung über entscheidungsrelevantes (Fakten-) Wissen verstehen. Wie Jasanoff anmerkt, ist die Beteiligung von „Laien“ an Risikodiskursen und technologiepolitischen Entscheidungsprozessen aber vor allem vonnöten, „in order to test and contest the framing of the issues that experts are asked to resolve” (Jasanoff 2003, S. 397 f.). 4) Exemplarisch hierfür ist die massive Schädigung der Ozonschicht durch Fluor-Chlor-Kohlenwasserstoffe (FCKW). Als diese Substanzen um 1930 industriell hergestellt und genutzt wurden, war niemand „auf die Idee gekommen“, sie könnten irgendwelche Wirkungen in der oberen Erdatmosphäre haben. Erst Mitte der 1970er Jahre wurde die Wirkungskette theoretisch erschlossen und nochmals rund zehn Jahre später auch empirisch bestätigt. 5) Bisher stehen noch relativ hohe Kosten einer raschen Ausbreitung der Gendiagnostik im Weg. Dies wird sich jedoch aller Voraussicht nach ändern, falls in den nächsten Jahren die so genannte DNA-Chip-Technologie in größerem Maßstab verfügbar sein wird. In einem weitgehend standardisierten Arbeitsablauf könnte dann eine große Zahl von Genen auf Besonderheiten und „Abweichungen“ überprüft werden. Vermutlich werden dann vor allem die multifaktoriell verursachten „Volkskrankheiten“ wie Herz-KreislaufErkrankungen, Krebs, Diabetes oder DemenzErkrankungen ins Visier vermutlich auch kommerziell vertriebener Gentests kommen, ohne Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 69 SCHWERPUNKTTHEMA dass medizinische Prävention und Therapie damit Schritt halten könnten. Die Problematik, auf die das Recht auf Nichtwissen reagiert, würde sich somit noch ausweiten und radikalisieren. Literatur Beck, U., 1996: Wissen oder Nicht-Wissen? Zwei Perspektiven „reflexiver Modernisierung”. In: Beck, U.; Giddens, A.; Lash, S.: Reflexive Modernisierung. Eine Kontroverse. Frankfurt a. M.: Suhrkamp, S. 289-315 Beck, U.; Bonß, W.; Lau, Chr., 2001: Theorie reflexiver Modernisierung – Fragestellungen, Hypothesen, Forschungsprogramme. In: Beck, U.; Bonß, W. (Hrsg.): Die Modernisierung der Moderne. Frankfurt a. M.: Suhrkamp, S. 11-59. Böschen, S., 2004: Reflexive Wissenspolitik: Zur Formierung und Strukturierung von Gestaltungsöffentlichkeiten. In: Bogner, A.; Torgersen H. (Hrsg.): Wozu Experten? Wiesbaden: VS Verlag für Sozialwissenschaften (im Erscheinen) Collingridge, D., 1980: The Social Control of Technology. New York: St. Martin’s Press Collins, H.; Evans, R., 2002: The Third Wave of Science Studies: Studies of Expertise and Experience. In: Social Studies of Science 32, S. 235-296 Damm, R., 1999: Recht auf Nichtwissen? Patientenautonomie in der prädiktiven Medizin. In: Universitas 54, S. 433-447 Enquete-Kommission „Recht und Ethik der modernen Medizin“, 2002: Abschlussbericht. Berlin (BTDrs. 14/9020) Fischer, F., 2000: Citizens, Experts, and the Environment. The Politics of Local Knowledge. Durham, N.C.: Duke University Press Foucault, M., 2001: Die Ordnung des Diskurses. Frankfurt a. M.: Fischer Verlag Gamm, G., 2000: Nicht Nichts. Studien zu einer Semantik des Unbestimmten. Frankfurt a. M.: Suhrkamp Jasanoff, Sh., 2003: Breaking the Waves in Science Studies. In: Social Studies of Science 33, S. 389-400 Krohn, W., 2003: Das Risiko des (Nicht-)Wissens. Zum Funktionswandel der Wissenschaft in der Wissensgesellschaft. In: Böschen, S.; SchulzSchaeffer, I. (Hrsg.): Wissenschaft in der Wissensgesellschaft. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 97-118 Lau, Chr.; Böschen, S., 2003: Wissensgesellschaft und reflexive Modernisierung. In: Böschen, S.; Schulz-Schaeffer, I. (Hrsg.): Wissenschaft in der Wissensgesellschaft. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 220-235 Seite 70 Lemke, Th., 2004: Veranlagung und Verantwortung. Genetische Diagnosen zwischen Selbstbestimmung und Schicksal. Bielefeld: Transcript Liberatore, A.; Funtowicz, S., 2003: ‚Democratising’ expertise, ‚expertising’ democracy: what does this mean, and why bother? In: Science and Public Policy 30, S. 146-150 Luhmann, N., 1992: Ökologie des Nichtwissens. In: Luhmann, N.: Beobachtungen der Moderne. Opladen: VS Verlag für Sozialwissenschaften, S. 149-220 Nelkin, D., 1995: Die gesellschaftliche Sprengkraft genetischer Information. In: Kevles D.; Hood L. (Hrsg.): Der Supercode. Die genetische Karte des Menschen. Frankfurt a. M., Leipzig: Insel Verlag, S. 195-209 Rammert, W., 1997: Innovation im Netz. Neue Zeiten für technische Innovationen: heterogen verteilt und interaktiv vernetzt. In: Soziale Welt 48, S. 397-416 Rammert, W., 2003: Zwei Paradoxien einer innovationsorientierten Wissenspolitik: Die Verknüpfung heterogenen und die Verwertung impliziten Wissens. In: Soziale Welt 54, S. 483-508 Ravetz, J., 1990: The Merger of Knowledge with Power. Essays in Critical Science. London, New York: Mansell Publishing Limited Reckwitz, A., 2003: Die Grenzen des Sozialen und die Grenzen der Moderne. In: Mittelweg 36, 12 (4), S. 61-79 Stehr, N., 2003a: Wissenspolitik. Die Überwachung des Wissens. Frankfurt a. M.: Suhrkamp Stehr, N. (ed.), 2003b: The Governance of Knowledge. New Brunswick: Transaction Publishers Stehr, N., 2003c: Die gesellschaftliche Kontrolle neuer Erkenntnisse. In: Sociologia Internationalis 41, S. 113-137 Stocking, S.H.; Holstein, L., 1993: Constructing and reconstructing scientific ignorance: Ignorance claims in science and journalism. In: Knowledge: Creation, Diffusion, Utilization 15, S. 186-210 Wehling, P., 2002: Rationalität und Nichtwissen. (Um-)Brüche gesellschaftlicher Rationalisierung. In: Karafyllis, N.; Schmidt, J. (Hrsg.): Zugänge zur Rationalität der Zukunft. Stuttgart, Weimar: Metzler, S. 255-276. Wehling, P., 2003a: Reflexive Wissenspolitik: das Aufbrechen tradierter Wissensordnungen der Moderne. Anmerkungen zu Werner Rammerts „Zwei Paradoxien einer innovationsorientierten Wissenspolitik”. In: Soziale Welt 54, S. 509-518 Wehling, P., 2003b: Die Schattenseite der Verwissenschaftlichung. Wissenschaftliches Nichtwissen in der Wissensgesellschaft. In: Böschen, S.; SchulzSchaeffer, I. (Hrsg.): Wissenschaft in der Wissens- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 SCHWERPUNKTTHEMA gesellschaft. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 119-142 Wehling, P., 2003c: Das Recht auf Nichtwissen in der Humangenetik – ein „Irrläufer“ in der Wissensgesellschaft? In: Allmendinger, J. (Hrsg.): Entstaatlichung und soziale Sicherheit. Verhandlungen des 31. Kongresses der Deutschen Gesellschaft für Soziologie in Leipzig 2002. Opladen: VS Verlag für Sozialwissenschaften (CD-ROM) Wehling, P., 2004: Weshalb weiß die Wissenschaft nicht, was sie nicht weiß? Umrisse einer Soziologie des wissenschaftlichen Nichtwissens. In: Böschen, S.; Wehling, P.: Wissenschaft zwischen Folgenverantwortung und Nichtwissen. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 35-105 Wynne, B., 2002: Risk and Environment as Legitimatory Discourses of Technology: Reflexivity Inside Out? In: Current Sociology 50, S. 459-477 Wynne, B., 2003: Seasick on the Third Wave? Subverting the Hegemony of Propositionalism. In: Social Studies of Science 33, S. 401-417 Kontakt Dr. Peter Wehling Lehrstuhl für Soziologie Sonderforschungsbereich 536 „Reflexive Modernisierung“ Philosophisch-Sozialwissenschaftliche Fakultät Universität Augsburg Universitätsstraße 6, 86159 Augsburg Tel.: +49 (0) 821 / 598 - 40 74 Fax: +49 (0) 821 / 598 - 42 18 E-Mail: p.wehling@t-online.de Internet: http://www.philso.uni-augsburg.de/ «» Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 71 TA-INSTITUTIONEN UND -PROGRAMME TA-INSTITUTIONEN UND -PROGRAMME “Small technology – Big Consequences”: Building up the Dutch debate on nanotechnology from the bottom by Rinie van Est and Ira van Keulen, Rathenau Institute The debate on nanotechnology within the Dutch community is of recent time, the last two years seeing it take off slowly but steadily. In this complex arena the Rathenau Institute has played a central role, collecting data, collating thinking, building up arguments, and organising interactive activities such as workshops, focus groups, meetings and newsletters. These all led to the first major public meeting on nanotechnology entitled “Small technology – Big consequences” held on 13 October 2004, and organised in collaboration with the parliamentary Theme Commission on Technology Policy. Nanotechnology in the Netherlands is receiving political attention. This article reviews various activities of the Rathenau Institute in the field of nanotechnology and highlights their results. It also seeks to give the reader insight into the (inter)national context in which the question of nanotechnology is being debated and the factors influencing current views on the subject. 1 1995 to 1998: conception In 1995, a Dutch technology ‘foresight’ commission, the so-called Overleg Commissie Verkenningen, carried out a short study on nanotechnology. This was followed by a comprehensive foresight study between 1996 and 1998 coordinated by the Netherlands Study Centre for Technology Trends (STT), in which most relevant Dutch and Flemish nanoscientists participated (Ten Wolde 1998). This initiative eventually led to the establishment of a Dutch national nanotechnology research consortium, named NanoNed (see Box 1). Seite 72 Box 1: Research consortium NanoNed The Netherlands hosts three dedicated nanotechnology research centres: the University of Twente (with the Mesa+ research centre in microsystems technology and nanomaterials), Delft University of Technology (with the Dimes research centre on nanoelectronics) and the University of Groningen (with BioMaDe focused on bionanotechnology). These form the core of NanoNed. However, four other universities, and TNO, the Netherlands Organization for Applied Scientific Research, are also represented. NanoNed’s director is David Reinhoudt (University of Twente). NanoNed’s first research program was entitled NanoImpuls (2002) budgeted at some 45 million Euros from both public (Ministry of Economic Affairs) and private sources. A second research program is now running, budgeted at 102 million Euros of public money, which, somewhat confusingly, is also called NanoNed. Technology Assessment (TA) is an integral part of both NanoImpuls and NanoNed with up to three percent of the budget invested in TA research, coordinated by Arie Rip of the University of Twente. During its research, the STT asked itself whether discussions on societal aspects should be part of it. STT saw significant opportunities to associate the technology with societal demands. It informally consulted the environmental organisation Natuur & Milieu (Nature & Environment) on the issue, which expressed the wish to first have a discussion on whether society actually wanted nanotechnology. The Rathenau Institute was asked whether it would be able to organise a debate at the end of the STT project. For reasons unknown to the authors such a discussion did not materialise during the STT study. It was only six years later that nanotechnology was put on the Rathenau’s working program (2003-2004). Just in time (or just too late?), as 2003 saw the topic reach the public agenda. The Canadian ETC Group (Equity Erosion, Technology Transformation and Corporate Control Group) can be credited for this. 2 Spring 2003: birth In April 2003, a Member of the European Parliament told us that the ETC group and the ‘Greens’, were organising a meeting on nanotechnology, to be held in the European Parliament on June 11. Immediate cause of this seminar was the report The Big Down published by the ETC group (2003). It described the rise of nanotechnology in terms of government incentive programs, private R&D, patents and product applications and posed the legiti- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TA-INSTITUTIONEN UND -PROGRAMME mate question as to what the benefits and risks for society would be of this new technology. It also pointed at the many uncertainties with regard to the health impact of nano-particles. The Big Down contained ‘emerging’ criticism directed at nanotechnology, which reminded a commentator in Nature of the debate on genetically modified food: “Nanotechnology is set to be the next campaign focus of environmental groups. Will scientists avoid the mistakes made over genetically modified food, and secure trust for their research?” (Brumfield 2003) The ETC group also drew public attention to a workshop held in December 2001 entitled Converging technologies for improving human performance, organised by the National Science Foundation and the Department of Commerce in the United States (Roco, Bainbridge 2002). The workshop discussed how the convergence of nanotechnology, biotechnology, ICT and cognitive sciences (referred to as NBIC) could improve the physical and cognitive capabilities of humans, both individually and collectively. At that time – Spring 2003 – hardly any public debate on the social significance of nanotechnology had taken place in the Netherlands. The only people engaged were nanoscientists, commercial firms, and some social scientists involved in NanoNed. The latter were setting up a national network and creating ties with a growing international network of social researchers engaged in the burgeoning field of nanotechnology. A quick round of phone calls at the time showed that the health risks of nanoparticles were not on the policy agenda of either the Ministry of Health, Environment or Social Affairs. The Dutch branch of Greenpeace and Environmental Defence Fund (Vereniging Milieudefensie), were not even aware of the term nanotechnology. Media attention to nanotechnology was also close to zero. To conclude, at the time the 21st Century Nanotechnology R&D Act was introduced in the United States (June 2003), which demands inter alia research into the social and ethical aspects of nanotechnology, the debate on nanotechnology in the Netherlands was more or less nonexistent. This, combined with the arrival of the debate in Europe, caused the Rathenau Institute to accelerate its activities on nanotechnology and give the subject a higher priority. 3 Autumn 2003: crawling In September 2003 we wrote an internal paper covering the fields of application and related social issues involved in nanotechnology and an overview of the public debate and related TA activities in that field in various countries. In Europe, the nanotechnology debate has clearly started in Great-Britain, and was coming very slowly to the Netherlands. On the European level, the European Commission started by setting up the High Level Expert Group (HLEG) Foresighting the New Technology Wave to explore the potentials and risks of converging technologies (NBIC, see above) and its meaning for Europe’s R&D policy. The director of the Rathenau Institute, Jan Staman, was invited to join the expert group, which gave the institute a direct link to the international community involved in the societal aspects of nanotechnology. [see also the report on the HLEG’s meeting on September 14-15, 2004 in this issue, pp. 118] On June 11, 2003, the Royal Society and the Royal Academy of Engineering, commissioned by the British government, initiated a study on the possible benefits and problems which nanotechnology might introduce. Inspired by that political move, the Dutch Minister of Education requested the Royal Netherlands Academy of Sciences (KNAW) in August 2003 to launch a Working Group on the Consequences of Nanotechnology to analyse the status, further developments and social consequences of nanotechnology. In contrast to the open and consultative process in Britain, the Dutch KNAW working group was an expert committee, consisting of prominent nanoscientists and one social scientist. Based on this working group’s report the Minister would decide whether further steps should be taken. In our view the closed expert committee approach did not address the need for involving different social actors in the debate on nanotechnology and start up a dialogue. Clearly there was a task for the Rathenau Institute to fill that gap. But how to do that was not fully clear at the time. We saw a real need for a Dutch meeting to discuss the health risks of nanoparticles as this topic was receiving ever more international Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 73 TA-INSTITUTIONEN UND -PROGRAMME attention, while awareness in the Netherlands was still thin. Accordingly, we decided to organise a workshop on the issue (see 5.1). We also decided to publish the discussion paper. For this, we would make use of current reports, as those of the Economic & Social Research Council (Wood et al. 2003), and Greenpeace UK (Arnall 2003), and international studies that we knew would soon to be published. For example, our German sister organisation TAB – the Office of Technology Assessment at the German Parliament was finishing a broad study on nanotechnology (Paschen et al. 2003), and kindly allowed us to use their results before publication. Finally, a so-called NanoTeam was set up within the Rathenau Institute consisting of specialists from various distinct fields, like biomedical technology, ICT, agro-food, and communication. Its prime task was to produce a common project proposal. 4 Winter 2003/4: a concept agenda At the end of February 2004, the workshop on Opportunities and Risks of Nanoparticles was held, and the publication and project proposal were both ready. Moreover, the parliamentary Theme Commission on Technology Policy1 had shown interest in organising a public meeting on nanotechnology together with the Rathenau Institute. Publication ‘To value the very small …’ The publication was written with the help of Ineke Malsch (an experienced consultant in the field of nanotechnology), and Arie Rip (coordinator of TA activities at NanoNed). It was entitled in Dutch Om het kleine te waarderen…(Van Est et al. 2003). The Dutch verb ‘waarderen’ (to value) means on the one hand evaluate, quantify or assess, and on the other appreciate or enjoy. The title refers to the need to simultaneously look both to the societal risks and opportunities of nanotechnology. The publication received attention in various national newspapers (cf. Van Calmthout 2004), which meant that for the first time nanotechnology was introduced to a wider audience. Om het kleine te waarderen…provided an initial concept agenda for public debate, and, logically, also for the Rathenau project on nanotechnology. Table 1 summarises the main (groups) of societal issues and related dream Seite 74 and horror scenarios that the study identified. It is striking that nanotechnology touches upon so many familiar social issues, from ICT and privacy, predictive medicine, the ethics of war, and sustainability to social guidance of innovation and North-South issues. Relatively new issues related to nanotechnology include human engineering or enhancement, the (im)possibility of self-reproducing nanobots, and the borders between living and non-living material. The most current topic is the health effects of nanoparticles. Project proposal The basic idea was to organise a public event, in which politicians would play a central role. Its goal would be to find out whether it would be necessary to organise a large public debate on nanotechnology (like the debate on genetically modified food) in the Netherlands. And if not, what (if any) kind of actions should be taken? Om het kleine te waarderen... was positioned as a background paper in preparation of such a public meeting, to be organised in Autumn of 2004 (see 6). We used Table 1 to structure our project. Consequently, we organised workshops on the health effects of nanoparticles (5.1), nanoelectronics (5.2), and biomedical nanotechnology (5.3). Around military nanotechnology no workshop was set up, but the issue was taken up as part of a study on military technology in general. Since agrofood is an important Dutch industrial and R&D sector, but was treated only in a very concise manner in the study, it was decided to also organise a workshop on nanotechnology in the agrofood sector (5.4). Table 1 shows a great many potential controversial issues that surround nanotechnology. To get an idea on how people perceive nanotechnology, several focus groups with Master students were organised (5.5). The goal of the workshops was to involve nanoscientists, industry, NGOs, social scientists, and policymakers in the social debate on nanotechnology. An electronic newsletter was set up that summarises project activities and publishes the latest news on nanotechnology by other (international) organisations. In this way we tried to engage as many people as possible in the itinerary towards the first Dutch public debate on nanotechnology in the Autumn of 2004. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TA-INSTITUTIONEN UND -PROGRAMME Table 1: Societal issues and dream and horror scenarios for different fields of applications in nanotechnology Field of application Nanomaterials / industrial production Societal issue Health- and environmental issues Self-(re)production Nanoelectronics Privacy Bio-electronics Engineering of humans Nanotechnology in medical sphere Military technology General / innovation Universal assembler / personal fabrication ‘Smart’ products and environments World without ‘handicaps’ Grey Goo Coupling to the internet (free from mortal body) Early diagnostics Tailored medicine Arms race Safe world Ethics of war Zero-casualty / remote control war ‘Invincible warriors’ Equal distribution of profit and wealth Equal distribution of wealth Societal steering Growth of economy and employment Engineering of humans Patents Big Brother Discrimination of ‘handicaps’ Dehumanisation and alienation Genetic coercion and / or exclusion Split in health care New weapons and arms race / proliferations (use by terrorists) Killer robots / space war Cyber soldiers Monopolisation of knowledge and profit Nanodivide Technological determinism Shrinkage of economy and employment Van Est et al. 2003, p. 54 5 Spring 2004: first steps In this section we highlight some outcomes of the various preparatory activities.2 In particular, the many and distinct societal uncertainties involved in various fields of application of nanotechnology are illustrated. 5.1 Horror scenario Nanoasbestos Mixture of living and nonliving Predictive medicine International development Steering / dialogue Economy Source: Dream scenario Sustainability Nanoparticles – many unknowns about health effects The workshop Opportunities and Risks of Nano-particles was held on February 17, 2004 in The Hague and confronted nanoscientists for the first time in public with the attitudes on this emerging political topic. During the workshop it was clear there were many uncertainties as to health effects of nano-particles. And there is uncertainty still as to what artificially created nano-particles might do in the body. For example, the mechanism by which aerosols cause damage to the lungs is still unknown. Precautionary measures have been taken for researchers in laboratories and production employees who work with nanoparticles, but it is not yet known whether these are effective. An additional problem is that it is not clear how to measure nano-particles. It is also uncertain whether the standard rule applicable in toxicology – that risk is the product of the level of exposure and intrinsic danger – applies to nano-particles. Finally, current clinical studies may be not suited to deal with the health effects of nano-particles. 5.2 Nanoelectronics – uncertainty about consumer demands Surprisingly, privacy was not the main issue at the workshop Nano-electronics and ambient intelligence, held on March 25, 2004 in Eindhoven. The most important issue put forward here was the uncertainty about consumer demands. For decades technology development in Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 75 TA-INSTITUTIONEN UND -PROGRAMME the electronics sector has been described by Moore’s law. Accordingly, roadmaps have been designed up to 2015 (and beyond) that almost predetermine technological progress for the coming decade. In sharp contrast to the predictability of the technology, it is impossible to predict which applications will end up being a commercial success. This means huge investments must go into product development without the certainty that it will produce results. Innovation is thus economically vulnerable. Moreover, society and government are confronted with an endless stream of unforeseen and potential culturally ‘radical’ innovations, like the mobile phone. 5.3 Health care – unclear relation between (early) diagnosis and disease Early diagnostics and tailored medicines are the two dream scenarios mentioned in Table 1. The first scenario got most of the attention in the workshop on Biomedical nanotechnology, which was organised in Utrecht on July 7, 2004. Combined with early detection of disease risks based on genetic profiling (DNA diagnostics), molecular imaging (nanodiagnostics) seems to offer the possibility to detect diseases earlier and more effectively than hitherto and fight them with fewer side effects. During the workshop several social risks were identified. Early diagnostics may lead to both a far-reaching medicalisation of normal life, as well as unnecessary medical interventions. Defects are constantly occurring in the body which the body itself repairs. In the background to this problem is the fact that there is no unequivocal relationship between a defect occurring and the occurrence of a disease. The earlier the diagnosis, the less clear the relationship. A related issue is reliability. Who would be liable if a false prediction were to be made? Liability issues could lead to only a limited number of tests being offered. Strict admission procedures apply to (the use of) new medicines and new treatment methods. Applicable protocols generally focus on clinical practice: the treatment of the actual disease. It is still unknown how the clinical trials should be handled with regard to early diagnostics. Seite 76 5.4 Agro-food sector – uncertainty about social acceptance Among the participants of the workshop Nanotechnology in the agrofood sector held on April 8, 2004 in Wageningen, there was huge uncertainty about the social acceptance of food in which nanotechnology has been applied. This could be met with the same rejection as genetically modified food because nanotechnology also involves ‘artificial’ intervention in ‘natural’ food cycles. Furthermore, it is unclear what the possible health risks of nanoparticles in food are. They are often produced differently to particles occurring in nature, which could mean they are less degradable. It was also said that several realistic risks lurk behind the socalled Green Goo scenario, which is the fear that the use of self-reproducing nanoparticles in nature may lead to an artificial micro-organism that could alter the environment into a green, uniform mass. 5.5 Public perceptions – positive expectations and worries about regulation There is much speculation as to how lay people see nanotechnology, but not much is known. To allow a more informed discussion, three focus groups were organised with Master students. In the study The double message of nanotechnology: research into rising public perceptions, Hanssen & Van Est (2004) compare the results of the Dutch focus groups with focus groups organised in the United Kingdom and Denmark, and public surveys held in the United States and Europe. The following two main features emerged: - Limited familiarity, positive expectations Quantitative research shows that the general public in Europe and the United States has limited familiarity only with nanotechnology. A British and American survey showed that 29 and 32 percent of people questioned, respectively, knew what nanotechnology was. The public is mainly positive towards nanotechnology: 68 percent of the British expect nanotechnology to improve the quality of life and 40 percent of Americans see more advantages than disadvantages. These findings are confirmed by the results from Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TA-INSTITUTIONEN UND -PROGRAMME the focus groups in Denmark, the Netherlands and the United Kingdom. Participants see possibilities to fight diseases, and for a better environment. They hope that nanotechnology will be applied to these ends. Not many people are waiting for improved or cheaper consumer goods. - Uncomfortable with regulation Next to positive expectations, people also have worries. In particular, the focus group discussions showed that people are not comfortable with the regulations on and control of nanotechnology. The industry’s growing influence on how technological developments are controlled play a role in this. People also worry about the risk of nanoparticles ending up in the body or environment, a new arms race and the loss of privacy through new electronic methods of detection. Finally, many people fear that the benefits of nanotechnology will only benefit the West and will ignore the Third World. Recommendations of the KNAW Working group At the time the public meeting on nanotechnology was held, various committees that had been set up over the previous year to study the societal risks and opportunities of nanotechnology had finished their job. In the UK the Royal Society and the Royal Academy of Engineering (2004) presented their advice to the government in July 2004. The report expects that the concerns in the short to medium term will focus on two basic questions: (1) who controls and (2) who benefits from uses of nanotechnologies? Therefore, it is recommended that “…a constructive and proactive debate about the future of nanotechnologies should be undertaken now – at a stage that it can inform key decisions about their developments and before deeply entrenched or polarised positions appear.” In August, the Royal Netherlands Academy of Sciences' working group Consequences of Nanotechnology (KNAW 2004) came up with similar types of recommendations (see Box 2). Box 2: Recommendations of KNAW Working Group • The government should develop new regulations • • • • within the existing legal frameworks for introduction of new nanoparticles in society. More research should be done on the toxicological qualities of nanoparticles and their kinetics in organisms and environment. A moratorium on nanoscience and technology is very undesirable based on the principle of proportionality. The Ministries of Education, Culture & Science and Economic Affairs should encourage the general public to be informed on nanoscience and nanotechnology. It is crucial that the general public is actively involved in the discussion on the future of scientific research and its applications. The government should start a structured open discussion on risks and benefits of nanoscience and technology based on the lessons learned on the introduction of genetically modified food. 6 Autumn 2004: Public meeting in Parliament ‘Small technology – Big consequences’ The first public meeting on nanotechnology in the Netherlands was held on Wednesday afternoon October 13, 2004 in the Dutch parliament building in The Hague under the title Small technology – Big consequences. The goal of the meeting was to inform politicians and other social actors about developments in the field of nanotechnology, and discuss related relevant political and societal questions. One of the objectives of the Parliamentary Theme Commission on Technology Policy which was involved in organizing the meeting was to experiment with new types of methods. Instead of opting for the classical hearing, it was chosen to organise four interactive debates between stakeholders from different societal domains, like social scientists, nanoscientists, businesspeople, societal organisations, government, politics, and the public. These different groups of stakeholders got a distinct place within the debating arena (see Photo). In this way the public meeting was thought to present an early reflection of the rising public debate. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 77 TA-INSTITUTIONEN UND -PROGRAMME No sense of urgency, lack of involvement Some 120 participants debated the following four themes: • Nanoscience or nanofiction? (Debate about the relevance of nanoscience, and about which expectations are and are not realistic) • Nanotechnology, motor of the Dutch knowledge economy? (Debate about the relevance of nanotechnology for the Dutch economy, and how innovation can or should be fostered) • Nanotechnology in the same track as biotechnology? (Debate about what societal issues are related to nanotechnology, and whether the debate on nanotechnology will become polarised) • What to do next? Big expectations, uncertain future The public meeting showed that nanotechnology is expected to face a big, but uncertain future, since it is – at the moment – not clear in which directions it will develop. The extensive and far-reaching promises of nanotechnology make it hard to get a comprehensive and concrete picture of it, and develop a well-grounded opinion on it. But at the same time, developments in this field are felt to be going very fast. To seize the opportunities and problems of social acceptance, as in the case of GM food, it is important to involve citizens and NGOs already now in the debate. It is the role of the government to facilitate an open debate between politics, citizens, firms, science and societal organisations. Such a debate should not only focus on risk issues, but should pay attention to ethical dilemmas and beliefs too. Seite 78 Few people were in favour of organising an extensive public debate, like the Dutch debate on GM food “Eten en Genen”, which was held in 2001. There exists too little awareness on nanotechnology among citizens to justify that, moreover the issue at the moment lacks a sense of urgency. In particular, this was proven by the absence of many NGOs at the public meeting, although a lot of effort was put in beforehand to get them there. In particular politicians regretted that only the 'in-crowd' was present at the meeting, and expressed the need for more involvement of societal organisations, since it would offer politicians a good view of the pros and cons of nanotechnology. 7 Concluding remarks “The starting point is to acknowledge that we don’t know what the risks of nanotechnology are, and we don’t know what the benefits are, and we won’t for some time.” (Roger Kasperson; quoted in Weiss 2004) This article described how over the last year the public debate on nanotechnology in the Netherlands has been built up from the bottom. The first activities made clear that nanotechnology is still at an early stage of development, but loaded with expectations and shrouded in uncertainty. This conclusion came out of the public meeting, and was illustrated by the preparatory activities (see 5): • many unknowns about health effects of nanoparticles; • uncertainties about consumer demands and societal effects in the field of nanoelectronics; • uncertainty about social acceptance of food products made by nanotechnology; • unclear relationship between early diagnosis and disease. Risk communication expert Kasperson (see quote above) argues for the acknowledgement of these many unknowns and uncertainties about the risks and benefits of nanotechnology and take them as a starting point for further debate and measures. Policymakers, however, have a doubtful track record of acknowledging societal risks related to technology in advance. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TA-INSTITUTIONEN UND -PROGRAMME In cases like asbestos, nuclear power and GM foods, outside public pressure was needed to get such issues on the political agenda. This is fatal to public trust, since the actors involved are perceived to have failed to act in the public interest, by only looking at the benefits and not at the risks. The challenge for the future, therefore, is to prevent the same mistakes, and address the benefits, risks and uncertainties involved in due time. One of the ways the Rathenau Institute will take up that challenge is to select five concrete applications that will likely come on the market within the coming ten years, and start a stakeholder dialogue on the societal issues at stake, and what appropriate measures should be taken. In this way the discussion on nanotechnology may become more concrete, which may increase the involvement of NGOs and citizens in this debate. This in its turn may help politicians obtain a clear picture of the pros and cons of nanotechnology. Notes 1) Besides Permanent and Temporary Commissions, the Dutch Lower House currently has two so-called Theme Commissions: one on the Ageing Society, the other on Technology Policy. These Theme Commissions seek to take a more reflexive, long-term, and pro-active stance towards a certain topic or theme. 2) This paragraph is based on an internal paper written by Frank Biesboer, which summarises the main results of the preparatory workshops. References Arnall, A.H., 2003: Future technologies, today’s choices. Nanotechnology, artificial intelligence and robotics; a technical, political and institutional map of emerging technologies. London: Greenpeace Environmental Trust Brumfield, G., 2003: A little knowledge… Nature, Vol. 424 (17 July), pp. 246-248 ETC Group, 2003: The Big Down: Atomtech – Technologies converging at the nano-scale. Winnipeg, Canada: ETC Group Hanssen, L.; van Est, R., 2004: De dubbele boodschap van nanotechnologie. Een onderzoek naar opkomende publiekspercepties. Den Haag: Rathenau Institute KNAW Werkgroep gevolgen nanotechnologie, 2004: Hoe groot kan klein zijn? Enkele kanttekeningen bij onderzoek op nanometerschaal en mogelijke gevolgen van nanotechnologie. Amsterdam: Koninklijke Nederlandse Akademie van Wetenschappen Paschen, H. et al., 2003: TA-Projekt Nanotechnologie: Endbericht. Berlin: Büro für TechnikfolgenAbschätzung beim Deutschen Bundestag (TAB). Arbeitsbericht Nr. 92 – Berichterstatter-Exemplar Roco, M.C.; Sims Bainbridge, W. (eds.), 2002: Converging technologies for improving human performance. Arlington, Virginia: National Science Foundation / Department of Commerce Royal Society & Royal Academy of Engineering, 2004: Nanoscience and nanotechnologies: opportunities and uncertainties. RS Policy document 19/04 (July 2004) Ten Wolde, A. (ed.), 1998: Nanotechnology. Towards a molecular construction kit. Den Haag: STT Netherlands Study Centre for Technology Trends Van Calmthout, M., 2004: Nanoscience. Het piepkleine risico. De Volkskrant 1-5-2004 Van Est, R.; Malsch, I.; Rip, A., 2004: Om het kleine te waarderen… Een schets van nanotechnologie: publiek debat, toepassingsgebieden en maatschappelijke aandachtspunten. Den Haag: Rathenau Institute, Werkdocument 93 Weiss, R., 2004: Nanotech poses big unknown to science; as world shrinks concerns multiply. In: Washington Post, February 1, 2004 Wood, S.; Jones, R.; Geldart, A., 2003: The social and economic challenges of nanotechnology. London: Economic & Social Research Council Contacts Dr. Ir. Rinie van Est Drs. Ira van Keulen Rathenau Institute P.O. Box 85525, 2508 CE The Hague, The Netherlands Tel.: +31 (0) 70 / 342 1542 Fax.: +31 (0) 70 / 363 34 88 E-Mail: q.vanest@rathenau.nl i.vankeulen@rathenau.nl Internet: http://ww.rathenau.nl Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 « Seite 79 TA-INSTITUTIONEN UND -PROGRAMME Bundesweiter Diskurs: Momentaufnahme Nachhaltigkeit und Gesellschaft Diskursbericht von Christiane Averbeck und Kira Crome, Rat für Nachhaltige Entwicklung, sowie Arved Lüth und Alexander Nick, IFOK „Deutschland fehlt ein Zukunfts-TÜV“, erklärte Volker Hauff, der Vorsitzende des von Bundeskanzler Schröder einberufenen Nachhaltigkeitsrates auf der Abschlussveranstaltung zum Diskurs „Nachhaltigkeit und Gesellschaft“ am 23. Juni 2004 in der Katholischen Akademie in Berlin. Mit 200 Vertretern aus Wirtschaft, Politik und Zivilgesellschaft diskutierten Mitglieder des Rates für Nachhaltige Entwicklung die Ergebnisse des bundesweiten Diskurses, der von Januar bis Juni diesen Jahres die Verankerung von Nachhaltigkeit in der Gesellschaft im Detail untersuchte. Der abschließende Bericht „Momentaufnahme – Nachhaltigkeit und Gesellschaft“ zeichnet ein detailliertes und differenziertes Bild nachhaltiger Entwicklung in Deutschland. 1 Ziele und Vorgehen des Diskurses Die Bundesregierung berichtet zur Fortschreibung ihrer Nachhaltigkeitsstrategie, Unternehmen schreiben Nachhaltigkeitsberichte – wie aber lässt sich eine Gesellschaftsbilanz zur Nachhaltigkeit erstellen? Der Rat für Nachhaltige Entwicklung der Bundesregierung hat das Institut für Organisationskommunikation (IFOK) beauftragt, einen solchen Bericht anzufertigen. Dieser Bilanzbericht ist neuartig, weil es bislang keine etablierten Berichtswege in der Gesellschaft gibt. Um dennoch eine Aussage zum Verankerungsgrad nachhaltiger Entwicklung in Deutschland treffen zu können, wurde die Struktur eines moderierten Diskursprozesses als Verfahren gewählt. Ziel war es, ein neues Format für Diskussion und Berichterstattung zu finden, das Erfahrungen, Erfolge und Misserfolge, Erwartungen und Stimmungen aus unterschiedlichen gesellschaftlichen Gruppen, von Akteuren aus Wirtschaft und Verbänden, Initiativen und Wissenschaft erfasst. Ziel und Ergebnis sind mit dem Bild einer „Mo- Seite 80 mentaufnahme“ am besten beschrieben (IFOK, RNE 2004). Folgende Fragen standen im Mittelpunkt des Diskurses: • Inwieweit ist Nachhaltigkeit heute Kompass für gesellschaftliche Aktivitäten und wovon hängt die Fähigkeit der gesellschaftlichen Akteure ab, sich nachhaltig zu verhalten? • Wo unterstützt, wo behindert politisches Handeln die Aktivitäten der gesellschaftlichen Akteure und wo hat die Gesellschaft Lösungsansätze, die denen der Politik überlegen sind? Ingesamt 1.100 Menschen wurden in einer ersten Umfrage angesprochen: Meinungsführer aus Wirtschaft, Gesellschaft, Kultur und Medien, Nachhaltigkeitsexperten, junge Menschen („Generation N“) und so genannte Pioniere, die durch ihr persönliches Engagement die Entwicklung in Umweltschutz und Nachhaltigkeit in der Vergangenheit maßgeblich geprägt haben. Ihre Beiträge und Kommentare haben Eingang in den Abschlussbericht gefunden. 200 Vertreter wurden zum Diskurs geladen, der in drei verschiedenen Foren durchgeführt wurde. Im Forum Leadership kamen Führungspersönlichkeiten zu Wort, die im Spannungsfeld von Globalisierung, wirtschaftlichen und sozialen Rahmenbedingungen ein Bild von den Möglichkeiten zur Umsetzung von Nachhaltigkeit zeichneten. Im Forum Experten diskutierten diejenigen miteinander, die sich beruflich oder ehrenamtlich mit dem Thema Nachhaltigkeit beschäftigen und die die Nachhaltigkeitskompetenz in der Gesellschaft repräsentieren. Im Forum Generation N schließlich ging es um spezifische Sichtweisen der jungen Generation auf die Themen Nachhaltigkeit und Generationengerechtigkeit. 2 Wo steht der Nachhaltigkeitsdiskurs in Deutschland? Die Bilanz fällt ernüchternd aus: Nachhaltigkeit ist in Deutschland nicht verankert. Dennoch gibt es Anlass zu Zuversicht und Optimismus: Nachhaltigkeit lebt in einer Nische. Ihre Akteure bilden eine produktive, kreative Gemeinschaft, die sich – wie es in keinem anderen Politikfeld der Fall ist – an Langfristigkeit und Globalität gesellschaftlicher Entwick- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TA-INSTITUTIONEN UND -PROGRAMME lung orientiert. Das Denken in diesen Dimensionen zeichnet die Nachhaltigkeitsszene aus und verleiht ihr ein bisher verkanntes Potenzial zur Modernisierung, Transformierung und Reformierung von Gesellschaft und Wirtschaft. Wirtschaftliche, soziale, ökonomische, aber vor allem integrierte Innovationen als Bausteine für Zukunftsgestaltung sind von hier zu erwarten. Die Nachhaltigkeitsszene fußt auf Selbstorganisation und gehorcht den Spielregeln zivilgesellschaftlicher Akteure. Es zeigte sich, dass die Nachhaltigkeitsstrategie der Bundesregierung verhältnismäßig wenig Resonanz bei den Akteuren findet. Insgesamt schätzt die Nachhaltigkeitsszene sowohl die Arbeit der Regierung als auch ihre eigene sehr kritisch ein – kritischer als dies durch Außenbewertung geschehen ist (beispielsweise in einer aktuellen Studie des World Economic Forum, gemäß der Deutschland in punkto Nachhaltigkeit führend ist). 3 Themen und Handlungsfelder Nachhaltigkeit ist in Deutschland nicht verankert, aber es wird ihr ein enormes Potenzial bescheinigt. Der Diskurs beleuchtet Missstände, die es zu überwinden gilt, sowie Suchräume und Handlungsfelder, um dieses Potenzial besser nutzen zu können. Die wichtigsten Aussagen bzw. Ergebnisse der Diskussionen in den drei Foren sowie der Umfrage sind im Folgenden dargestellt. Die Bewertung der Ergebnisse aus der Sicht des Nachhaltigkeitsrates schließt sich daran an. Nachhaltigkeit als gesellschaftlicher Such-, Lern- und Gestaltungsprozess – wohin? Wie Nachhaltige Entwicklung funktioniert, nämlich als gesellschaftlicher Such-, Lern- und Gestaltungsprozess, ist klarer als die Beantwortung der Frage, welche Richtung einer Entwicklung als nachhaltig gilt. Die Schwierigkeiten der „Nachhaltigkeitsstrategie der Gesellschaft“ sind, hierbei Richtung und Orientierung zu finden und sich darauf zu fokussieren. Das Motto „Lasst 1000 Blumen blühen“ diente hier mehrfach als Selbstbezeichnung – das Gegenteil wäre ein staatliches Apollo-Projekt der Nachhaltigkeit. Gemeinsame Vision zur Gestaltung der Zukunft nicht erkennbar Das „big picture“ der Nachhaltigkeit ist nicht erkennbar. Es fehlt an Visionen, wie eine Welt aussieht, die nachhaltiger ist als unsere bestehende. Es ist nicht klar, wie eine Wirtschaft oder Arbeitswelt aussehen soll, die nachhaltiger produziert. Es ist fraglich, wie eine kinderlose Gesellschaft sich nachhaltig entwickeln will. Es ist ungewiss, ob wir in Zukunft Wachstum oder Schrumpfung managen werden. Zur Beantwortung der Frage „Was ist nachhaltig...?“ Die Diskussion hat gezeigt, dass Orientierung und immer wieder Orientierung gefragt ist. Zu kurz gesprungen schienen viele der Versuche in der Vergangenheit, nachhaltige Lebensstile zu definieren. Zu kurz gesprungen sind auch „Weniger ist mehr“-Lifestyle-Parolen zu einer Zeit, in der „Mehr für weniger!“ die erfolgreichste Parole ist. Es schimmert durch, dass es wenig Sinn hat, im halböffentlichen Privatleben Symbolpolitik zu betreiben und an einer anderen Stelle dafür umso weniger nachhaltig zu sein. Kurz: Niemand ist nur nachhaltig, niemand ist aber auch nur nicht-nachhaltig. Die Frage nach dem „Was“, der inhaltlichen Bestimmung der Nachhaltigkeit, bleibt. Zur Orientierung darüber wurden zwei Strategien als aussichtsreich bewertet: Die Identifizierung von eindeutig nichtnachhaltigen Produkten, Verhaltensweisen, Politiken und Dienstleistungen (im Sinne eines Schwarzbuchs der Nachhaltigkeit) und die Übersetzung von Fach- in Alltagswissen. Großes Potenzial wurde in der Ausgestaltung von Anreizen für nachhaltiges Verhalten gesehen – auch hier geht der Adressatenkreis über die Politik hinaus bzw. kann die Politik in vielen Fällen gar nicht alleine tätig werden. Neuer Politikstil der Nachhaltigkeit entsteht Die Beteiligungskultur und die Offenheit des Konzeptes Nachhaltigkeit hat ein neues, erweitertes Politikverständnis geprägt. Politik wird danach nicht mehr nur als eine Sache von Berufspolitikern verstanden, sondern bezieht einen erweiterten Kreis von Interessierten und Akteuren mit ein. Nachhaltigkeit muss jenseits Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 81 TA-INSTITUTIONEN UND -PROGRAMME der mandatierten Politik organisiert werden; sie ist nicht allein staatliche Aufgabe. Ihre eigentliche Kraft entwickelt sich dort, wo Politik, Zivilgesellschaft und Wirtschaft in einem neuen Sinne für die Zukunftsentwicklung zusammenwirken. Durch diesen neuen Politikstil der Nachhaltigkeit wird die gesellschaftliche Problemlösungskompetenz beträchtlich erhöht. Neue Debatte über Verantwortung und Legitimität Die Bemühungen um eine nachhaltige Entwicklung setzen eine neue Verteilungs- und Legitimitätsdebatte auf die gesellschaftliche Agenda – es geht um die Verteilung von und die Teilhabe an Verantwortung für die Zukunft. Neue Grenzen der Verantwortung werden ausgehandelt. Das betrifft die Aufgabenteilung zwischen Unternehmen, Politik, Verwaltung und Zivilgesellschaft. Damit stellen sich auch neue Fragen der Legitimität und Effizienz von Verfahren und einzelner Akteure. Bewusstseinswandel aussichtslos? Ein Bewusstseinswandel in Richtung Nachhaltigkeit wurde als zentrales Handlungsfeld identifiziert – aber es ist in vielen Fällen weder klar, wie die Richtung konkret aussehen könnte, noch, wie der Bewusstseinswandel vollzogen werden soll. Dass er möglich sei, wurde sogar als sehr unwahrscheinlich eingeschätzt. Die Diskussionen führten häufig zu einem Ruf nach Wertewandel bzw. einer „ehrlichen Debatte“, die die entscheidenden Akteure (Medienwirtschaft, Bildungseinrichtungen, Marketing, Wissenschaft) zusammenführt und Wertefragen offen, aber ergebnisorientiert diskutiert. Junge Generation wird zu wenig beteiligt Die junge Generation möchte stärker in die Dialoge zur Nachhaltigkeits-Strategie einbezogen werden. Hierfür fehlen Foren und Beteiligungsmodelle; es wurden Scheinbeteiligungen in gängigen Konsultationsverfahren der Bundesregierung und der EU-Kommission beklagt. Fehlende sektorale Mobilität in Deutschland In der Diskussion wurde auch die mangelhafte Durchlässigkeit der gesellschaftlichen Sektoren kritisiert. Es fehlt an Initiativen, die sektorale Grenzgänger dem jahrzehntelangen Marsch durch die Institutionen vorzieht. Nachhaltigkeit funktioniert nur mehrsektoral und braucht Köpfe, die die Spielregeln bzw. Rahmenbedingungen verschiedener Sektoren kennen. Neue Führungsqualitäten in Politik, Wirtschaft und Gesellschaft gefragt Weitsichtige Führungsqualitäten fehlen nicht nur in vielen Unternehmen, sie fehlen auch in der Zivilgesellschaft. Im Diskurs wurde wiederholt darauf hingewiesen, dass es immer wieder Entscheidungssituationen gibt, in denen die Spielregeln so weiterentwickelt werden müssten, dass Organisationen und Personen nachhaltig handeln könnten, ohne kurzfristig einen zu starken Nachteil davonzutragen. In vielen Fällen fehlten zusätzlich der Anschluss an die internationalen Diskussionen oder internationale Netzwerke – selbst unter Führungskräften sei hier ein Defizit erkennbar. Seite 82 4 Bewertung der Ergebnisse durch den Nachhaltigkeitsrat Die Momentaufnahme stimme optimistisch, das stellt der Rat für Nachhaltige Entwicklung in seinen Schlussfolgerungen zu den Ergebnissen der Momentaufnahme ’Nachhaltigkeit im Visier’ fest (RNE 2004). Dies jedoch nicht, weil die Zukunftsfähigkeit schon auf einem guten Weg sei, sondern weil sich kreative und initiativreiche Menschen beteiligt haben. Im Diskurs seien viele interessante und neue Anregungen für eine Nachhaltigkeitspolitik entwickelt worden – Anregungen, die Bausteine für eine Zukunfts-Zuversicht seien. Der Diskurs habe gezeigt, wie wichtig es sei, solchen Diskussionen Raum zu geben. Und so empfiehlt der Rat der Bundesregierung auch in Zukunft, in ihrer Berichterstattung zur Nachhaltigkeit eine gesellschaftliche Bilanz zur Nachhaltigkeit vorzusehen. Eine notwendige Auseinandersetzung mit den Widersprüchen und Zielkonflikten im Konzept der Nachhaltigkeit generiere Neues, das zu einer Weiterentwicklung führen würde. Erleichterungen und Ermutigungen für den Alltag der Initiativen und das Verwirklichen Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TA-INSTITUTIONEN UND -PROGRAMME neuer Ideen seien notwendig, um das Konzept der Nachhaltigkeit zu stärken und voranzubringen. Eine Kultur der Anerkennung stärke bürgerschaftliches Engagement, ein Engagement, das eine wichtige Voraussetzung für die Weiterentwicklung einer Gesellschaft darstelle. Eine große Bedeutung misst der Rat der Bildungspolitik bei. Sowohl Schulbildung, berufliche Bildung als auch die informelle Bildung, Medien, das Fernsehen, Stiftungsprojekte und Museen seien gefragt, durch ihre Bildungskonzepte das Thema Nachhaltigkeit weiterzuentwickeln und den Menschen zu vermitteln. In diesem Zusammenhang erhofft sich der Rat einen signifikanten deutschen Beitrag zu der von 2005 bis 2014 andauernden UN-Dekade „Bildung für nachhaltige Entwicklung“. Nach Ansicht des Rates ist Deutschland noch nicht auf einem guten Weg in Richtung einer nachhaltigen Entwicklung und dies, obwohl eine Renaissance der Werteorientierung der Momentaufnahme zu entnehmen sei und obwohl es ein hohes Maß an Unzufriedenheit mit der Werteorientierung des gesellschaftlichen Lebens gebe. Künftig sollte deutlicher werden, dass mit dem Thema Nachhaltigkeit kulturelle und gesellschaftliche Werte verbunden sind, die zu einem Motor für zukünftige Entwicklungen werden können. Die Momentaufnahme zeige, so der Rat, dass viele Menschen die Idee der Nachhaltigkeit aufgreifen und sie mit kreativen und engagierten Initiativen in Bewegung halten – sowohl in der Wirtschaft, als auch in vielen Teilen der Zivilgesellschaft. Bei der Gestaltung einer umwelt- und sozialgerechteren Zukunft spielen diese Aktivitäten eine viel wichtigere Rolle als in der Politik oft wahrgenommen werde. Dennoch befinde sich die Nachhaltigkeitsdebatte in einem lähmenden Spagat zwischen der Unzufriedenheit mit dem Bestehendem und der Befürchtung von Zukünftigem. Die Erkenntnis der Nicht-Nachhaltigkeit werde begleitet von einer Angst, unmissverständlich aufzuzeigen, was sich Gegenwartspolitik noch leisten könne und was nicht. Sie stehe den gesellschaftlichen Triebkräften entgegen, die Generationengerechtigkeit im Blick haben und sich für eine innovative Zukunftsgestaltung einsetzen. Diese Kräfte und Impulse seien eine Kreativitätsreserve unserer Gesellschaft für Nachhaltigkeit. Ihr Potenzial dürfe nicht gering geschätzt werden und als verträumter Umweltdiskurs oder als Zukunftsmoralismus abgetan werden. Die Nachhaltigkeitsdebatte um Ziele und Handlungsansätze offenbart nach Ansicht des Rates an vielen Stellen große Orientierungsdefizite. Viele gute Schritte in die richtige Richtung würden durch Widersprüche, Gegenkräfte und Gleichzeitigkeiten konterkariert. Als Beispiel wird die Wirtschaft genannt: Einige führende Unternehmen integrieren Nachhaltigkeit in ihre Unternehmenspolitik. Mit Initiativen zur Nachhaltigkeitsberichterstattung und zur integrierten Produktentwicklung werden sie zum Vorreiter und zu einem treibenden Faktor in der Gesellschaftsbilanz zur Nachhaltigkeit. Gleichzeitig aber werde Nachhaltigkeit in der Breite der Wirtschaft als „Modethema“, gut für bessere Zeiten, verstanden und kaum aktiv aufgefasst. Viele Unternehmensaktivitäten verleihen einfach den bestehenden Umweltmaßnahmen ein neues Etikett und seien nicht in der strategischen Unternehmensplanung verankert. Vielfach wurde in den Diskussionen bemängelt, dass der Begriff Nachhaltigkeit inhaltsleer zur Worthülse verkomme. Der Rat sieht das jedoch nicht nur negativ, vielmehr könne der häufige Gebrauch des Wortes, auch wenn er unsachgemäß erscheine, zu einem Anknüpfungspunkt für die politische Diskussion werden, um die es eigentlich gehe. Dem Befund der begrifflichen Unklarheit stehe die zur Hoffnung Anlass gebende Beobachtung entgegen, dass die Diskussionen um Nachhaltigkeit ein Reservoir an Lösungsideen öffnen könnten. Wie wenige andere Debatten fordere die Nachhaltigkeitsdiskussion eine Kompetenz, die weit über die fachliche Qualifikation für eine Sachfrage hinausgehe. Jeder Nachhaltigkeitsexperte sei immer auch in seinen privaten Rollen als Bürger, Nachbar, Arbeitnehmer u. a. gefragt. Nachhaltigkeit sei daher per se dialogisch und eröffne viele Wege für eine partizipative Zukunftsgestaltung. Parallel dazu gründen sich branchenübergreifende Initiativen, in denen Unternehmen über die eigene Marktverantwortung hinaus neue Allianzen mit gesellschaftlichen Akteuren organisieren. Diese widersprüchlichen Trends wiesen auf ein Orientierungsdefizit, dass zugleich eine reichhaltige Gestaltungsreserve für Nachhaltigkeit biete. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 83 TA-INSTITUTIONEN UND -PROGRAMME 5 Nachhaltigkeit als Suchraum Wie die politische Diskussion in Zukunft aussehen wird, ist heute noch nicht abzusehen. Nach Ansicht des Nachhaltigkeitsrates habe sich aber gezeigt, dass der öffentliche Diskurs um Nachhaltigkeit jenseits der Debatte um Begrifflichkeiten als ein Such- und Lernprozess geführt werden müsse, in dem Problemerkenntnis, Ziele und Handlungsansätze diskutiert werden. Weil die Suche viele mögliche Wege biete, erscheint ein solches Nachhaltigkeitsverständnis als schwierige Herausforderung. Es eröffne aber zugleich eine Chance für einen neuen Zugang zum „Management der öffentlichen Dinge“: Im Sinne eines Suchraums verstandene Nachhaltigkeitspolitik will nicht klassische Verfahren ersetzen, sondern ergänzen und für alle Nachhaltigkeitsinteressierten und Akteure öffnen. Nicht weniger Politik sei nötig, sondern mehr: mehr Politik von Nichtpolitikern, mehr Zugang und Teilhabe von Akteuren, Partizipation und Transparenz. Der Diskurs soll weitergehen – das Format des Diskurses sollte weiterentwickelt werden. Das war der Wunsch der Teilnehmer des Diskurses, dem sich der Nachhaltigkeitsrat anschließt. Es gibt keinen anderen Raum, in dem Zukunftsfragen so umfassend und fruchtbar diskutiert werden können wie im Rahmen des gesellschaftlichen Diskurses zur nachhaltigen Entwicklung. Wichtig für eine Fortsetzung erscheint nach Ansicht des Rates vor allem eine thematische Fokussierung – und die Überbrückung der Kluft zwischen gesellschaftlichem Diskurs und Nachhaltigkeitsstrategie der Bundesregierung. Kontakt Dr. Christiane Averbeck / Kira Crome Rat für Nachhaltige Entwicklung (RNE) Reichpietschufer 50, 10785 Berlin Tel.: +49 (0) 30 / 25 49 - 17 80 Fax: +49 (0) 30 / 25 49 - 17 85 Internet: http://www.nachhaltigkeitsrat.de Arved Lüth / Alexander Nick Institut für Organisationskommunikation (IFOK) Berliner Ring 89, 64625 Bensheim Tel.: +49 (0)62 51 / 84 16 - 23 Fax: +49 (0) 62 51 / 8416 - 16 Internet: http://www.ifok.de «» Literatur IFOK, RNE, 2004: Momentaufnahme Nachhaltigkeit und Gesellschaft. Berlin, Bericht hrsg. vom Rat für Nachhaltige Entwicklung, texte Nr.8, Juni 2004. Rat für Nachhaltige Entwicklung, 2004: Nachhaltigkeit im Visier. Gesellschaft fordert Politik – Unsere Schlussfolgerungen. Berlin, Bericht hrsg. vom Rat für Nachhaltige Entwicklung, texte Nr.9, Juni 2004. Seite 84 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TA-KONZEPTE UND -METHODEN TA-KONZEPTE UND -METHODEN BioMedical Technology Assessment: modulare Folgenerfassung und perspektivensensitive Bewertung biomedizinischer Innovationen von Regine Kollek, Forschungsschwerpunkt Biotechnik, Gesellschaft und Umwelt, Universität Hamburg (BIOGUM) Die Technikbewertung in der Medizin konzentriert sich zumeist auf die unmittelbaren gesundheitlichen Konsequenzen des medizinischen Technikeinsatzes für die Patienten. Viele moderne (bio-)medizinische Verfahren und Techniken betreffen jedoch in ihrer Reichweite nicht nur einzelne Individuen oder Gruppen, sondern Gesundheitssystem und Gesellschaft als Ganzes. Das Health Technology Assessment (HTA) versucht, den sich dadurch stellenden Herausforderungen für eine umfassende und systematische Bewertung gerecht zu werden. Dieser Anspruch wirft jedoch methodische und konzeptionelle Fragen auf, die bislang noch nicht befriedigend gelöst sind. Das vorgeschlagene Bewertungskonzept eines BioMedical Technology Assessment (BMTA) eröffnet die Möglichkeit, die Beschränkung und die Probleme derzeitiger HTA-Konzepte zu überwinden. Es erlaubt, sowohl „harte“ medizinische wie „weiche“ soziale Konsequenzen einer biomedizinischen Technologie zu erfassen und sie in ein einheitliches Bewertungsschema zu integrieren, das der Vieldimensionalität technikinduzierter Effekte und der Multiperspektivität der Bewertungen Rechnung trägt. rationaler zu machen. Zum anderen soll sie zu selektionswirksamen Ergebnissen führen – und zwar nicht nur im Bereich der Medizin, sondern auch im Hinblick auf gesellschaftliche Prioritätensetzungen bei der Förderung wissenschaftlicher und medizinischer Entwicklungen und ihrer Regulierung. Die Technikbewertung in der Medizin hat eine gewisse Tradition. Zunächst ging es dabei um die Ermittlung und Bewertung direkter Wirkungen und Nebenwirkungen neuer Medizintechniken und Produkte, zu denen nicht nur Apparate und Instrumente im konventionellen Sinne, sondern auch Diagnostika und vor allem Medikamente gehören. Goldstandard der Evaluation unmittelbarer Interventionsfolgen sind kontrollierte klinische Studien. Die während der letzten Jahre erstarkte Evidence Based Medicine (EBM) leistet dabei durch systematische Reviews oder Meta-Analsysen des zu einer Technik verfügbaren Datenmaterials formale Selektionshilfe. Die EBM ist in ihrem Problemhorizont allerdings eingeschränkt: • Zum einen reflektiert sie nur das Leistungsvermögen einer Technik unter optimalen Studienbedingungen (efficacy), sagt aber nur wenig über deren Leistungsfähigkeit unter Praxisbedingungen (effectiveness) aus. • Zum anderen blendet sie eine Vielzahl von Fragen aus, die zwar mit dem Einsatz medizinischer Technik aufgeworfen, aber im Rahmen naturwissenschaftlich orientierter Studiendesigns nicht erfasst werden. Von daher wird schon seit langem gefordert, das Aufgabenspektrum der Technikfolgenabschätzung und -bewertung in der Medizin nicht nur auf die klinischen oder bestenfalls noch ökonomischen Aspekte zu beschränken, sondern auf gesellschaftlich vermittelte Aspekte wie psychische, soziale, kulturelle, rechtliche und ethische Implikationen auszudehnen. 1 Hintergrund 2 Probleme des umfassenden Anspruchs von HTA Weltweit zu beobachtende Knappheitsphänomene im Bereich der Gesundheitsversorgung haben das Interesse an der Bewertung medizinischer Techniken in den letzten Jahren deutlich erhöht. Die Technikbewertung soll zum einen dazu beitragen, Entscheidungen über den Einsatz von Techniken im Bereich der Medizin Das Ergebnis dieser Diskussionen war die Entwicklung eines Rahmenkonzeptes für ein Health Technology Assessment (HTA), das sich als „umfassende und systematische Bewertung der direkten und indirekten Folgen der Anwendung neuer oder bereits auf dem Markt befind- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 85 TA-KONZEPTE UND -METHODEN licher Technologien hinsichtlich ihrer physikalischen, biologischen, medizinischen und ökonomischen, aber auch ihrer psychologischen und sozialen, gesellschaftlichen und ökologischen, juristischen und ethischen Wirkungen im Rahmen einer strukturierten Analyse“ versteht (Sachverständigenrat 1998, S. 95). Das HTA hat also gegenüber der EBM einen erheblich erweiterten Anspruch. Dieser ist gut zu begründen. Viele medizinische, vor allem aber moderne biomedizinische und genetische Verfahren verfügen nicht nur über eine hohe Eingriffstiefe, sondern auch ihre Wirkungen sind von großer Reichweite. Sie betreffen nicht nur das Individuum, sondern auch das Gesundheitswesen und die Gesellschaft als Ganzes – möglicherweise für eine lange Zeit. Beispiele für solche Technologien sind die Organtransplantation mit dem ihr zugrunde gelegten Hirntodkonzept, die modernen Genund Fortpflanzungstechnologien und die dadurch aufgeworfenen Fragen nach Menschenbild und Menschenwürde, aber auch Medikamente, die das Verhalten modulieren und/oder eine Anpassung an Normvorstellungen von Leistung und Verhalten zum Ziel haben. Diese Erweiterung der Perspektive über die unmittelbaren Wirkungen einer Medizintechnologie hinaus erzeugt jedoch verschiedene Probleme1: • Zum einen wird die Technikfolgenabschätzung durch die Einbeziehung psychischer und sozialer Aspekte mit einer Vielzahl von relativ „weichen“ Ergebnisdimensionen (outcomes) konfrontiert, die nur schwer zu erforschen und nicht oder nur schwer zu quantifizieren sind. • Zweitens basiert das HTA und seine Verfahren auf Prämissen, Zielsetzungen und Selektivitäten, die normative Voraussetzungen und Implikationen haben. Dadurch wird die Trennung von empirischen und normativen Aspekten im HTA-Prozess teilweise problematisch. • Drittens bleibt offen, in welcher Weise die Ergebnisse der Analyse verschiedener Bereiche und Folgendimensionen konzeptionell miteinander verknüpft und in ein einheitliches Bewertungsschema integriert werden können. Dieses Problem stellt sich in der Technikfolgenabschätzung der modernen Biotechnologie in der Medizin verschärft, da Seite 86 hier die Bewertungsdimensionen, in denen so genannte „weiche“ Fakten evaluiert werden, von besonderer Bedeutung sind. Um diesen Problemen Rechnung zu tragen, bedarf es integrierter Bewertungskonzepte, die nicht nur in der Lage sind, qualitative Ergebnisse systematisch darzustellen, sondern die auch den Wertbezug empirischer Befunde reflektieren und der Vielfalt und Relativität von Perspektiven, Orientierungsmustern und Bewertungsmaßstäben gerecht werden. 3 Integrierte Bewertungskonzepte: Multidimensional und perspektivensensitiv 3.1 BioMedical Technology Assessment Das von uns entwickelte Konzept des BioMedical-Technology Assessment (BMTA)2 versucht, die Zielvorgabe der Multidimensionalität und -perspektivität technikinduzierter Folgen ernst zu nehmen. Entscheidend ist deshalb zunächst, dass alle relevanten Bewertungsdimensionen berücksichtigt und gegebenenfalls auch in ihren widersprüchlichen Ergebnissen dokumentiert werden. Dies erfordert, dass die Erkenntnisse über unterschiedliche Dimensionen des Nutzens biomedizinischer Innovation, über ihre Risiken, über die unterschiedlichen Arten und Verteilungsformen der Kosten sowie über die Einbettungsverhältnisse der untersuchten technischen Artefakte in medizinische und nichtmedizinische Anschlusshandlungen bzw. Systemkontexte in einer systematisierenden Synopse dargestellt werden. Darüber hinaus müssen die nur schwer formalisierbaren „weichen“ Wirkungen konsequenter in die Bewertung einbezogen und auch in ihrer Perspektivenabhängigkeit und Widersprüchlichkeit wahrgenommen werden. Das Konzept zielt daher vor allem darauf ab, die Perspektive offen zu legen, aus der heraus die Kriterien der Bewertung bestimmt, die jeweils berücksichtigten Faktoren ausgewählt und die methodischen Weichenstellungen und Entscheidungen getroffen werden. Eine Voraussetzung dafür ist allerdings, dass die Wirkungsdimensionen, die aus der Perspektive unterschiedlicher Akteure von unterschiedlicher Relevanz sind, möglichst vielschichtig und differentiell erfasst werden. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TA-KONZEPTE UND -METHODEN 3.2 Multifaktorenkonzept: Modulare Erfassung und summarische Bewertung Ein geeigneter Weg, die Vielzahl und Vielfalt der Bewertungsdimensionen und Einzelfaktoren angemessen zu berücksichtigen, scheint uns eher in einer summarischen Darstellung der Ergebnisse zu liegen, als in der Anwendung formaler Kalküle. Letztere sind zwar in der Lage, zumindest rechnerisch eindeutige Ergebnisse zu liefern. Allerdings werden sie gerade deshalb der Komplexität des Gegenstandes häufig nicht gerecht, da alles, was nicht in das Raster passt und sich der kriteriengeleiteten Quantifizierbarkeit entzieht, nicht wahrgenommen oder marginalisiert wird. Dabei droht natürlich die Gefahr, dass ein solches Konzept aus den Fugen gerät. Dies ist einer der Gründe, warum wir eine modulare Strategie vorschlagen (Feuerstein und Kollek 2002). Die Spezifizierung der Module richtet sich dabei nach den durch die Anwendung der Technik erwartbaren Settings und Implikationen. Im Blick auf genetische Tests und Screenings, die unter den neuen biomedizinischen Techniken eine zentrale Rolle einnehmen, erscheinen beispielsweise folgende Module sinnvoll: Modul 1: Test- und Beratungssetting Modul 2: Medizinische Implikationen Modul 3: Psychische und soziale Implikationen Modul 4: Ökonomische Implikationen Modul 5: Fernwirkungen und Rückkopplungseffekte Der Vorteil einer solchen Modularisierung ist, dass die Evaluation und Bewertung der Module zunächst separat erfolgen kann. Ändert sich im Zuge der Weiterentwicklung etwas an den technischen Eigenschaften des jeweiligen Artefakts, oder an den Rahmenbedingungen seiner Anwendung, ist es nicht notwendig, den ganzen Evaluierungsprozess zu wiederholen. Vielmehr kann er auf die Re-Evaluierung derjenigen Module beschränkt werden, in denen entscheidende Veränderungen stattgefunden haben. Insofern ist ein solches modulares Konzept in der Lage, flexibel auf eine dynamische Technikentwicklung zu reagieren, ohne dass dies in jedem Einzelfall eine vollständige NeuEvaluierung erfordern würde. Um die Befunde, die in den jeweiligen Modulen erhoben werden, sinnvoll in ein Bewertungskonzept zu integrieren, bedarf es einer kriteriengeleiteten und vor allem transparenten Gewichtung der Module. Wie diese im Einzelfall aussehen soll, wäre vorzugsweise zu Beginn des Evaluationsprozesses und ggf. unter Beteilung relevanter Akteure festzulegen. Die Ergebnisse der diversen Modulbewertungen würden dann auf Basis dieser Gewichtung zu einer Gesamtbewertung des untersuchten Verfahrens oder Produktes verdichtet. Das modulare Vorgehen hat den weiteren Vorteil, dass damit nicht nur die separate Evaluierung und Bewertung bestimmter Teilsegmente einer wissenschaftlich-technischen Entwicklung ermöglicht wird, sondern dass auch Leistungsund Nebenwirkungsprofile unterschiedlicher Verfahren miteinander verglichen werden können. Darüber hinaus ermöglicht es weiterhin die separate Evaluierung alternativer Entwicklungen und Entwicklungspfade und ihre nachträgliche Integration in das Gesamtkonzept. 3.3 Perspektivensensitivität des Bewertungskonzeptes Dies ist vor allem dann sinnvoll, wenn es sich dabei um relativ neue Technologien handelt, deren Implementation gerade begonnen hat und deren Folgenspektrum noch nicht festgelegt ist. Diese Situation ist charakteristisch für viele der neuen biomedizinischen Technologien, wie beispielsweise prädiktive Gentests oder genetische Screenings. Letztere lassen für die perspektivenabhängige Konstruktion des Nutzens einen allein schon deswegen breiten Raum, weil zahlreiche Kosten-Nutzen-Faktoren unzureichend erforscht sind und eine oft sehr widersprüchliche Erkenntnislage über Eigenschaften, Effekte und Nebeneffekte der Technik besteht (Feuerstein und Kollek 2002, S. 40 f.). Die Interessen, die verschiedene Akteursgruppen an der Verbreitung genetischer Tests oder Screenings haben, können ganz unterschiedlich sein. Beispielsweise realisiert sich der ökonomische Nutzen eines Gentests für Testund Gerätehersteller oder medizinische Speziallabors bereits mit seiner Verbreitung, und zwar unabhängig von seinem konkreten medizinischen Nutzen. Für die Patienten sind demgegenüber ökonomische Aspekte so lange irrelevant, Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 87 TA-KONZEPTE UND -METHODEN wie sie sich nicht an der Kostenerstattung beteiligen müssen. Wichtig sind für sie allerdings die indirekten, psychosozialen Kosten eines genetischen Screenings, die sie selber zu tragen haben. Aus der Perspektive der Gesundheitspolitik und der Krankenversicherungsträger stehen wiederum die direkten Kosten- und Folgekosten, teils aber auch die kostenrelevanten Risiken und der einsparungsrelevante Nutzen solcher Screenings im Mittelpunkt des Interesses. Unsere kürzlich publizierte Studie zur Pharmakogenetik zeigt, wie unterschiedlich diese Perspektiven sind, und welchen Einfluss sie auf den Implementationsund Diffusionsprozess einer Medizintechnologie haben können (Kollek et al. 2004, S. 89 ff.). Offensichtlich lässt sich aus der Vielzahl von unterschiedlichen und widersprüchlichen Perspektiven keine ideelle Metaperspektive konstruieren, die sämtliche Aspekte des Gegenstandes und seiner Implikationen in sich vereint. Vor diesem Hintergrund erscheint es uns notwenig, dass ein Bewertungskonzept explizit die Möglichkeit bietet, sich auf die Perspektive einer definierten Akteursgruppe (z. B. Patienten, Leistungsanbieter) oder eines relevanten Subsystems (wie z. B. Krankenkassen, Gesundheitssystem) zu beziehen und aus dieser Perspektive heraus begründete Selektionsentscheidungen hinsichtlich der zu berücksichtigenden Faktoren und der anzuwendenden Kriterien vorzunehmen. Das bedeutet nicht, dass damit die bisher innerhalb der Technikbewertung in der Medizin entwickelten bzw. verwendeten Konzepte und Methoden obsolet werden. Die EBM wird auch innerhalb der von uns vorgeschlagenen Weiterentwicklung des HTA-Konzeptes für die Evaluierung und Bewertung moderner Biotechnologien in der Medizin ihren Stellenwert behalten. Sie ist unverzichtbar, wenn es darum geht, die wissenschaftlich-technischen und klinischen Charakteristika biomedizinischer Techniken zu evaluieren. Bei allen Grenzen, die solche Verfahren haben, ist ein Rückgriff auf ihre Ergebnisse nicht nur wegen des Aufwandes einer eigenständigen Evaluation kaum zu umgehen, sondern auch wegen des Mangels an Alternativen. Dennoch muss der Vieldimensionalität der Effekte moderner biomedizinischer Technologien durch Weiterentwicklung existierender Evaluations- und Bewertungskonzepte Rechnung getragen werden. Seite 88 Anmerkungen 1) Kollek und Feuerstein 1998; Heitmann 1998; Feuerstein, Kollek und Uhlemann 2000; Droste, Gerhardus und Kollek 2003. 2) Kollek und Feuerstein 1998, Feuerstein, Kollek und Uhlemann 2000, S.237ff. Literatur Droste, S.; Gerhardus, A.; Kollek, R., 2003: Methoden zur Erfassung ethischer Aspekte und gesellschaftlicher Wertvorstellungen in Kurz-HTA-Berichten – eine internationale Bestandsaufnahme. Köln: Health Technology Assessment. Schriftenreihe des DIMDI Kollek, R.; Feuerstein, G., 1998: BioMedical Technology Assessment (BMTA). Hamburg: Forschungsschwerpunkt Biotechnik, Gesellschaft und Umwelt Kollek, R.; Feuerstein, G., Schmedders, M.; van Aken, J., 2004: Pharmakogenetik: Implikationen für Patienten und Gesundheitswesen. Anspruch und Wirklichkeit der ‚individualisierten Medizin’. BadenBaden: Nomos Heitman, E., 1998: Ethical Issues in Technology Assessment. Conceptual Categories and Procedural Considerations. International Journal of Technology Assessment in Health Care 14 (3), S. 544-566 Feuerstein, G.; Kollek, R., 2002: Ethik von Screening Rationalitäten. Teil II. Konzeptionelle Probleme und mögliche Ansatzpunkte einer transparenten Bewertung genetischer Screenings – am Beispiel prädiktiv probabilistischer BRCA-Tests. BMBF-Projekt 01KU9907/7, Endbericht, Hamburg: Forschungsschwerpunkt Biotechnik, Gesellschaft und Umwelt Feuerstein, G.; Kollek, R.; Uhlemann, T., 2000: Gentechnik und Krankenversicherung. Neue Leistungsangebote im Gesundheitssystem. BadenBaden: Nomos Sachverständigenrat für die Konzertierte Aktion im Gesundheitswesen, 1998: Sondergutachten 1997. Gesundheitswesen in Deutschland, Band II. BadenBaden: Nomos Kontakt Prof. Dr. Regine Kollek FSP BIOGUM, FG Medizin/Neurowissenschaften Universität Hamburg Falkenried 94, 20251 Hamburg E-Mail: kollek@uni-hamburg.de «» Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE ERGEBNISSE VON TAPROJEKTEN – NEUE TA-PROJEKTE Biologisch-dialogisch: Risikokommunikation zu Grüner Gentechnik von Markus Hertlein, Eva Klotmann, Christoph Rohloff, IFOK GmbH – Institut für Organisationskommunikation Im Projekt „Dialogmanagement Biologische Sicherheitsforschung“ erarbeitete das Institut für Organisationskommunikation (IFOK) für das BMBF mit Standortdialogen und Fokusgruppen Empfehlungen zur Risikokommunikation. Zusätzlich erstellte IFOK eine Studie über kommunikatives Risikomanagement. Im Ergebnis zeigte sich, dass das Potenzial professioneller Risikokommunikation zu Biologischer Sicherheitsforschung, aber auch zu anderen potenziellen Risikotechnologien noch nicht voll ausgeschöpft ist. In den Empfehlungen werden Maßnahmen zur verbesserten Risikokommunikation vorgeschlagen, die unterschiedliche Risikodimensionen in einen integrierten Risikomanagementansatz mit einbeziehen. Die kommerziellen Anwendungen aus biotechnologischen Verfahren bleiben in der Öffentlichkeit weiterhin umstritten. Besonders im Bereich der Grünen Gentechnik sind die Fronten zwischen Befürwortern und Gegnern seit Jahren verhärtet. Positiven Effekten, zum Beispiel Schädlingsbekämpfung mit weniger Pestiziden oder verbesserte Ernährungssicherheit durch qualitativ hochwertigere Erträge, stehen mögliche, noch unbekannte Auswirkungen auf das ökologische Gleichgewicht oder mögliche Beeinträchtigungen der Gesundheit von Mensch und Tier gegenüber. Die Food and Agricultural Organisation argumentiert, dass sich mit gentechnisch verändertem Reis Hunger und Vitaminmangel in Entwicklungsländern besser bekämpfen ließen (FAO 2004). Kritiker argumentieren, dass die Industrien der OECD-Welt lediglich neue Absatzmärkte suchten und verschärfte ökonomische Abhängigkeiten provo- zierten. Schließlich manifestiert sich der Konflikt auch in den nationalen und internationalen Wettläufen um Arbeitsplatzsicherung und Wettbewerbsförderung, die mit den Prinzipien des Vorsorgeprinzips, der Koexistenz und der Wahlfreiheit konkurrieren. Vor diesem Hintergrund begleitet das Bundesministerium für Bildung und Forschung (BMBF) schon seit 1987 die Entwicklung der Grünen Gentechnik in Deutschland mit Maßnahmen zur Biologischen Sicherheitsforschung. Hier sollen vor allem die biologischen und ökologischen Folgen der Freisetzung gentechnisch veränderter Pflanzen (GVP) wissenschaftlich untersucht und entsprechende Vorschläge u. a. auch zum Monitoring und Risikomanagement von GVPs erarbeitet werden. Doch auch die Biologische Sicherheitsforschung birgt gesellschaftliches Konfliktpotenzial. Die Freisetzung von GVPs in Feldversuchen führt immer wieder zu Protestaktionen und auch Feldzerstörungen. Kritiker der Biologischen Sicherheitsforschung führen zwei Argumente ins Feld. Zum einen sei Sicherheitsforschung nichts anderes als „Akzeptanzforschung“, die den allgemeinen Einsatz von GVPs vorbereiten soll. Zum anderen weisen sie auf ein Paradox hin, das der Biologischen Sicherheitsforschung innewohnt: Sie provoziert für ihre Forschungsziele genau jene ungewollten Auskreuzungsrisiken, die sie beherrschen will. In geschlossenen Experimenten ist dies das herkömmliche Verfahren zur Risikoerforschung und -bewertung. In offenen Naturräumen hingegen lässt sich die unkontrollierte Auskreuzung mit möglicherweise irreversiblen Folgen nicht mehr ausschließen (vgl. hierzu allgemein Bechmann, Stehr 2000). 1 Das Projekt Dialogmanagement Biologische Sicherheitsforschung Dem BMBF-Förderschwerpunkt „Sicherheitsforschung und Monitoring“ lag die Idee zugrunde, einen naturwissenschaftlichen Forschungsverbund, in dem Projekte der Biologischen Sicherheitsforschung gefördert werden, mit einer Reihe begleitender Projekte zu verknüpfen. Vor dem Hintergrund der gesellschaftlichen Relevanz Biologischer Sicherheitsforschung sollten neben den naturwissenschaftlichen Förderprogrammen von Beginn an auch Maßnahmen zum Dialogmanagement Biologischer Sicherheitsfor- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 89 ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE schung erprobt werden. Die Aufgabe dieser begleitenden Projekte bestand unter anderem darin, die vom BMBF geförderte Forschung in der Öffentlichkeit bekannter und deren Ergebnisse einer breiten Öffentlichkeit zugänglich zu machen. IFOK, das Institut für Organisationskommunikation, erforschte hierzu in Kooperation mit dem Institut für Wissenschafts- und Technikforschung an der Universität Bielefeld über einen Zeitraum von drei Jahren (April 2001 – Juni 2004) dialogische Maßnahmen zur kommunikativen sowie zur verfahrensrechtlichen Begleitung Biologischer Sicherheitsforschung (IFOK 2004). Die für das Projekt geplanten Standortdialoge zwischen Sicherheitsforschern und Bürgern sollten dabei über einen bloßen Informationsaustausch hinausgehen. Moderierte Gesprächsrunden sollten es ermöglichen, Vorurteile abzubauen, Missverständnisse aus dem Weg zu räumen und auf beiden Seiten neue Bewertungsmöglichkeiten der jeweiligen Wahrnehmung der Faktenlage zu ermöglichen. Im Projektverlauf zeigte sich jedoch, dass die Sicherheitsforscher und Standortbetreiber das bekannt werden ihrer Forschungsstandorte und damit möglicherweise einhergehende Feldzerstörungen befürchteten. Kritische Anrainer und Gentechnikgegner kritisierten mangelnde Ergebnisoffenheit des Dialogprojekts. Zudem war das Konzept „Biologische Sicherheitsforschung“ vielen Bürgern nicht geläufig und die Unterscheidung zwischen forschungsgetriebener und kommerzieller Aussaat blieb aus der Risikowahrnehmung der Anrainer heraus nicht ausreichend nachvollziehbar. In einer daraufhin veränderten Projektanordnung wurde nun eine durch das Zufallsprinzip zusammengestellte Fokusgruppe mit Sicherheitsforschern zusammengeführt, die gemeinsam Empfehlungen zur Kommunikation der Biologischen Sicherheitsforschung erarbeiten sollten. Der Schwerpunkt der Gespräche verlagerte sich dabei schnell von speziellen Fragen zur Biologischen Sicherheitsforschung auf grundsätzlichere Fragen Grüner Gentechnik. Sind gentechnisch veränderte Lebensmittel noch natürlich? Wo ist der Punkt erreicht, an dem eine Rückkehr zu konventionellem Anbau und gentechnikfreien Produkten nicht mehr möglich ist? Welche Kontrollmöglichkeiten habe ich als Verbraucher? Seite 90 Es zeigte sich in der Fokusgruppe deutlich, dass die Teilnehmer in einer moderierten Diskussion durchaus differenziert, sachlich und auch gemeinwohlorientiert mit den Sicherheitsforschern argumentieren konnten und wollten. Der aus den Naturwissenschaften oft zu hörende Vorwurf, dass Laien Expertenwissen nicht verstünden, konnte somit nicht bestätigt werden. Unsere Beobachtungen zeigten vielmehr, dass beide Seiten Schwierigkeiten hatten, die Kommunikationsebene und Rationalität der jeweils anderen Seite überhaupt anzuerkennen. Kommunikationsschwierigkeiten waren somit auf die ungenaue Adressierung der jeweiligen Risikodimensionen (Sach- und Wissensebene versus ethische und normative Dimension) zurückzuführen und weniger auf mangelndes Sachwissen oder Urteilsvermögen. 2 Lessons learned? Handlungsempfehlungen für Behörden und Unternehmen In der Auswertung des Projekts und im theoretischen Studienteil interessierte uns daher vor allem, wie unterschiedliche Risikodimensionen kommunikativ besser adressiert werden können. Das mögliche aneinander vorbeireden von Sicherheitsforschern und Bürgern weist zumindest auf den Verbesserungsbedarf von Risikokommunikation hin (Hampel, Renn 2001). Theoretisch lassen sich drei derartige Risikodimensionen unterscheiden: Wissenskonflikte, Unsicherheitskonflikte und Wertekonflikte. Bei den Wissenskonflikten geht es um die Interpretation komplexer sachlicher Zusammenhänge: Kann eine gentechnisch veränderte Pflanze mit Wildpflanzen auskreuzen? Was passiert, wenn es zu Hybriden kommt? Bei Unsicherheitskonflikten hingegen geht es um Unsicherheit als Folge von „Nichtwissen“: Wie hoch ist die Wahrscheinlichkeit, dass sich besonders angepasste genetisch veränderte Wildpflanzen evolutiv einen Vorteil verschaffen und sich ungebremst fortpflanzen? Konflikte, bei denen es um die unterschiedliche moralische oder weltanschauliche Bewertung solcher Fragen geht, sind Wertekonflikte: Wiegen die Risikopotenziale irreversibler Auskreuzungen die positive Wirkung auf die Ernährung in der Dritten Welt auf? Kommunikatives Risikomanagement mit dieser Zielgenauigkeit und mit antizipierendem Anspruch steckt jedoch noch in den Kinder- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE schuhen. Ohne professionelle Dialoggestaltung besteht bei der Einführung neuer Technologien immer wieder aufs Neue die Gefahr, dass gesellschaftliche Konfliktpotenziale eskalieren und sich die ökonomische und ökologische Chancenauswertung verzögert und verteuert (Carius, Renn 2003). Basierend auf den Beobachtungen im Projekt „Dialogmanagement Biologische Sicherheitsforschung“ und dem theoretischen Studienteil wurde als Empfehlung folgende Leitthese für eine „risikointegrierte Innovationsstrategie“ formuliert: Risikotechnologien, wie die zahlreichen biotechnologischen Anwendungen, aber auch zunehmend die Nanotechnologie und konvergente Technologien, erfordern eine professionelle dialogische Begleitung mit gezielten Kommunikationsmaßnahmen (vgl. Meili 2003). Minimalziel jeder Risikokommunikation sollte dabei die Anbahnung der Fähigkeit zur Risikoakzeptanz sein. Verantwortungsvolle Risikokommunikation bedeutet also, Akzeptanzfähigkeit zu ermöglichen, nicht jedoch die Akzeptanz selbst herbeizuführen, die der jeweiligen individuellen Entscheidung vorbehalten bleiben sollte. Folgende Maßnahmen können dieses Ziel unterstützen: - Forschungsförderung neuer Technologien sollte aktiv gesellschaftspolitisch eingebettet werden, - relevante Diskursebenen und Konfliktdimensionen sollten identifiziert und jeweils gezielt mit kommunikativen Maßnahmen adressiert werden, - Technologiezyklen sollten für eine erfolgreiche Risikokommunikation vom BMBF, aber auch von Unternehmen antizipierend und strategisch genutzt werden. Voraussetzung für die Einbettung von Forschungsförderung in einen gesellschaftspolitischen Kontext ist, dass politische Akteure entscheidungsvorbereitende Partizipation als demokratische Grundregel aufwerten. Zwar lassen sich die meisten Konfliktfälle durch die verfassten Regeln der repräsentativen Demokratie kanalisieren. Wenn Regulierer ihre Kanalisierungsfunktion jedoch nicht mehr adressaten-, phasen- und konfliktgerecht wahrnehmen, entwickeln sich möglicherweise diskursive Schieflagen und schwer auflösbare gesellschaftliche Blockaden. Um dies zu vermeiden, sollten regulative Entscheidungen bei Risikotechnologien vermehrt durch umfassende und mehrschichtige Partizipations- und Mediationsprozesse vorbereitet werden. Allerdings dürfen Dialogmaßnahmen nicht Harmonie und Konsens um jeden Preis bedeuten und bestehende Meinungsunterschiede zerreden oder weichspülen. Kommunikation ist nicht per se gut, sondern sollte – sofern echte Handlungsfreiräume bestehen – auch über den Dissens zu einem begründeten und nachvollziehbaren Sachstand führen. Alleine mit der Anerkennung der Wertewelt des jeweils anderen durch die streitenden Parteien ist schon viel gewonnen. Nur geeignete kommunikative Prozesse und Methoden können zu einem zeitnahen gesellschaftlichen Konsens über das jeweils akzeptable Verhältnis von Chancennutzung und Risikoakzeptanz Grüner Gentechnik und anderer Risikotechnologien führen. Grundvoraussetzung für eine derartige konstruktive Konfliktbearbeitung ist die Aufdeckung zugrunde liegender Strukturen und Dynamiken, die komplex und wertebehaftet sind. Eine deutliche Schwerpunktverlagerung vom Management technischer Risikoabschätzungen hin zu den kommunikativen Aspekten bei der Regulierung und Implementierung von Risikomanagementprozessen ist in diesem Sinne überfällig. Auf der Sachebene sollten zunächst mit Joint Fact Finding-Prozessen Themen identifiziert werden, in denen gesellschaftlicher Konsens oder Dissens besteht oder in Zukunft zu erwarten ist. Auf der Nutzenebene geht es dann vor allem um die Untersuchung der unterschiedlichen Interessenlagen. Damit diese Aushandlungsprozesse nicht in ein Nullsummenspiel münden, in dem der Gewinn des einen den Verlust des anderen bedeutet, sollte eine Lösung gefunden werden, die allen Beteiligten einen Nutzen beschert (win-win Konstellation). Auf der Ebene der Werte und Normen ist es wichtig, dass Wertekonflikte sich nicht mit Sachwissen auflösen lassen. Hier konkurrieren unterschiedliche Weltbilder und Normen miteinander, die es zu akzeptieren gilt und deren prinzipielle Gleichrangigkeit in einer offenen und pluralistischen Gesellschaft Voraussetzung für das respektvolle und friedliche Miteinander sind (vgl. Abb. 1 nächste Seite). Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 91 ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE Abb. 1: Matrix risikointegrierter Innovationsstrategien Matrix risikointegrierter Innovationsstrategien TechnologieZyklus Phase 1: Zukunftsszenarien Phase 2: Innovation KonfliktDimensionen Phase 3: Markteintritt/ Marktdurchdringung Phase 4: Exit Dimension 1: Wissen Dimension 2: Nutzen HANDLUNGSFELDER Dimension 3: Werte In öffentlichen Diskursen ziehen sich Wissenschaftler jedoch nicht selten auf die ihnen vertraute Sachebene zurück, während Verbraucherschützer und Interessenverbände auf der Nutzenebene argumentieren. Für die Öffentlichkeit liegt der Schwerpunkt der Diskussion oft auf der normativ-ethischen Ebene. Um diese Ebenen dialogisch aufeinander zu beziehen, bedarf es auch struktureller und vor allem verfahrensrechtlicher Veränderungen im wechselseitigen Umgang von Behörden, Unternehmen und Öffentlichkeit (Münte, Bora 2004). Für behördliche Entscheider und Regulierer sollte eine angemessene RisikokonfliktAnalyse für das jeweilige Konfliktfeld zumindest die drei Konfliktdimensionen „Komplexität“, „Unsicherheit“ und „Ambiguität“ sowie die drei entsprechenden Diskursebenen Sach-, Nutzen- und Werteebene identifizieren. Zudem sollte bestimmt werden, in welcher Phase sich der Konflikt befindet, wie er sich vermutlich weiter entwickeln wird und welches die jeweiligen Konflikttreiber sind, bevor über weitere Kommunikations- und Dialogmaßnahmen entschieden wird. Für die Industrie und die anwendungsbezogene Forschung gilt, die Risikodimensionen in die jeweiligen Technologiezyklen zu integrieren und sie strategisch zu nutzen. So können auf jeder Diskursebene und in der jeweils geeigneten Phase ausgewählte Instrumente für klar definierte Akteure und Zielgruppen entwickelt und eingesetzt werden (vgl. Abb. 1). Seite 92 Literatur Bechmann, G.; Stehr, N., 2000: Risikokommunikation und die Risiken der Kommunikation wissenschaftlichen Wissens. Zum gesellschaftlichen Umgang mit Nichtwissen. In: GAIA, Bd. 9, Nr. 2, S. 113-121 Carius, R., Renn, O., 2003: Partizipative Risikokommunikation. Wege zu einer risikomündigen Gesellschaft. In: Bundesgesundheitsblatt Gesundheitsforschung Gesundheitsschutz. Bd. 46, Nr. 7, S. 578-585 FAO, 2004: The State of Food and Agriculture 2003-2004. Agricultural Biotechnology: Meeting the needs of the poor? FAO Report, Rom Hampel, J.; Renn, O. (Hrsg.), 2001: Gentechnik in der Öffentlichkeit. Wahrnehmung und Bewertung einer umstrittenen Technologie. Frankfurt am Main: Campus IFOK – Institut für Organisationskommunikation, 2004: Projektbericht „Dialogmanagement Biologische Sicherheitsforschung“ der IFOK GmbH – Institut für Organisationskommunikation im Auftrag des BMBF. Bensheim Meili, Chr., 2003: Parallelen zwischen der Gentechnik- und der Nanotechnologie-Debatte. Eskalation früh verhindern. In: riskBrief. Notizen aus dem Risiko-Dialog, Nr. 4, Dezember 2003, S. 1-2 (hrsg. Stiftung Risiko-Dialog, St. Gallen) Münte, P.; Bora, A., 2004: Strukturprobleme der Kommunikation zwischen Genehmigungsbehörde und Bürgern im Verwaltungsverfahren. Rechtspolitische Empfehlungen für das BMBF auf der Grundlage einer Untersuchung der Kommunikationsstrukturen im gentechnikrechtlichen Anhörungsverfahren. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ERGEBNISSE VON TA-PROJEKTEN – NEUE TA-PROJEKTE Abschlußbericht im Rahmen des Projektteils „Dialog“ des Projektverbundes „Kommunikationsmanagement in der Biologischen Sicherheitsforschung“ im BMBF-Förderschwerpunkt „Sicherheitsforschung und Monitoring“. Universität Bielefeld: Institut für Wissenschafts- und Technikforschung (IWT) Kontakt Dr. Christoph Rohloff IFOK GmbH – Institut für Organisationskommunikation Berliner Ring 89, 64625 Bensheim Tel.: +49 (0) 62 51 / 84 16 - 958 Fax: +49 (0) 62 51 / 84 16 - 16 E-Mail: christoph.rohloff@ifok.de Internet: http://www.ifok.de «» Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 93 REZENSIONEN REZENSIONEN Theorien der Technikentwicklung – vom Kopf auf die Füße gestellt Aber auf welche Füße? Und auf wie viele? U. Dolata: Unternehmen Technik. Akteure, Interaktionsmuster und strukturelle Kontexte der Technikentwicklung. Berlin: edition sigma, 2003, ISBN 3-89404-500-0, Euro 24,90 Rezension von Fritz Gloede, ITAS 1 Fortschritt durch Technik-Theorie? Fast 10 Jahre sind vergangen, seit Ulrich Dolata seine „Politische Ökonomie der Gentechnik“ vorgelegt hat (Dolata 1996). Deren „Entschleunigung durch demokratische Behutsamkeit“, wie sie dem Autor damals angeraten schien (vgl. Gloede 1996), ist offenbar nicht eingetreten. Retardierende Momente ihrer Karriere hat die Gentechnik allenfalls selbst erzeugt – nicht zuletzt durch ungehaltene (und wohl auch unhaltbare) Versprechungen. Dolata hat die Zeit jedoch genutzt, um seine damals oft nur angedeuteten Überlegungen und Thesen über das „Politikfeld Biotechnologie“ hinaus zu generalisieren und zu vertiefen. Nicht weniger beansprucht er mit dem 2003 erschienenen Werk „Unternehmen Technik“, als eine grundsätzliche Auseinandersetzung mit gängigen Gegenwartstheorien der Technikentwicklung, auch wenn die Gentechnik bei ihm weiterhin als wichtigste empirische Referenz und exemplarischer Anwendungsfall fungiert. Dieser Sachverhalt schlägt sich überdeutlich und – wie ich finde – auch etwas unglücklich nieder, indem das Werk wie einstmals Deutschland zweigeteilt daherkommt1. Während der erste Hauptteil einen „Theorierahmen für die Technikanalyse (S.21-142)“ zu entwickeln sucht, widmet sich der zweite Hauptteil vollständig dem (vom Autor sicherlich am intensivsten bearbeiteten) Feld der Gentechnikentwicklung (S. 143-303), dies jedoch in der programmatischen Absicht, die über jenem Seite 94 lastende „Dizzy Atmosphere“ ein wenig luzider zu machen, wenn nicht gar zu vertreiben. Obwohl Dolata hier konsequent auf die im ersten Teil erarbeiteten Erkenntnisse zurückgreift, muss der dort entfaltete Generalisierungsanspruch darunter leiden, dass das Werk insgesamt nicht mit einer – sozusagen empirisch gesättigten – Bilanzierung des gewählten Theorierahmens, seiner Stärken und ggf. verbleibenden Schwächen schließt. Lobend sei demgegenüber hervorgehoben, dass der Autor seinem Buch „eine kleine Skizze zur Einführung“ vorangestellt hat, die dem Leser/der Leserin nicht nur die Orientierung im sperrigen und oft „unfassbar unübersichtlichen“ (S. 239) Gegenstandsbereich erleichtert, sondern zugleich den Stellenwert der nachfolgenden Argumentationsschritte verdeutlicht. Diesem Beispiel folgend, möchte ich mich bei meinem Kommentar auf zwei Aspekte beschränken, die beide bereits eine Rolle in meiner Rezension seiner Arbeit von 1996 gespielt haben, nämlich - auf die Frage nach dem Verhältnis von handlungs- und strukturtheoretischen Konzepten bei einer Theoretisierung der Technikentwicklung (Abschnitt 2), und - auf die Frage nach den „Totems und Tabus“ bei der konflikthaften Entfaltung der (nationalen wie internationalen) Gentechniknutzung (Gloede 1996, S. 96). Ein kleines Schlusswort soll meine Bemerkungen dann abschließen. 2 Akteure und Strukturen der Technikentwicklung – oder: Die Quadratur des Kreises? Ich hatte damals konstatiert, dass sich in Dolatas Gentechnik-Monografie eine systematisch entwickelte Antwort auf „grundlegende Fragen nach dem Verhältnis von strukturellen Zwängen, Handlungsstrategien organisierter Akteure und sekundären Rationalisierungen sowohl vermeintlicher Zwänge als auch maßgeblicher Handlungsmotive“ (Dolata 1996, S. 97) nicht finden ließe. Soweit sich bereits Widersprüche zwischen einer strukturtheoretischen und einer handlungstheoretischen Rekonstruktion der Gentechnikentwicklung andeuteten, machten diese sich vor allem geltend im Hinblick auf Dolatas normatives Plädoyer für jene bereits Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 REZENSIONEN zitierte „Entschleunigung durch demokratische Behutsamkeit“. Das nunmehr vorgelegte Werk geht die damals nur gestreiften Fragen in der Tat frontal an. Allerdings antwortet Dolata darauf – man möge mir die überspitzende Vereinfachung verzeihen – mit einem entschiedenen „Sowohl als Auch“. Er versucht sowohl – und mit guten Gründen – die dominante handlungstheoretische Orientierung auf „strategiefähige“ bzw. „organisierte“ Akteure der Technikentwicklung zu relativeren, als auch die – nur vermeintlich paradoxe – Kritik an den (ebenfalls handlungstheoretisch konzeptualisierten) Thesen massiver unternehmerischer Einflussnahme und mangelnden politischen/staatlichen Gestaltungswillens zurückzuweisen. Letztgenannte Kritik beruft sich an dieser Stelle gern auf ein „System“ administrativer Interessenvermittlung, demgegenüber das intentionale Handeln einzelner (wenn auch korporativer) Akteure nahezu aussichtslos werde (vgl. Dolata 2003, S. 298). Freilich führt Dolata hier selbst eher systemische Referenzen ins Feld, die nicht so sehr auf die Interessendurchsetzung einzelner Akteure als vielmehr auf die „strukturelle Ökonomisierung“ politischer Entscheidungsfindung abstellen. Bei der systematischen Betrachtung von „Akteursfigurationen“, die interagierend für die Technikentwicklung maßgeblich werden (S. 77 ff.), beharrt der Autor jedoch darauf, dass klassische handlungstheoretische Kategorien wie Macht, Konkurrenz und Entscheidung ihre instruktive Bedeutung für die Analyse behalten. Und bereits in der Einführung findet sich sein Credo, ein adäquater theoretischer Rahmen der Technikanalyse solle „mit einem breiten Akteursbegriff arbeiten, der die zentrale Bedeutung korporativer Akteure betont, ohne darüber die eigenständige Rolle von Schlüsselpersonen und nichtorganisierten Kollektiven (...) zu vernachlässigen.“(S. 16 f.). In der zusammenfassenden Schlussbetrachtung des theoretischen Hauptteils wird noch deutlicher, wie Dolata die Koexistenz der unterschiedlichen Theorieprogramme verstanden wissen möchte – als ein, wie ich es interpretiere – Plädoyer für einen (auch multidisziplinären) Mehrebenen-Ansatz, der sich sowohl auf die Interaktionszusammenhänge von Akteuren als auch auf die diese Zusammenhänge rahmenden strukturellen und systemischen Randbedingun- gen (Innovations- und Politiksysteme, ökonomische Strukturen, Techniktypen etc.) richtet. So weit es ihm also darum geht, ein möglichst weites und heuristisch nützliches Netz zur Beobachtung und Analyse von Technikentwicklungen aufzuspannen, lässt sich aus meiner Perspektive dagegen wenig einwenden. Für eine solche Deutung spricht sicher nicht zuletzt auch Dolatas Eigenanspruch, sein theoretischer Rahmen solle „nicht mit dem Anspruch einer allgemeinen und hermetisch geschlossenen Techniktheorie daherkommen, sondern praxisrelevant sein.“(S. 17) (obwohl sich das letztgenannte Wort für einen auf Konkretisierung bedachten Analytiker eigentlich verbieten sollte). Gleichwohl möchte ich daran erinnern, dass die unterschiedlichen Implikationen jener Theorieprogramme, die Dolata mit seiner „integrativen Perspektive“ unter einem Dach vereinen möchte (S. 83 ff.), von Fall zu Fall in Widerspruch zueinander geraten können (vgl. Gloede 1996). Nicht richtig erscheint es mir jedenfalls, strukturtheoretische Konzepte in einem Atemzug mit „deterministischen Vorstellungen“ zu nennen (S. 84). Ebenso kann – etwa mit Referenz auf den Begriff der Kontingenz – auch das Gegenteil zutreffen. So weit ich es sehen kann, lädt sich Dolata letztlich (und eher verdeckt) doch den Anspruch einer „geschlossenen“ Theorie der Technik auf, in der alle nur denkbaren Vermittlungen realisiert sind – ohne sich an dieser Stelle seiner Argumentation durch eine ‚konstruktivistische’ Selbstreflexion zu entlasten. Statt also die durchaus unterschiedlichen Erkenntnisinteressen und Leistungsansprüche der zusammengeführten Theorieprogramme zu berücksichtigen, rezipiert er sie eher ontologisch – als konkurrierende bzw. komplementäre Beschreibungen der einen, der „wirklichen“ Welt. Trotz – oder gerade wegen – der hier nach wie vor geäußerten Bedenken möchte ich es abschließend nicht versäumen, meinem Vergnügen an seiner Auseinandersetzung mit der ubiquitären „Netzwerk“-Metapher (S. 35 ff.) Ausdruck zu verleihen. Die NetzwerkKategorie scheint ja wie eine rosa getönte Brille zu wirken – wer sie trägt, sieht die Welt durchweg rosa eingefärbt. Wohin das Auge auch blickt, entdeckt es nun Netzwerke – in der Politik, im Innovationssystem, in der Wirtschaft, in nachbarschaftlichen Kommunikati- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 95 REZENSIONEN onsbeziehungen und so weiter und so fort. Dolata macht gegen diesen soziologischen Hype drei Einwände geltend (S. 43 f.), die er im Weiteren dann noch ausbaut und präzisiert: - Netzwerkartige Kommunikations- und Kooperationsbeziehungen stellen nur eine Teilmenge der tatsächlich anzutreffenden Kooperationsformen dar. Zudem bedürfte auch der gemeinte Typ einer weitergehenden Differenzierung. - Netzwerkartige Kooperationsbeziehungen unterliegen selbst einer – nicht zuletzt durch Interessendifferenzen und Machtasymmetrien bedingten – Dynamik und müssen daher grundsätzlich als temporär und labil gelten. - Überhaupt sind solche speziellen Kooperationsbeziehungen in der Regel in einen größeren Rahmen weiterhin wirksamer kompetetiver Interaktionsmuster und Handlungsimperative eingebettet – eine Erkenntnis, die nicht nur die bereits angesprochene Dynamik berührt, sondern auch vorschnell generalisierenden Idyllisierungen der Verhältnisse vorbeugt2. Diese und weitere erfrischende Auseinandersetzungen mit gängigen techniksoziologischen Konzepten allein machen Dolatas Buch trotz einiger Bedenken im Grundsätzlichen m. E. ausgesprochen lesenswert. 3 „Dizzy Atmosphere“ oder: Neues zur Gentechnik? Dolata selbst eröffnet dem Leser des 2. Hauptteils zwei Möglichkeiten der Lektüre (S. 153 f.). Er könne - zum einen als Fallstudie zur sozioökonomischen Formierung der Neuen Biotechnologie gelesen werden, welche an seine „Politische Ökonomie der Gentechnik“ von 1996 anknüpft, allerdings mit einem weniger deskriptiven als vielmehr theoriegeleiteten Anspruch; - zum andern aber auch als Weiterführung des theoretischen Hauptteils, dessen Themen am konkreten Fall „weitergesponnen“(?) und vertieft würden. Jedenfalls ist die Darstellung durch drei Kapitel strukturiert, deren erstes sich der „Topographie eines paradigmatisch neuen Technikfelds“ widmet und dementsprechend eher strukturthe- Seite 96 oretische Beobachtungen anstellt, während sich das zweite Kapitel unter dem Titel „Fluide Figurationen“ den Akteuren und Interaktionsmustern im Feld zuwendet. Das dritte Kapitel schließlich analysiert die Neue Biotechnologie explizit als Politikfeld unter dem viel sagenden Heading „Korporatismus plus“. Ohne an dieser Stelle auf die vielfältigen, sowohl theoretisch als auch empirisch reichhaltigen Ausführungen des 2. Teils näher eingehen zu können, möchte ich mich um des historischen Bogens willen wiederum auf die Fragen beziehen, die sich mir bei der Lektüre von Dolatas Buch von 1996 gestellt hatten. Entwickelt sich die Gentechnik tatsächlich zu der von ihren Befürwortern gern beschworenen „Schlüsseltechnologie des 21. Jahrhunderts“? Wie steht es mit den Potenzialen einer an „Bedarfsorientierung, Risikominimierung, Optionenvermehrung, Demokratisierung“ orientierten staatlichen Technologiepolitik oder jenen auf „Entschleunigung“ und „Behutsamkeit“ gerichteten sozialen Gegenbewegungen? (vgl. Gloede 1996, S. 95 f.). Neue Antworten auf alte Fragen verspricht am ehesten das dem Politikfeld gewidmete 3. Kapitel. Die den beiden ersten Entwicklungsphasen der Biotechnologie seit Mitte der 90er Jahre (also nach Abschluss von Dolatas „Politischer Ökonomie“) folgende dritte Phase wird nun gekennzeichnet als „standortorientierte Förderung und Korporatismus plus“ (S. 274 f.), die im Wesentlichen auf die staatlich gestützte Entwicklung international bedeutsamer Forschung und international konkurrenzfähiger Industrie gerichtet ist. Eine breite öffentliche Auseinandersetzung über die dabei leitenden Ziele staatlicher Biotechnologiepolitik findet (abgesehen von einzelnen Problemfeldern) kaum noch statt. Vielmehr werden die staatlicherseits zu ergreifenden Maßnahmen in korporativ besetzten Gremien und Kommissionen maßgeblich vorberaten und vorverhandelt – „gentechnikkritische Persönlichkeiten oder Organisationen (...) spielen hier keinerlei Rolle.“ (S. 277). So weit im Westen nichts Neues, könnte man sagen, obwohl sicher nicht davon gesprochen werden kann, dass die mittlerweile in Subdiskurse ausdifferenzierten Kontroversen um spezifische Gentechniknutzungen bereits beendet wären. Für den Bereich der „grünen“ Gentechnik haben sie vielmehr für hinreichend Irritation gesorgt, Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 REZENSIONEN um zu politischen wie industriellen Kurskorrekturen Anlass zu geben (S. 282). Von einer „Entschleunigung“ der Entwicklung kann vor diesem Hintergrund gleichwohl nicht die Rede sein. Auch die Rolle des Staates in diesem Politikfeld sieht Dolata meinem Eindruck nach inzwischen erheblich skeptischer. Wiewohl „aktiv mitgestaltende Instanz“, sei er doch eng gezogenen „strukturellen Grenzen der Handlungs- und Gestaltungsspielräume“ unterworfen, wobei die Spezifika der Gentechnik als Querschnittstechnologie eine maßgebliche Rolle spielten (S. 301). Auch wenn Dolata selbst noch für die weitgehend subsidiäre Rolle staatlicher Biotechnologiepolitik deren Legitimationsbedarf fortbestehen sieht und ihr kein Entkommen aus den gesellschaftlichen Debatten attestieren kann (S. 303), bleiben nach dem langen Durchgang durch die Materie aus meiner Sicht zwei Fragen offen: - Inwieweit ist die behauptete Begrenzung staatlicher Interventions- und Gestaltungsmöglichkeiten durch die Akzeptanz und Übernahme ökonomischer (oft neoliberaler) Prämissen geprägt? Über weite Strecken scheint sich Dolata trotz seines kritischen Impetus solche Prämissen selbst zu eigen zu machen. Der Bereich staatlicher Förderung von so genannten Umwelttechnologien zeigt demgegenüber womöglich, dass es nach wie vor Alternativen nationaler Technikpolitiken im Horizont unterschiedlicher Spezialisierungsmuster geben könnte, die sich sowohl politisch gut legitimieren lassen als auch ökonomisch und wissenschaftlichtechnisch „anschlussfähig“ (d. h. kompatibel mit den herrschenden ökonomischen Strukturen) bleiben. Mutatis mutandis gilt dies umgekehrt für den in Deutschland vorläufig vollzogenen Ausstieg aus der Atomenergienutzung, die ihren Befürwortern und Betreibern über lange Jahre – gerade auch im Licht der internationalen Situation – als völlig unvorstellbar erschien. Schließlich indizieren die ehemals heftigen und sich neuerdings offenbar wiederbelebenden Kontroversen um eine (nationale bzw. europäische) Gentechnik-Regulierung mit Blick auf den „Standortwettbewerb“ ein nach wie vor virulentes Interventionspotenzial. - Die erste Frage verweist zugleich auf eine weitere. Wenn es richtig ist, dass die Neue Biotechnologie nach wie vor keine „reife Technik“ ist, sondern eine Querschnittstechnologie, die sich durch „enorme Entwicklungsdynamiken, große Unsicherheiten und oft noch kaum antizipierbare Nutzungsmöglichkeiten“ auszeichnet, wie Dolata schreibt (S. 301; vgl. auch die von ihm präsentierten Umsatz- und Unternehmensstatistiken, S. 175 ff.), warum macht sich die staatliche Technikpolitik deren (nicht unbedingt nur monetär) massive Förderung dann zu einem ihrer vornehmsten Anliegen? Eine Antwort auf diese Frage habe ich bei der Lektüre seines neuen Buchs noch weniger gefunden als bei seiner „Politischen Ökonomie“. Es scheint mir daher an der Zeit, dass eine systematische – und im Hinblick auf konkurrierende Problemlösungen vergleichende – Evaluation bisheriger praktischer Erfolge und Misserfolge der Gentechniknutzung in ihren verschiedenen Anwendungsfeldern durchgeführt wird, die zugleich eine etwas genauere Einschätzung ihrer weiteren Potenziale erlauben würde. (Man erinnere sich z. B. daran, wie still es um die vor wenigen Jahren noch hochgepriesene Entwicklung der Gentherapie geworden ist). Denn selbst die verbreitete Diagnose einer „unreifen“ Technik enthält ja bereits die implizite Gewissheit auf deren künftige Durchbrüche. Demgegenüber hat die Gegen-Diagnose eines „wishful thinking“ einstweilen mindestens genauso viel Charme, denke ich. 4 Abruptes Ende – oder: weiterer Forschungsbedarf? Dolatas neues Werk hat zweifellos mehr Licht in die nahezu ‚unfassbare Unübersichtlichkeit’ der Technikanalysen gebracht, auch wenn dabei zwangsläufig nicht nur dunkle Winkel verbleiben, sondern der spezielle Suchkegel seines Theorierahmens eigene Schatten wirft. Interessant wären sicherlich weitere Fallstudien zu anderen Technologiefeldern, die sich der hier entwickelten Analytik und Heuristik bedienen. Dolata muss es hier mit einigen knappen Andeutungen (S. 95 ff.) sein Bewenden haben lassen. Interessant wäre es m. E. aber auch, die grundlegenden Triebkräfte und Rahmenbedingungen für unterschiedliche Technikentwick- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 97 REZENSIONEN lungen komplementär unter stärker ökonomischem Aspekt zu rekonstruieren, um der – einem alteuropäischen Postulat folgend – vermutlichen Doppelnatur von Innovationen als Schaffung neuer Gebrauchswerte wie neuer Verwertungsmöglichkeiten vor dem Hintergrund der sichtbar werdenden Probleme einer globalisierten kapitalistischen Ökonomie Rechnung zu tragen. Anmerkungen 1) Inwieweit die Zweiteilung des Buchs auch ursächlich auf die unterschiedlichen geografischen Orte seiner Entstehung (S. 18) zurückgeht, muss als Frage offen bleiben. 2) Meines Wissens haben ähnliche Einsichten bereits vor vielen Jahren auch die damals in der Betriebswirtschaftslehre gängige Hypertrophierung „strategischer Allianzen“ zwischen Unternehmen in die Ernüchterung geleitet. Literatur Dolata, U., 1996: Politische Ökonomie der Gentechnik. Konzernstrategien, Forschungsprogramme, Technologiewettläufe. Berlin: edition sigma Gloede, F., 1996: Entschleunigung durch „demokratische Behutsamkeit“? Zur Kritik der „Politischen Ökonomie der Gentechnik“ von Dolata. In: TA-Datenbank-Nachrichten, Nr. 2, 5. Jg., Juli 1996, S. 95-99; http://www.itas.fzk.de/deu/TADN/ TADN0796/diskus.htm » U. Albertshauser, N. Malanowski: „Innovations- und Technikanalyse im Management – Perspektiven für die strategische Unternehmensführung“. Frankfurt a. M., New York: Campus Verlag, 2004, 164 S., ISBN-3-593-37477-3, Euro 26,90 Rezension von Otto F. Bode, Bundesministerium für Bildung und Forschung, Berlin Shareholder und Stakeholder fordern von den Unternehmen zunehmend mehr Verantwortlichkeit, Partizipation und Nachhaltigkeit. Dies verlangt einen Wandel im Managementverständnis und den Einsatz neuer, innovativer Instrumentarien. Die Innovations- und Technikanalyse Seite 98 (ITA), wie sie das Bundesministerium für Bildung und Forschung (BMBF) versteht, kann hier als ein Instrument gesehen werden, das sich an den Schnittstellen zwischen Wissenschaft, Wirtschaft und Politik bewährt. Als Instrument strategischer Unternehmensführung ermöglicht sie den Unternehmen • effektiver und systematischer als bisher die Chancen sich abzeichnender Technologien zu erkennen und in marktfähige Produkte umzusetzen • frühzeitig potenzielle Risiken zu antizipieren und durch geeignete Gegenmaßnahmen möglichst zu vermeiden • den Bedürfnissen ihrer unterschiedlichsten Anspruchsgruppen durch eine systematische Kommunikation und Partizipation gerecht zu werden. Der vorliegende Band stellt sich die Aufgabe, im Rahmen von Fallbeispielen aus der Schweiz, den Niederlanden und Dänemark die Rolle und den Nutzen der Innovations- und Technikanalyse nachzuzeichnen. Ulrich Albertshauser und Norbert Malanowski, beide tätig in der Zukünftige Technologien Consulting der VDI TZ GmbH, Düsseldorf, geht es vor allem darum, innovative Trends der Nutzung von ITA in der Wirtschaft zu beleuchten und „die Erfahrungen europäischer Nachbarländer für Deutschland nutzbar zu machen“ (S. 15). In Teil A der Studie werden vor allem die Position von ITA in dem „Dreieck“ von Wirtschaft, Wissenschaft und Politik und die damit verbundenen dreifachen Systembezüge ausführlich dargestellt1 Dies ist für den weiteren Verlauf der Argumentation wichtig, weil diese Sichtweise in der gesamten Studie konsequent „durchgehalten“ wird. Gleichwohl wird das ITA-Konzept des BMBF2 nicht kopiert, sondern für den Unternehmenssektor nutzbar gemacht, indem es die systemtheoretische Grundposition, zwischen den Systemen zu agieren, beibehält, diese aber auf die Unternehmen wendet, während sich das BMBF-Konzept auf Politik bezieht. Mit anderen Worten: Wo das BMBFKonzept nach den Erkenntnissen und deren Auswirkungen für das Politiksystem und die „politischen Intermediäre“ (konkret das Ministerium) fragt, wendet die Studie dieselbe Systemkonstellation (das Dreieck zwischen Wirtschaft, Wissenschaft und Politik) im Innovationspro- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 REZENSIONEN zess auf das Wirtschaftssystem und prüft die Konsequenzen für die Unternehmen. Am Ende steht ein eigenständiges Beobachtungskonzept, das sowohl die Tradition der Forschung des Düsseldorfer VDI Technologiezentrums (Technikfolgenabschätzung, Technologiefrüherkennung, Foresight, ITA) als auch das BMBFKonzept zur ITA aufzunehmen versteht. Seiner Bewährungsprobe stellt sich der Band, wenn er die entwickelte theoretische Sichtweise auf die Aspekte Nachhaltigkeit und Stakeholder-Dialoge im Rahmen von ITA (S. 33 ff.) anwendet. Die Forderung nach intragenerativer Gerechtigkeit im Rahmen der Nachhaltigkeit verlangt die aktive Auseinandersetzung mit den Ansprüchen der unterschiedlichsten gesellschaftlichen Anspruchsgruppen eines Unternehmens durch direkten Dialog. Gerade die partizipative ITA beschäftigt sich mit diesem Anliegen und versucht, durch Beteiligung von Bürgern und Interessengruppen Kompromisse oder Konsens bei Konflikten zwischen Unternehmensinteressen und Stakeholder-Ansprüchen zu finden. Dabei sollen zumindest die Wissensund Wertebasis abgestimmt und die Legitimation von Entscheidungen erhöht werden. Im Teil B des Buches finden sich die Fallstudien zu Beispielen aus der Schweiz, den Niederlanden und Dänemark. In Bezug auf die Schweiz ist besonders bemerkenswert, dass ITA dort erst 1991 und damit später als beispielsweise in Deutschland eingeführt worden ist, aber von der Schweiz heute wichtige Impulse für die Weiterentwicklung und Verankerung von ITA in der strategischen Unternehmensführung ausgehen. Ferner wird verdeutlicht, dass ein unternehmerisches Engagement in den untersuchten Teilbereichen von ITA-Netzwerken im Bereich der Nachhaltigkeit und das „PubliForum“ als Sonderform der Stakeholder-Dialoge zu einer ganzen Reihe von Vorteilen für ein Unternehmen führt, die für die Weiterentwicklung von ITA in Deutschland als wichtige Anreize genutzt werden können (S. 59). In den Niederlanden besteht demgegenüber eine lange Tradition der Nutzung von Instrumenten aus dem Bereich der Innovationsund Technikanalyse, die mit der Fokussierung partizipativer Elemente und dem Aufkommen des Konzepts der Nachhaltigkeit neue Impulse erhalten hat. Entsprechend vielschichtig und tief greifend ist die Verankerung von ITA in den Unternehmen. So werden gerade die Möglichkeiten von Netzwerken und StakeholderDialogen von den Unternehmen intensiv genutzt (S. 87). In Dänemark ist die Entwicklung von ITA geprägt von einer Polarisierung der Entwicklung öffentlicher ITA einerseits und unternehmensbezogener ITA andererseits. In dieser Hinsicht besteht eine bemerkenswerte Übereinstimmung der dänischen und deutschen Entwicklung. Die Auseinandersetzung mit ITA findet in Dänemark auf einer außergewöhnlich breiten Basis statt. Neben verschiedensten Ministerien wie beispielsweise dem Forschungsministerium, dem Umwelt- und auch dem Bildungsministerium, zahlreichen Universitäten und Forschungseinrichtungen engagieren sich nicht nur Verbände und andere Interessenvertretungen der privaten Wirtschaft, sondern auch Verbraucherverbände, Umweltverbände und Gewerkschaften. Diese flächendeckende Beteiligung spiegelt nicht zuletzt die historische Bedeutung politischer Partizipation in der dänischen Gesellschaft wider (S. 105). In Teil C der Studie werden schließlich – neben einer vergleichenden Analyse – zahlreiche praxisnahe Handlungsoptionen (S. 119 ff.) zur erfolgreichen Umsetzung der Innovationsund Technikanalyse innerhalb eines Netzwerks aus Unternehmen, Politik und Wissenschaft jeweils für die einzelnen Akteure abgeleitet. Abgerundet wird der Band durch kommentierende Beiträge von Karlheinz Haag (Deutsche Lufthansa AG), Astrid Zwick (Allianz Zentrum für Technik) und Utz Schäffer (European Business School) in Teil D, die einerseits den Praxisbezug der ermittelten Ergebnisse reflektieren und anderseits zukünftige Fragen an Forschung und Praxis skizzieren. Es wäre sehr wünschenswert, wenn die Erfahrungen des Auslandes und die daraus entwickelten Handlungsoptionen für Deutschland in gemeinsamen Anstrengungen von Politik, Wirtschaft und Wissenschaft eine hinreichende Nutzung fänden – im rauen Klima des internationalen Wettbewerbs eine große Chance zur Stärkung des Standortes. Insgesamt bietet die Studie den an TA und ITA interessierten Leserinnen und Lesern eine lohnenswerte Lektüre, die durchaus zu kontroversen Diskussionen Anlass geben kann: • Wirtschaftspraktiker dürften über den Ausgangspunkt eines dreifachen Systembezugs Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 99 REZENSIONEN „stolpern“, zumindest, wenn sie der neoklassischen Ökonomie anhängen. • Die „traditionelle“ TA kann die starke Orientierung an den Unternehmensinteressen und die Abkehr von der reinen politischen Beratungsfunktion beklagen, die in der Studie im Mittelpunkt stehen. • Vertreter der „reinen“ (soziologischen) Systemtheorie werden den Versuch der Anwendung auf einer Akteursebene (und damit die Verzerrung der soziologischen Systemtheorie) kritisieren können. Ihnen allen bietet der Band aber Anschlussfähigkeit und eine Vielzahl von Denkanstößen, die mit praktischen Fällen verknüpft sind. Anmerkungen 1) Eine kontroverse und anregende Diskussion zu dieser Thematik findet sich zum einen nach einem „Seed-Artikel“ von Malanowski et al. in der vorliegenden Zeitschrift (Heft 2/2003) im Heft 3-4/2003. Zum anderen wurde eine Diskussion zu Aspekten der partizipativen ITA mit dem Sonderheft 1 der Zeitschrift Development & Perspectives im Winter 2003 gestartet. 2) Otto F. Bode: Die ITA der Gesellschaft – Praxisbeobachtungen zur Innovations- und Technikanalyse auf der Grundlage der Theorie sozialer Systeme. In: Development & Perspectives, No. 2, 2002, S. 36-68. » Wissenschaftsbewertung als integraler Bestandteil wissenschaftlicher Arbeit W. Bender, J.C. Schmidt (Hrsg.): Zukunftsorientierte Wissenschaft. Prospektive Wissenschafts- und Technikbewertung. Münster: agenda Verlag, 2003 (Darmstädter interdisziplinäre Beiträge), 230 S., ISBN 3-8968-8199-X, 25,00 Euro Rezension von Frank Vogelsang, Ev. Akademie im Rheinland Seit einigen Jahren ist es zumindest in der Wissenschaftstheorie kaum noch bestritten, dass sich Wissenschaft als Prozess der Erkenntniser- Seite 100 weiterung nicht hermetisch den Wertorientierungen verschließen kann. Bei den Vertretern der Einzelwissenschaften und im öffentlichen Diskurs dominiert aber nach wie vor eher ein Wissenschaftsbild, das trotz aller Diskussionen an dem alten überkommenen Modell von Wissenschaft festhält. Diesem hartnäckig sich haltenden Verständnis von Wissenschaft wollen sich die Autoren des neu erschienenen Sammelbandes „Zukunftsorientierte Wissenschaft“ entgegenstellen. Der vorliegende Sammelband bleibt dabei nicht allein auf der Ebene einer metawissenschaftlichen Diskussion, sondern versucht, das Konzept eines erweiterten Wissenschaftsbildes mit konkreten einzelwissenschaftlichen Fragestellungen in Beziehung zu setzen. Die Herausgeber stellen zu Beginn eine doppelte normative Wende in den Wissenschaften fest: Da ist erstens die innerwissenschaftliche Infragestellung eines Wissenschaftsverständnisses, das sich allein auf objektive Sachaussagen gründen will: wissenschaftliche Aussagen sind bei näherem Hinsehen immer wertdurchdrungen. Der gesellschaftliche Horizont ist der Schlüssel, um die zweite normative Wende zu verstehen. Wissenschaft kann auch nicht mehr sinnvoll von der Technik als einer alle gesellschaftlichen Bereiche durchdringenden Größe getrennt werden, Wissenschaft und Technik sind zwei Seiten einer Sache. Dieser Erkenntnis folgend unterscheiden viele Beiträge des Sammelbandes auch nicht mehr strikt zwischen Wissenschaft und Technik. Die Beiträge des Bandes lassen sich entsprechend dem Konzept in zwei Gruppen aufteilen, in eine solche, die eher metawissenschaftliche Beträge umfasst, und in eine solche, die aus fachwissenschaftlichen Perspektiven das Thema aufbereitet. Auf einige Beiträge möchte ich kurz eingehen. Der konzeptionelle Vorschlag von Gerhard Gamm besteht darin, Technik nicht als Artefakt oder Instrument oder als eine spezifische Handlungsform zu deuten, sondern viel umfassender als Medium zu beschreiben. Ein Medium ist zum einen ubiquitär, es lässt sich nicht einem bestimmten, begrenzten Raum zuordnen, zum anderen ist es aber auch zugleich einem gestaltenden Zugriff entzogen. Der so entstehende Zusammenhang von Wissen und Nichtwissen schlägt sich in der Bedeutung des Risikobegriffs nieder: Die Grenze des Nichtwissens wird im Zuge der Ausweitung des Wissens als Risiko Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 REZENSIONEN bewusst. Die Tendenz, die Gamm für die moderne Gesellschaft diagnostiziert, ist die, dass alle historischen Transzendenzerfahrungen, also alle gesellschaftsexternen Einflüsse, nun gesellschaftsintern als Risiko reformuliert werden. Mit seinem Beitrag weist Gamm also auch auf die Grenzen einer prospektiven Wissenschaftsbewertung: Es könne nicht darum gehen, alle Risiken einem vollständigen Kalkül unterwerfen zu wollen. Allerdings ist die Risikoanalyse in einem bescheideneren Rahmen doch zu aufklärenden Hilfestellungen in der Lage, was in diesem Text ein wenig unterbetont bleibt. Bedenkenswert ist die Diagnose von Gamm, dass es in unserer Gesellschaft einen Zug zur Aufrechnung aller Transzendenzerfahrungen in immanente Risikokalküle gibt. Wolfgang Liebert knüpft in seinem Beitrag an die Diskussion um die Wertfreiheit oder Wertbindung von Wissenschaft an. In 10 Thesen zeichnet Liebert die Diskussion in den wichtigsten Stationen seit dem Werturteilstreit um Max Weber nach und plädiert für ein umfassenderes Wissenschaftsverständnis, das nicht einer objektivistischen Selbstinterpretation aufsitzen darf. Dabei unterscheidet Liebert zwischen einer schwachen und einer starken Form der Wertfreiheitsthese. Die schwache Form fordert ein vorurteilsfreies wissenschaftliches Vorgehen, also auch die Hinterfragung aller vorgegebenen Werte, die starke Form will alle wertenden Urteile aus der Wissenschaft heraushalten. Der ersten These kann schwerlich widersprochen werden, wenn denn Wissenschaft ein offenes Ringen um die bessere Erkenntnis sein soll. Wenn sich die Wissenschaft der Wertproblematik offensiv und selbstkritisch stellen soll, dann muss andererseits die starke Form der Wertfreiheitsthese verworfen werden. Deshalb ist die Vorstellung, Wissenschaft erziele mit ihren Bemühungen „objektive“ Ergebnisse, unhaltbar und kann, so der Verdacht von Liebert, eigentlich nur dazu benutzt werden, die Wissenschaft gegenüber unliebsamen ethischen oder gesellschaftlichen Ansprüchen zu immunisieren. Paul Gottlob Layer weist in seinem Beitrag auf untergründige Entwicklungen in den herrschenden Erkenntnisparadigmen der Wissenschaften hin, die für das Selbstverständnis der Wissenschaft erhebliche Bedeutung haben können. Dies führt er am Beispiel der Molekularbiologie vor, deren Paradigma der bausteinähnli- chen Grundstruktur der lebendigen Natur die Biologie in ihrem Selbstverständnis massiv verändert hat. Moderne Biowissenschaftler werden so zu Biomedizinern, da die Interessen in der Humanmedizin um ein Vielfaches größer als in anderen Biologiebereichen sind. Mit den Interessen wachsen aber auch – so die Gefahr, die Layer diagnostiziert – die Verflechtungen mit den anderen gesellschaftlichen Systemen. Jan C. Schmidt gibt in seinem Beitrag einen Überblick über die verschiedenen Konzeptionen des Technikbegriffs und diskutiert sie unter der Leitfrage der Gestaltbarkeit von Technik. Hier unterscheidet er sich in der Akzentuierung seines Interesses deutlich von dem Beitrag von Gerhard Gamm. Das gesuchte Konzept von Technik muss einerseits gestaltungsoffen sein, darf andererseits aber auch nicht der Suggestion Raum geben, alles Technische sei auf einfache Weise beherrschbar. Die Technik muss sich in dem gesuchten Konzept als zugleich gestaltbar und widerständig gegenüber Gestaltungsoptionen darstellen lassen. Es ist deutlich, dass sich hier sehr fundamentale Beschreibungen (anthropologische Notwendigkeit, Medium) nicht für die Frage nach Gestaltbarkeit eignen, aber auch zu einfache Beschreibungen (Instrument) sind wenig tauglich. Am ehesten sieht der Autor das Anforderungskriterium bei dem Entwurf von Günther Ropohl (Technik als soziotechnisches System) gegeben. Setzt man mit diesem analytischen Ergebnis die Gestaltbarkeit von Technik (und damit wohl auch von Wissenschaft) voraus, so fragt es sich, welche Methode zur Anwendung kommen soll, um die Gestaltung in die Tat umzusetzen. Hier nun bietet Wolfgang Bender einen Überblick über einige Wege ethischer Urteilsbildung und ihre Umsetzung in praktische Felder. Ethische Urteilsbildungen müssen in einem Verfahren konkretisiert werden. Bender erläutert dann die Verfahren, die in der praktischen Arbeit von IANUS, der Interdisziplinären Arbeitsgruppe Naturwissenschaft, Technik und Sicherheit an der Technischen Hochschule Darmstadt, zur Anwendung kommen und führt dies für zwei Technikfelder, die Atomtechnik und die Biotechnologien, genauer aus. Weitere Beiträge des Bandes widmen sich eingehender den Problemen der einzelnen Forschungsfelder. Eine Vermutung wird durch die Lektüre der unterschiedlichen Forschungs- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 101 REZENSIONEN schwerpunkte gestärkt, nämlich die, dass die metawissenschaftliche Erkenntnis der Wichtigkeit der Implementierung wertorientierter Reflexion in dem wissenschaftlichen Betrieb nicht einfach schematisch in den einzelnen Bereichen umgesetzt werden kann. Die Forschungsfelder unterscheiden sich in erheblichem Maße bezüglich ihrer politisch-ökonomischen Einbettung und der dort vorherrschenden Zwänge, aber auch der wissenschaftsimmanenten Argumentationsformen. Der Text von Nicole Christine Karafyllis behandelt das Thema der nachwachsenden Rohstoffe. Sie bezieht sich zur Analyse insbesondere auf die von Meinolf Dierkes ausgearbeitete Leitbildtheorie. Das „Nachwachsen“ ist ein Bild, das an andere gesellschaftliche Bilder wie „Wachstum“ anknüpfen kann. Das kann zu Problemen führen, etwa wenn sich in den Studien zu nachwachsenden Rohstoffen zwei konflikthaltige Bilder vermengen: Nachhaltigkeit und Wachstum. Christoph Pistner und Alexander Glaser berichten von Bemühungen der Technikfolgenabschätzung bei neueren Nukleartechnologien, die von IANUS im Rahmen eines TA-Programms im Auftrag des Schweizerischen Wissenschaftsrates vorgenommen worden sind. Es geht darum, das Potenzial zukünftiger Nukleartechnologien abschätzen zu lernen. Dazu wird von den Autoren ein 7teiliges Bewertungsraster aufgestellt, zu dem Kriterien wie Sicherheit, Proliferationsfähigkeit, Nachsorge, aber auch Ökonomie, Einsatzfähigkeit und andere gehören. Kathryn Nixdorf und Wolfgang Bender untersuchen in einem Beitrag die Dual-UseProblematik der biotechnologischen Forschung, also die Frage, inwieweit Forschungsergebnisse militärische Relevanz haben können. Die Autoren zeigen, dass ein erhebliches Missbrauchspotenzial in der biotechnologischen Forschung vorhanden ist. Christine Hauskeller untersucht die ethischen Implikationen und gesellschaftlichen Kontexte des Forschungsfeldes humane Stammzellen. In ihrem kurzen Überblick über die wichtigsten Faktoren zeigt sie, wie weit reichend die Verbindungen eines scheinbar sehr begrenzten Forschungsfeldes in die Gesellschaft sind, denn um das Projekt der Stammzellforschung angemessen verstehen zu können, sind fundamentale Faktoren des gesellschaftlich verankerten Men- Seite 102 schenbildes zu berücksichtigen, wie etwa das Bild von Gesundheit und Krankheit. Zum Abschluss des Bandes behandelt Jan C. Schmidt die Nanotechnologien. Hier liegt nun ein Forschungsbereich vor, bei dem zumindest nicht behauptet werden kann, dass die ethische Urteilsbildung zu spät komme, denn dieser Bereich ist erst dabei, sich zu formieren und eigene Standards auszuarbeiten. Die Situation ist eigentümlich: Noch zeichnen sich keine gemeinsamen Forschungsstandards ab, aber die Verkünder der neuen Technologie sehen in ihr die künftige Basistechnologie aller anderen Technologien. Damit ist der Weg zu einem technokratischen Selbstverständnis gebahnt. Angesichts des nach wie vor dominanten Selbstverständnisses in unserer Gesellschaft und insbesondere im Wissenschaftsbetrieb, dem gemäß es eine tiefe Kluft zwischen der sachorientierten Wissenschaft und ihrer Bewertung gibt, kann man den aufklärerischen Anspruch, der die Autorinnen und Autoren der Texte des Sammelbandes eint – Wertorientierungen offen zu legen und ihren Diskurs einzuklagen –, nur begrüßen. Bei der Lektüre des Buches wird deutlich, dass die größte Hürde nicht so sehr in der allgemeinen Feststellung der Notwendigkeit ethischer Orientierung der Wissenschaft liegt, sondern in der jeweils konkreten Umsetzung in den Einzeldisziplinen. « N.C. Karafyllis, T. Haar (Hrsg.): Technikphilosophie im Aufbruch. Festschrift für Günter Ropohl. Berlin: edition sigma, 2004, 278 S., ISBN 3-89404-516-7, Euro 17,90 Rezension von Armin Grunwald, ITAS Auf der jüngsten deutschsprachigen Konferenz über Technikphilosophie (Cottbus im Juli 2002, vgl. die Dokumentation in Kornwachs 2004) hielt Günter Ropohl einen Abendvortrag mit dem Titel zur „unauffälligen Abwicklung der Technikphilosophie“ (abgedruckt in Ropohl 2004). Dort malte er in düsteren Farben die Gegenwart und, mehr noch, die Zukunft der Technikphilosophie an deutschen Universitäten aus. Dass die Festschrift zu Ropohls 65. Ge- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 REZENSIONEN burtstag unter dem Titel „Technikphilosophie im Aufbruch“ als absolutes Kontrastprogramm zu diesem Vortrag wirkt, ist möglicherweise ein Zufall – vielleicht ist der Titel aber doch motiviert durch den energischen Protest vor allem der jüngeren Garde der Technikphilosophen nach dem pessimistischen Vortrag auf jener Konferenz. Der Wunsch, mit dem Buch dem Jubilar eine Technikphilosophie im Aufbruch zu zeigen, findet sich jedenfalls im Vorwort der Herausgeber explizit wieder. Ganz in der Tradition der akademischen Festschriften haben Nicole Karafyllis und Tilmann Haar als Schüler Günter Ropohls Beiträge von Weggefährten und Kollegen Ropohls versammelt und unter das begriffliche Dach der Technikphilosophie gestellt. Die Beiträge sind geprägt durch persönliche oder thematische Beziehungen zu Günter Ropohl, zu seinem wissenschaftlichen Werk bzw. zu seinen über die Wissenschaften hinaus reichenden gesellschaftlichen Wirkungen. Die wissenschaftliche Laufbahn Ropohls begann als Ingenieur in der Fertigungstechnik und führte über die Habilitation (Systemtheorie der Technik) bei Hans Lenk in Karlsruhe zur Professur für Allgemeine Technologie im Fachbereich Arbeitslehre an der Universität Frankfurt. In der TA ist Ropohl vor allem in zweierlei Hinsicht bekannt: zum einen als scharfer Kritiker der vermeintlich viel zu sehr folgenorientierten und auf Politikberatung fokussierten statt gestaltungsorientierten frühen TA-Ansätze, zum anderen durch sein Engagement im Arbeitskreis Mensch und Technik des VDI und insbesondere seine prägende Mitarbeit an der VDI-Richtlinie 3780 zur Technikbewertung. Das Buch „Technikphilosophie im Aufbruch“ bietet eine anregende Mischung aus teils bekannten Thesen und neueren Arbeiten aus den verschiedenen Themenfeldern, mit denen Günter Ropohl sich wissenschaftlich auseinandergesetzt hat: von Technikwissenschaften über Technikphilosophie, Systemtheorie, Arbeitswissenschaften und Technikbewertung (ein Verzeichnis der wissenschaftlichen Schriften von Günter Ropohl ist dem Band beigefügt). Damit ermöglicht die Festschrift auch einen Einblick in aktuelle Felder und Kontroversen der Technikphilosophie. Ziel des Buches ist es, Antworten auf die Frage „Was kann und was soll Technik heute sein und leisten?“ (Umschlagrückseite). Dabei werden sehr weite Begriffe von Technik und Technikphilosophie unterstellt: das Spektrum der behandelten Schlüsselworte reicht von der deutschen Restaurantkultur bis zur Energiepolitik, von der Naturvergessenheit der Technik zu technischen Utopien in der DDR, von der Zukunft der Arbeit bis zur Globalisierungskritik, von Innovationstheorie zur Technikethik und zum Ort der Technik in der ökonomischen Wertschöpfung. Diese anregende Vielfalt ist inhaltlich in fünf Teile untergliedert: (1) Technik und Kultur: Galt Technik lange Zeit, besonders im deutschen Bildungsbürgertum, als „das Andere“ der Kultur, so ist in den letzten Jahren ein wachsendes Interesse an den vielfältigen Verbindungen zwischen Technik und Kultur zu beobachten. Wolfgang König (Zum Italiener gehen! Forschungsüberlegungen zur Ethnisierung und Differenzierung der Restaurantlandschaft) setzt mitten im lebensweltlichen Verständnis von Kultur an und thematisiert die historischen Veränderungen der Restaurantlandschaft vor dem Hintergrund allgemeiner gesellschaftlicher Entwicklungen. Dieses Thema im Kontext der Technikphilosophie zu betrachten, dürfte eine sehr schöne Innovation sein und nur den verwundern, der nicht die kulinarischen Neigungen von Ropohl kennt. Gerhard Banse (Zwischen Zukunftsprojektion und Pragmatik. Technische Utopien in der DDR) widmet sich ebenfalls einem in der Technikphilosophie eher randständigen Thema. Wenn auch die Technikgeneseforschung auf die Rolle von „Leitbildern“ in der Technik hingewiesen hat, und technische Visionen und ihre Ambivalenzen gegenwärtig wieder ein aktuelles Thema sind, vor allem in der Nanotechnologie und ihrer gesellschaftlichen Rezeption (Coenen 2004), so klafft doch im Verständnis der Rolle von technischen Utopien zu verschiedenen Zeiten und in verschiedenen Gesellschaften eine deutliche Lücke. Das Unternehmen, die Rolle technischer Utopien und die Debatten um sie herum in der DDR zu beleuchten und nach verschiedenen Zeitstadien zu unterteilen, führt zu einer Reihe von erstaunlichen Einsichten in ein in vielen Facetten doch weithin unbekanntes System, das der Reflexion der Technik deutlich früher Aufmerksamkeit gewidmet hat als die westliche Welt (allerdings auf durch die Marxsche Gesellschaftstheorie vorgegebene Weise). Zu diesen Einsichten ge- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 103 REZENSIONEN hört die Beobachtung, dass es durchaus wesentliche parallele zeit- und geistesgeschichtliche Entwicklungen in beiden Systemen gegeben hat, was die Einschätzung der Rolle, der Machbarkeit und Grenzen technischer Utopien betrifft (übrigens ein Ergebnis, das gut zur vergleichenden Analyse von Planungsverständnissen passt?; vgl. hierzu Grunwald 2000). (2) Technik und Natur: Das Verhältnis zwischen Technik und Natur stellt ein Dauerthema der Technikphilosophie dar. Peter Wehling (Die „natürliche Symbolgewalt technischer Neuerungen“. Zur Aktualität von Walter Benjamins Technikphilosophie und -soziologie) erschließt wenig bekannte technikphilosophische Aussagen von Walter Benjamin für die gegenwärtige Diskussion. Er kommt zu dem Ergebnis, dass Benjamins Sicht auf Technik nicht nur frühzeitige Folgenanalysen, ethische Beurteilung und demokratische Willensbildung einfordert, sondern auch zur Einbettung der technischen Perspektiven in die gesellschaftlichen Handlungsspielräume und ihre Verknüpfung mit den Akteuren verpflichtet. Friedrich Rapp (Die technologische Entfremdung von der Natur) variiert die kulturskeptische These, dass der technische Fortschritt zu einer immer weiter fortschreitenden Entfremdung des Menschen von der Natur führe, und stellt dieser Entwicklung die Unabdingbarkeit der Natur (auch der Natur des Menschen) als Bezugsgröße entgegen. Nicole Karafyllis (Natur als Gegentechnik. Zur Notwendigkeit einer Technikphilosophie der Biofakte) wendet geschickt und provokativ die Ropohlsche These von der Technik als Gegennatur in ihr vermeintliches Gegenteil. Damit macht sie auf den zirkulären Charakter der Gegenüberstellung von Natur und Technik aufmerksam: wird Technik in der aristotelischen Tradition als das Nicht-Naturhafte bestimmt, funktioniert dies nur, wenn beantwortet wird, was denn Natur sei – mit der Gefahr, Natur als das Nicht-Technische zu begreifen. Damit macht Karafyllis auf den reflexiven Charakter der Unterscheidung von Natur und Technik aufmerksam als einer Unterscheidung an den Gegenständen, nicht als einer Unterscheidung der Gegenstände. Die Wortschöpfung „Biofakte“ in Entgegensetzung zu den traditionellen „Artefakten“ bringt dies auf den Begriff. Seite 104 (3) Technik und Dialektik: Christoph Hubig (Technik als Mittel und Medium) führt in aktuelle, der Hegelschen Tradition folgende Diskussionen in der Technikphilosophie ein, nach denen Technik – sicher fern ab von Ropohlschen Gedanken – nicht nur im Sinne der klassischen Handlungstheorie als Mittel, sondern darüber hinaus auch als Medium (z. B. der Welterschließung) konzeptualisiert wird. Hans Heinz Holz (Systemtheorie und Dialektik) führt auf anregende Weise eine langjährige Diskussion mit Günter Ropohl weiter, indem er – nicht ohne weiteres erwartbare – Bezugspunkte zwischen der systemtheoretischen und der dialektischen Annäherung an die Konstitution von wissenschaftlichen Gegenständen betrachtet. Michael Weingarten (Produktivkräfte, Produktionsinstrumente und schöpferische Entwicklung. Überlegungen im Anschluss an Schumpeter) setzt einer seiner Meinung nach wieder modisch werdenden Marx-Rezeption (der Anschluss an Marx als Technikphilosophen findet sich in der Festschrift mehrfach wieder) die Theorie der „schöpferischen Zerstörung“ von Schumpeter entgegen und kommt auf dieser Basis zu dem Schluss, dass eine dynamische, entwicklungsfähige Wirtschaft mehr nichtplanbare Innovationen und damit auch mehr Risikobereitschaft benötigt. (4) Technikethik und Technikbewertung: Ethik und Technikbewertung (so auch der Titel eines Standardwerkes von Ropohl) gehören zu den großen Themen von Günter Ropohl. Tilmann Haar (Sachzwang. Technik zwischen natürlichen und institutionellen Tatsachen) geht in seinem – auf seine Dissertation bei Ropohl zurückgehenden – Beitrag auf Sachzwänge in der Gestaltung und Anwendung von Technik ein und formuliert im Anschluss an Gehlen die Forderung nach einer „Sachzwangkritik“, um mögliche ideologische Verwendungen von Sachzwangargumenten zu verhindern. Hans Lenk und Matthias Maring (Technikethik – pragmatisch und synthetisch) bekräftigen ihre These, dass ethische Aspekte der Technik sich nicht auf individualistische Aspekte beschränken, sondern die soziale Verortung und die systemische Vernetzung moralischer Probleme berücksichtigen müssen. Individualistische und korporatistische Ansätze der Ethik müssen sich danach ergänzen. Konrad Ott (Klimapfade. Energiepolitik in Zeiten steigender Temperaturen) wendet Ropohls Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 REZENSIONEN ethische Prinzipien auf die Zukunft der deutschen Stromerzeugung an. Ausgehend von Ropohls Satz „Übel muss man auf jeden Fall verhindern, Güter dagegen braucht man nicht unbedingt zu vermehren“ gelangt Ott bis zu Empfehlungen die Ausgestaltung der zukünftigen Strompolitik und des Zertifikatehandels angesichts einer „Weggabelung“ zwischen zwei möglichen Zukunftspfaden in der Stromversorgung betreffend. Ethik-Skeptiker mögen sich bestärkt fühlen, wenn sie bei Ott im Postscriptum nachlesen, dass der gemäß der gewählten ethischen Perspektive „rationale“ Weg aufgrund der Interventionen der Kohle- und Energielobby gerade nicht beschritten werden wird. (5) Technik und Innovation: Technik wirkt nicht von sich aus gesellschaftsverändernd, sondern erst als konkrete Innovation. Dieser Teil der Festschrift enthält Arbeiten, die die gesellschafts- und zukunftsprägenden Folgen von Technik und Technisierung thematisieren. Hans Poser (Innovation: The Tension between Persistence and Dynamics) stellt fest, dass die Anschlussfähigkeit von radikalen Innovationen und damit ihr Erfolg eine gewisse gesellschaftliche Kontinuität und Beständigkeit voraussetzen. Klaus Kornwachs (Technik wissen. Präliminarien zu einer Theorie technischen Wissens) vertritt die These, dass technisches Wissen in vielen Fällen nicht das Resultat eines Erkenntnisprozesses, sondern das Ergebnis einer verstandenen Mitteilung ist, der man vertraut, und leitet hieraus die weiterführende Frage nach den Bedingungen ab, unter denen diese „Mitteilungen“ verstanden werden können. Alfons Schmid und Silvia Krömmelbein (Informationstechnischer Wandel und Zukunft der Arbeit) untersuchen die Auswirkungen des technischen Fortschritts auf die Arbeitswelt und damit die Verbindung zweier Hauptthemen von Günter Ropohl. Sie lehnen technikdeterminstische Vorstellungen ab und heben stattdessen die Bedeutung wirtschaftsorganisatorischer Einflüsse auf die Arbeitswelt hervor. Richard Huisinga (Spezifische Wissensbasen und Exemplarik. Relevanz und Reichweite für die Berufsbildung im Bereich der Hochtechnologie) befasst sich bildungstheoretisch mit der gesellschaftlichen Konstitution und Verarbeitung dessen, was unter „Hochtechnologie“ verstanden wird, und kommt zu dem Schluss, dass auf der Ebene der Berufsbildung bislang keine zufrieden stellende Konkretion erreicht sei. Manfred Mai (Moderne und antimoderne Strömungen in der Gesellschaft. Von der „konservativen Revolution“ zur Globalisierungskritik) schlägt den Bogen zu zeitdiagnostischen Reflexionen der Befindlichkeit der gegenwärtigen Gesellschaft. Diese kurze Inhaltsbeschreibung macht deutlich, dass die große thematische Bandbreite sich nur schwer den gewählten Überschriften der einzelnen Teile, aber auch nur teilweise dem begrifflichen Dach der Technikphilosophie unterordnet. In diesem Zusammenhang ist es bedauerlich, dass der einführende Beitrag der Herausgeber zwar den viel versprechenden Titel „Technikphilosophie – Stand einer Disziplin“ trägt, den damit erhobenen Anspruch aber leider in keiner Weise einlöst (was sicher auch auf zwei Seiten unmöglich wäre). Ein einführender Beitrag hätte in diesem Fall die Aufgabe, in der thematischen Heterogenität der verschiedenen Beiträge eine oder mehrere durchgängige Fragestellungen zu formulieren oder, da es um Technikphilosophie geht, den zugrunde liegenden Begriff der Technik oder die aktuelle Situation der Technikphilosophie darzulegen. Dass dies nicht erfolgte, stellt eine verpasste Chance dar – ist allerdings, das ist den Herausgebern zugute zu halten, in der Technikphilosophie nicht so selten, was mit der Unabgeschlossenheit dieses nie so recht etablierten Teilgebietes der Philosophie zusammenhängen mag. Ob sich die Technikphilosophie wirklich im Aufbruch statt in der Abwicklung (s. o.) befindet, wird die weitere Entwicklung zeigen. Die Festschrift selbst vermittelt, entgegen ihrer Programmatik, einen eher ambivalenten Eindruck. Damit man von einem Aufbruch reden kann, sollten neue Themen und Fragestellungen, neue Relevanzen und Nachfragen oder neue Akteure in der Technikphilosophie sichtbar werden. Dies ist jedoch in dem Buch wenig zu erkennen. Einigen neuen Themen – wie etwa die Rolle technischer Utopien, der Biofakte oder die technikphilosophische Entdeckung Schumpeters – stehen eine ganze Reihe vertrauter Fragestellungen und auch zumindest teilweise vertrauter Antworten gegenüber. Nun weisen akademische Festschriften vom Grundgedanken her selten programmatisch in die Zukunft. Im Mittelpunkt stehen – dem festlichen Anlass gemäß – eher eine Bestandsaufnahme des Gegenwärtigen und ein Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 105 REZENSIONEN würdigender, vielleicht mehr oder weniger kritischer Blick auf das Erreichte. Von daher wäre ein Urteil zu streng, das sich ausschließlich am programmatischen Titel „Technikphilosophie im Aufbruch“ und dessen nur teilweiser Einlösung orientieren würde. Stattdessen erstreckt sich die positive Würdigung des Buches durch den Rezensenten auf die thematische Vielfalt, die neue Perspektiven erlaubt, und die kritische Reflexion des aktuellen Diskussionsstandes im Umkreis der Ropohlschen Themen, weniger auf die nur teilweise zum Ausdruck kommende Aufbruchstimmung. Zu guter Letzt seien – verbunden mit der herzlichen Gratulation zum 65. Geburtstag – zwei Hoffnungen geäußert: dass Ropohls Diagnose der Abwicklung der Technikphilosophie sich als unzutreffend erweisen und dass die Festschrift zu seinem Geburtstag eine gute Verbreitung erfahren möge. Literatur Coenen, C., 2004: Nanofuturismus: Anmerkungen zu seiner Relevanz, Analyse und Bewertung. Technikfolgenabschätzung – Theorie und Praxis 13. Jahrgang, Nr. 2 (Juni), S. 67-76 Grunwald, A., 2000: Handeln und Planen. München: Fink Kornwachs, K. (Hrsg.), 2004: Technik – System – Verantwortung. Münster: LIT Verlag Ropohl, G., 2004: Gelegenheiten zur unauffälligen Abwicklung der Technikphilosophie. In: Kornwachs, K. (Hrsg.): Technik – System – Verantwortung. Münster: LIT Verlag, S. 115-128 » St. Bannas: Faire Marktwirtschaft. Ein Modell zu ‚No Logo’. München: Ökom Verlag, 2003, 89 S., ISBN 3-936581-17-7, Euro 16,80 Rezension von Jürgen Kopfmüller, ITAS Die Frage, wie die Grundprinzipien und Rahmenbedingungen des Wirtschaftens auf lokaler, nationaler oder globaler Ebene beschaffen sein sollten, damit die Wirtschaft den Menschen und ihren Bedürfnissen etwa nach Existenzsicherung und Lebensqualität – also ihrer ur- Seite 106 sprünglich als „dienend“ charakterisierten Funktion – gerecht wird, beschäftigt die Gesellschaften und auch die Wissenschaft seit langer Zeit. Mit dem, was heute als „soziale Marktwirtschaft“ bezeichnet wird, wurde, beginnend vor rund fünfzig Jahren, in Deutschland und auch in anderen Industriestaaten ein vielschichtiges System unterschiedlichster Institutionen und Regeln geschaffen, das vor allem auf einen Ausgleich zwischen den grundlegenden Handlungsprinzipien Effizienz und Gerechtigkeit zielt. Zwar hat dieses System wohl seine relative Überlegenheit gegenüber den wesentlichen Alternativen – insbesondere der Planwirtschaft und dem kurzzeitigen Experiment der sozialistischen Marktwirtschaft – aus vielfältigen Gründen nachgewiesen. Dennoch sind die heutigen Gesellschaften mit zahlreichen Phänomenen konfrontiert, die auch im Sinne der Verletzung der beiden Prinzipien oder ihrer nicht gelingenden Verschmelzung ein Problem darstellen und in vielen Fällen noch an Schärfe zunehmen: Arbeitslosigkeit und Armut sind ebenso Indizien für zumindest partielle Schwächen der existierenden Systempraxis wie die Zerstörung der natürlichen Lebensgrundlagen, die Bildungsmisere oder auch eine wachsende Zahl von Menschen, deren Krankheitssymptome den im Räderwerk aus täglichen Leistungszwängen oder Verteilungsund Machtkämpfen entstehenden Stressfaktoren zugeschrieben werden. Mit dem vorliegenden Buch stellt Stephan Bannas auf rund 80 Seiten seine Überlegungen zur Gestaltung einer „fairen Marktwirtschaft“ vor. Bei seinem Ansatz – er verwendet dafür den Begriff „Modell“ – geht er von der Grundthese aus, dass die heutigen Probleme eher durch der Marktwirtschaft wesensfremde Faktoren verursacht werden und weniger durch Systemversagen des marktwirtschaftlichen Prinzips selbst (S. 1). Dem will er sein Modell als „umfassendes Gesellschafts- und Wirtschaftskonzept“ entgegensetzen. Es soll wesentlich gekennzeichnet sein durch eine wieder stärkere Orientierung an ursprünglichen Grundideen der Marktwirtschaft, an den Menschen sowie an den Prinzipien einer flexiblen und freiheitlichen Wirtschaftsordnung (S. 5). Er leistet damit einen auf einer prinzipiellen Ebene angesiedelten Beitrag zu einer ordnungsökonomischen bzw. ordnungspolitischen De- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 REZENSIONEN batte, die in den letzten Jahren eher auf Detailfragen ökonomischer Steuerung gerichtet war. Dieser Schritt ist a priori sehr begrüßenswert, weil angesichts der zu lösenden Probleme und ihrer Dimension eine Debatte auch über grundsätzlichere Veränderungen der institutionellen Rahmenbedingungen des Wirtschaftens und deren Umsetzung dringend erforderlich ist. Vor dem Hintergrund seiner Erfahrungen und Erkenntnisse als Unternehmer sowie als Wirtschafts- und Geisteswissenschaftler, der ein „Ur-Vertrauen“ in die marktwirtschaftlichen Grundprinzipien zum Ausgangspunkt seiner Überlegungen macht, geht Bannas von der Problemdiagnose vielfach verfälschter Marktergebnisse und daraus resultierender unerwünschter Effekte aus. Er führt dies vor allem auf zwei Faktoren zurück: zum einen auf die institutionalisierte Ausblendung der Emotion Angst auf der Produktionsseite – Angst vor Risiko und vor den Folgen des eigenen Tuns – insbesondere durch die Ende des 19. Jahrhunderts eingeführten haftungsbegrenzenden Regelungen des Aktien- und des GmbH-Rechts; zum anderen auf die umfangreichen Werbekampagnen und Marketingstrategien, die er als kommunikative Beeinträchtigung der Menschen und als Verletzung ihrer kommunikativen Integrität und Selbstbestimmung interpretiert und die er im Wesentlichen als dem Zweck der Erhaltung bzw. Konzentration von Marktmacht dienend charakterisiert. Der Autor spricht hier von „Informationsmüll“ und „Aufmerksamkeitsokkupation“, die Folgen davon bezeichnet er als „emotionale externe Effekte“, in Erweiterung des in der Umweltökonomie eingeführten, dort jedoch auf materielle Komponenten beschränkten Begriffs der externen Effekte. Im Verständnis des Autors besteht die Grundidee des vorliegenden Ansatzes darin, die (lebenden) Menschen in den Vordergrund ordnungstheoretischer Überlegungen zu stellen und dem Kapital – als tendenziell vergangenheitsbezogenem und von Verstorbenen übernommenem Faktor – keine eigenständige und strukturierende Funktion zuzumessen. Anstelle des Kapitals und dessen Wachstum soll vor allem den Menschen und ihren Emotionen die Funktion des „dynamischen Elements“ des Wirtschaftens zukommen. Er versucht damit, eher an den Überlegungen von Adam Smith zur „Theorie der ethischen Gefühle“ anzuknüp- fen und diese mit seinem wesentlich später erschienenen Hauptwerk „Der Wohlstand der Nationen“ zu verbinden, anstatt sich in die gegenwärtige Globalisierungsdebatte einzureihen, die er als Aufguss der SozialismusKapitalismus-Kontroverse kritisiert. Bannas’ „Gegenmodell“ der „Fairen Marktwirtschaft“ beruht auf drei konstituierenden Elementen: Erstens bleiben mit der freien Preisbildung, der wettbewerblichen Marktorganisation und dem Privateigentum wesentliche Elemente der gegenwärtigen marktwirtschaftlichen Grundordnung prinzipiell erhalten. Dabei ist hinsichtlich des Eigentums vorgesehen, dass machtbildende Rechte von Verstorbenen nicht vererbt bzw. weitergegeben werden können, sondern der Allgemeinheit zugänglich gemacht werden, mit dem Ziel, die Chancen und Gestaltungsspielräume kommender Generationen immer wieder neu und damit intergenerativ fairer zu verteilen. Eigentumsrechte an Sachen – und damit auch gegebenenfalls existierende Machtelemente – sollen dagegen wie bisher übertragen werden können. Auch der Anreiz, aus unterschiedlicher Kreativität oder Innovationsbereitschaft ökonomische Vorteile erzielen zu können, soll im Sinne der „Philosophie“ von Wettbewerb und Dynamik konstitutiven Charakter behalten. Die Grundzüge von Geld- und Finanzverfassung, Steuer- und Sozialgesetzgebung bleiben ebenfalls erhalten. Das zweite Element besteht darin, dass Haftungsbegrenzung bzw. -ausschluss bei wirtschaftlichen Aktivitäten nicht mehr vorgesehen ist. Es wirtschaften nur noch voll haftende Einzelkaufleute oder Zusammenschlüsse solcher Kaufleute – d. h. juristische Personen sind nicht wirtschaftlich aktiv – und das Aktienrecht und das GmbH-Gesetz werden abgeschafft, d. h. Aktionäre und GmbH-Anteilseigner gibt es nicht mehr. Vereine oder Vereinigungen mit eigener Rechtspersönlichkeit sind zwar zugelassen, sie werden jedoch steuerlich benachteiligt um zu vermeiden, dass die neue Regelung durch das Vereinsrecht unterlaufen werden kann und dass Vereine primär wirtschaftlich tätig sind. Bannas knüpft damit an klassische Ökonomen wie Adam Smith oder Walter Eucken an, die Haftungsbeschränkungen bzw. Kapitalgesellschaften im Prinzip ablehnten. Als Folge dieser Modifikation erwartet er, dass Kapital vermehrt innerhalb der Unternehmen – d. h. durch nicht Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 107 REZENSIONEN ausgeschüttete Gewinne – oder durch Bankkredite geschaffen wird und dass sich die Kapitalmobilität wieder der menschlichen Mobilität annähert, da Vertrauen gegenüber den Kapitalnachfragern eine wesentlich größere Rolle spielen wird. Er prognostiziert eine wachsende Zahl von unternehmerisch Tätigen (nicht zuletzt ehemalige Aktionäre) sowie einen aufgrund des Wegfalls des Haftungsausschlusses einsetzenden strukturellen Wandel in der Finanzbranche weg von Großbanken und hin zu kleineren, regional orientierten Banken, die sich aufgrund des Rufschädigungsrisikos durch gefährdete Einlagen wesentlich weniger an Unternehmen beteiligen werden. Das dritte konstitutive Element besteht in einem erheblich eingeschränkten Markenschutzrecht. Es erlischt mit dem Tod des Inhabers und ist nicht auf andere Personen übertragbar. Die Marke wird sofort frei und für die Mitbewerber nutzbar, die sich jedoch an die vom ursprünglichen Inhaber festlegbaren Anforderungen an die Marke halten müssen. In der Einschätzung des Autors wird dies zur Folge haben, dass Marken in der Unternehmensstrategie keine dominierende Bedeutung mehr zukommt, Investitionen in Marken risikoreicher werden und Marketingund Werbestrategien sich an diese Gegebenheiten anpassen werden. Wesentliches Ziel dieser Änderungen der gegenwärtigen Haftungsbeschränkungs- und Markenschutzregelungen ist es, eine sich über Generationen fortpflanzende Konzentration von ökonomischer Macht zu begrenzen und letztlich eine Alternative zur Dominanz von internationalen Konzernen und Marken zu ermöglichen. Neben den genannten drei konstitutiven Elementen werden zwei ergänzende Regelungen eingeführt, die die Akzeptanz des Modells erleichtern sollen. Zum einen wird eine Risikobegrenzung für die Unternehmer dadurch vorgesehen, dass sie in begrenztem Umfang (maximal 5 Mio. Euro) Kapital ansammeln können, das nicht pfändbar ist und das nur zum Lebensunterhalt, nicht für wirtschaftliche Aktivitäten, verwendet werden darf. Zum anderen wird die Möglichkeit, Vermögen zu vererben, auf die Summe von fünf Mrd. Euro begrenzt, darüber hinaus gehende Beträge sollen dem Staat zufallen. Im Anschluss an die Skizzierung seines Ansatzes versucht sich der Autor an einer quali- Seite 108 tativen Überprüfung der Funktionsfähigkeit in zweierlei Hinsicht: Zum einen geht er unter einer eher immateriellen, visionären Perspektive der Frage nach, inwieweit es mit dem Modell gelingen kann, die gewünschten menschlichen „Energien“ freizusetzen, zum anderen betrachtet er in einer eher pragmatischen materiellen Perspektive die ökonomische und gesellschaftliche Effizienz seines Modells. Die „Energie-Frage“ beantwortet er insoweit positiv, als nach seiner Einschätzung die Umsetzung seines Modells zu einer veränderten Wirtschaftsweise führen würde, die „die Vielseitigkeit der Welt und die Vielfältigkeit der Lebensenergien widerspiegelt“ (S. 23). Nicht anonyme, langfristig bestehende Konzerne, sondern dem menschlichen Lebenszyklus unterworfene, a priori stärker regional orientierte Eigentümer-Unternehmer würden die wirtschaftliche Realität prägen. Dadurch erhielten die Elemente Muße und Langsamkeit wieder mehr Bedeutung gegenüber Elementen wie Beschleunigung und Geschwindigkeit. Der Spannungsbogen der gesamten Verhaltensbandbreite zwischen „Dienst am Nächsten“ und „Egoismus“ würde wieder mehr zum alltäglichen Bild des Wirtschaftens gehören. Dabei soll es letztlich dem Spiel der Marktkräfte überlassen bleiben, welche der vom Autor idealtypisch unterschiedenen Energien – die an Kosten- oder Produktivitätsgrößen orientierte „betriebswirtschaftlich-pragmatische“ oder die an menschlicher Nähe, regionaler Identität oder Altruismus orientierte „betriebswirtschaftlich-charismatische“ – dominieren wird, sowohl im Verhältnis zwischen Unternehmen als auch innerhalb eines Unternehmens. Diese, durch das Modell intendierte tendenzielle Chancengleichheit für beide „Energietypen“ markiert er als wesentlichen Unterschied zur gegenwärtigen Praxis. Hinsichtlich der Effizienz-Frage beschränkt sich der Autor zwangsläufig auf grundlegende Argumentationslinien, da Maßnahmen der vorgeschlagenen Art in ihren vielfältigen Wirkungen natürlich erst nach eingehenderen Analysen angemessen evaluiert werden können. Er argumentiert dabei unter drei Gesichtspunkten. Zunächst richtet er den Blick auf die Frage nach der Erreichbarkeit der anvisierten Ziele. Die Reduzierung von unerwünschter (d. h. nicht durch z. B. höhere Produktqualität begründete) Marktmacht und die daraus resultierende erhöhte Fairness sieht er bereits durch die starke Ein- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 REZENSIONEN schränkung des nach seiner Einschätzung zentralen Faktors für die Entstehung von Marktmacht, der Marke und des Markenschutzrechts, gewährleistet. Darüber hinaus bewirke die Verknüpfung mit der vorgesehenen Veränderung des Gesellschaftsrechts, dass in den Markt neu eintretende bzw. dies beabsichtigende Wettbewerber bessere Chancen haben werden, da sie nicht mehr mit langfristig präsenten Marken und davon profitierenden kapitalstarken Unternehmen konkurrieren müssen. Auch die Frage nach der Möglichkeit, die „emotionalen externen Effekte“ zu reduzieren und Emotionen stärker ins Wirtschaften zu integrieren, beantwortet er positiv. Er verweist dabei zum einen auf die erwartete Reduzierung der vor allem durch den bislang unbegrenzten Markenschutz entstehenden (und die externen Effekte bewirkenden) Marketing- und Medienmacht; zum anderen führt er die verbesserten Chancen an, ein Unternehmen zu gründen und leitet daraus Effekte ab wie „vermehrten Stolz auf die eigene Arbeit“, Berücksichtigung der „Würde der Menschen“ oder auch eine stärkere regionale Orientierung und damit gesellschaftliche Identitätsbildung vor Ort. Spätestens hier bewegt sich Bannas allerdings deutlich im Bereich der Spekulation. Der zweite Aspekt betrifft das Thema Verbraucherschutz. Der Autor stellt hier dem Argument, die Existenz von Marken würde eine durch bessere Information bedingte Kauferleichterung für Kunden und damit mehr Verbraucherschutz bewirken, seine Beobachtung der Praxis und Thesen aus der betriebswirtschaftlichen Literatur gegenüber. Demnach sind Werbestrategien in den letzten Jahren zunehmend dadurch charakterisiert, dass in ihnen die funktionalen Qualitäten eines Produkts zunehmend durch psychologische Qualitäten und die Vermittlung eines psychologischen Zusatznutzens ergänzt bzw. abgelöst werden. Die ursprüngliche Funktion von Marken, Produktinformation und -unterscheidbarkeit zu erhöhen, verliere zu Gunsten des Ziels des Aufbaus von Produzentenmacht an Bedeutung. In einem System mit zeitlich befristetem Markenschutz könne dagegen Werbung den Verbraucherschutzgedanken wieder neu entdecken. Schließlich widmet sich Bannas der klassischen Frage nach der volkswirtschaftlichen Effizienz. Hinsichtlich des hierfür zentralen Kriteriums, der Allokation der Produktionsfaktoren, misst er seinem Modell eine der gegenwärtigen Praxis vergleichbare Effizienz zu. Ein effizienter Kapitaleinsatz werde vor allem dadurch gewährleistet, dass die Prinzipien freie Preisbildung, Privateigentum, Gewinnanreiz und dezentrales Angebot erhalten bleiben. Der Faktor Arbeit werde aufgrund der steigenden Marktchancen, Arbeitsleistung als Selbständiger anzubieten, und der vermehrten Wahrnehmung dieser Chancen aufgrund der stärkeren Gewinnanreize ebenfalls tendenziell effizienter eingesetzt. Bezogen auf die Distributionseffekte konstatiert der Autor die Überlegenheit des Modells, da die tendenziell wachsende Spreizung sowohl in der funktionalen als auch in der personalen Einkommensverteilung abgebaut werde, zurückzuführen vor allem auf die fairere Chancenverteilung für unternehmerisches Handeln und auf die wachsende Zahl von Unternehmen bzw. Unternehmerfamilien. Schließlich attestiert Bannas dem Modell auch Ordnungskonformität, einerseits aufgrund der Beibehaltung der oben genannten Prinzipien zu Preisgestaltung oder Produktangebot, andererseits unter der Maßgabe, dass durch die Gewährung angemessener Anpassungszeiträume für die Umsetzung der markenschutzrechtlichen Veränderungen auch dem Eigentumsschutzgedanken Rechnung getragen werden kann. Im letzten Teil benennt der Autor zunächst einige Punkte, die im Rahmen einer Weiterentwicklung bzw. Präzisierung des Modells der genaueren Betrachtung bedürfen, etwa den Übergangsprozess zu den neuen Regelungen, die Funktion des Staates als Unternehmer oder die Regeln zum Vererben und zum pfändungsfreien Vermögen betreffend. Im Anschluss daran geht Bannas kurz auf einige ihm bisher besonders häufig gestellte, teils kritische Fragen zu seinem Ansatz ein. Zum Abschluss skizziert er erste aus seiner Sicht denkbare Maßnahmen zur geeigneten Gestaltung des Transformationsprozesses der beiden Rechtsbereiche in Richtung einer „fairen Marktwirtschaft“. Was die Einschätzung des vorliegenden Buches betrifft, will ich zunächst drei Punkte herausstellen: Zunächst ist es dem Autor gelungen, auf wenigen Seiten ziemlich komplexe wirtschaftssytemare und -politische Sachverhalte auf der Ebene der Diagnose sowie der Problemlösungsstrategie auch für Nicht-Experten recht verständlich darzustellen. Unter inhaltlichen Gesichtspunkten ist sehr zu begrüßen, dass Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 109 REZENSIONEN hier die Begriffe bzw. Grundgedanken der Fairness und der Chancengleichheit (vielleicht sollte man eher von Chancenvergleichbarkeit sprechen) im Zusammenhang mit dem wirtschaftlichen Geschehen in den Mittelpunkt gerückt werden. In der ordnungsökonomischen bzw. -politischen Debatte stellt dies eine eher seltene Ausnahme dar. Wenn auch in dem Buch nach meiner Erinnerung kein einziges Mal der Begriff „Nachhaltigkeit“ verwendet wird, so stellen doch Fairness und Chancenvergleichbarkeit unter dem Stichwort der inter- und intragenerativen Gerechtigkeit Grundorientierungen in der Nachhaltigkeitsdebatte dar. Insoweit kann (und sollte) die Kernthese des Buches durchaus auch in diesen Kontext gestellt werden. Gleiches gilt für die beiden strategischen Ansatzpunkte der Veränderung des Gesellschafts- und des Markenrechts, die auf eine Begrenzung von ökonomischer Macht sowie auf die Institutionalisierung von individueller Verantwortung für wirtschaftliches Handeln zielen. Wenn auch die hier vorgelegten Grundüberlegungen zur „Vision“ einer veränderten marktwirtschaftlichen Ordnung vom Autor selbst mit dem Etikett der noch erforderlichen Präzisierung und Weiterentwicklung versehen worden sind, will ich dennoch einige kritische Anmerkungen zu einigen eher grundlegenden Punkten anfügen: - Insbesondere mit der Verwendung des Begriffs „umfassendes Gesellschafts- und Wirtschaftskonzept“ für seinen Ansatz hat sich der Autor – wie ich finde unnötigerweise – die Messlatte des eigenen Anspruchs und vor allem der induzierten Lesererwartungen sehr hoch, ich denke zu hoch gelegt. Zwar stellen die beiden Vorschläge zur Veränderung des Gesellschafts- und Markenrechts das im Kern neue bzw. innovative und, gemessen an der gegenwärtigen Praxis, ohne Zweifel weit reichende Element des Buches dar. Aber selbst wenn man berücksichtigt, dass diese ordnungspolitischen Neuerungen Auswirkungen auf gesellschaftliche Aspekte haben und dass der Autor eine explizite Verknüpfung zum Thema menschliche Emotionen herstellt, sollte man doch mit dem Begriff des „Umfassenden“ in diesem Zusammenhang etwas vorsichtiger umgehen. - Ohne Zweifel liefert Bannas mit den beiden Reformvorschlägen zum Gesellschafts- und Seite 110 Markenrecht einen sehr interessanten und innovativen Beitrag zu der Frage, wie die existierenden ordnungsökonomischen Rahmenbedingungen zu reformieren wären, um bestimmte Problemphänomene zielgerichtet eindämmen zu können. Weniger überzeugend erscheint mir dagegen die starke Betonung der menschlichen bzw. emotionalen Komponente in den betrachteten Prozessen, die für beide Reformvorschläge als expliziter Begründungskontext herangezogen wird. So wird für die Abschaffung der bestehenden Haftungsbeschränkungsregelungen nicht nur das Argument der verstärkten Zuschreibung individueller Verantwortung für wirtschaftliches Handeln, sondern auch die Auseinandersetzung mit der Emotion Angst und mit dem Unbekannten angeführt. Auch die Beschränkung des Markenschutzes wird nicht nur mit den Zielen Abbau von Marktmacht und Stärkung der Chancengleichheit, sondern auch mit der Verringerung emotionaler Beeinträchtigungen der Menschen durch Werbe- und Marketingstrategien begründet. Insbesondere mit der Prüfung seines Ansatzes hinsichtlich des Gelingens der „Freisetzung bestimmter menschlicher Energien und Regungen“ begibt sich der Autor auf problematisches Gelände. Manche Argumentation wirkt hier ziemlich gezwungen, zumindest jedoch sehr spekulativ, und nur bedingt nachvollziehbar. Zumindest in dem Maße wie Anschlussfähigkeit an eine existierende Debatte, Nachvollziehbarkeit und vor allem eine den Grundthesen zu wünschende Akzeptanz bei den relevanten Institutionen als ein erstrebenswertes Ziel betrachtet werden, hielte ich eine weniger starke Betonung der emotionalen Aspekte der Vorschläge für zuträglicher. - Mit seiner – nur mit der Sicht des überzeugten „Marktwirtschaftlers“ erklärbaren – absoluten Fokussierung auf das Funktionsprinzip „Markt“ (er spricht auch von seinem Ansatz als „radikal liberalem Wirtschaftskonzept“) blendet der Autor die gesamte Palette dessen aus, was seit langem und weitgehend konsensual als „Marktversagen“ bezeichnet wird. Anders als in seiner Einschätzung spielt dieses Phänomen in der Praxis eine erhebliche Rolle, da mit seinem Erscheinen immer dann zu rechnen ist, Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 REZENSIONEN wenn die Realität von der idealtypischen ökonomischen Modelltheorie abweicht: d. h. wenn es um öffentliche Güter geht (was den gesamten Umweltbereich betrifft, aber auch z. B. das Thema Bildung), wenn (ökologische oder soziale) externe Effekte vorliegen oder wenn die Akteure nicht über „vollständige Information“ hinsichtlich Produktpreisen und -qualitäten und die Pläne aller Marktteilnehmer verfügen. Es ist zumindest fraglich und weiteren Untersuchungen vorbehalten, ob bzw. inwieweit es mit der Umsetzung der Vorschläge des Autors (eher) gelingen könnte, die aus diesen Phänomenen resultierenden Probleme zu lösen und ob es beispielsweise ergänzender Mechanismen bedürfte. Gleiches gilt für die unterstellte Tendenz hin zu mehr Muße und Langsamkeit anstatt Geschwindigkeit und Dynamik im Wirtschaftsprozess. - Ein ebenfalls grundsätzlicheres Problem scheint mir darin zu liegen, dass der Autor seine Vorschläge, die ja nicht zuletzt verteilungsbeeinflussenden Charakter besitzen und die er daher zu Recht mit den Begriffen „Fairness“ und „Chancengleichheit“ in Verbindung bringt, einer mehr oder weniger klassischen Effizienzprüfung zu unterziehen versucht. Selbst wenn man einen breiteren Effizienzbegriff zu Grunde legt, gilt doch, dass die Realisierung von Fairness zumindest auch nach anderen Kriterien als dem der Effizienz zu bemessen ist. Der Autor unterzieht sich bzw. seinen Ansatz damit einem unnötigen, weil sachlich unangemessenen Erklärungs- bzw. Rechtfertigungszwang, der – und das ist natürlich die Interpretation des Rezensenten – den Umstand widerspiegelt, dass Bannas hin und her gerissen ist zwischen neoklassisch-marktwirtschaftlichen Grundüberzeugungen und dem Wunsch, in diesem System „revolutionäre“ Ideen zu verwirklichen. Nicht zuletzt auch weil die von ihm vorgebrachten Argumente für die Möglichkeit eines effizienten Einsatzes der Produktionsfaktoren in seinem Modell meist sehr kursorisch, spekulativ und nur bedingt nachvollziehbar sind (etwa den Faktor Arbeit betreffend), scheint mir dieser – bewusst oder unbewusst vollzogene – Spagat nicht ganz geglückt zu sein. - Schließlich sei noch auf eine zumindest sprachliche „Unsauberkeit“ hingewiesen. Wenn der Autor von „Kapital“ spricht, dieses als tendenziell vergangenheitsbezogen bezeichnet und ihm keine eigenständige und strukturierende Funktion zumessen möchte, meint er offenkundig das Sachkapital in Form von Anlagen, Gebäuden, Maschinen usw. Unter dem Kapitalbegriff werden jedoch vielfach – man mag sich über die Angemessenheit streiten – auch ökologische („Naturkapital“) und soziale bzw. menschliche Faktoren („Sozial-, Wissens- und Humankapital“) subsumiert. Da diesen im Sinne des Autors wohl durchaus eine eigenständige Funktion zuzumessen ist, wäre hier größere sprachliche Genauigkeit ratsam gewesen. Als Fazit möchte ich festhalten: Auch wenn man sich nicht die Terminologie des Autors zu eigen macht, der im Zusammenhang mit seinem Ansatz und dessen Umsetzung die Begriffe „Ungeheuerlichkeit“ und „Heldentat“ verwendet, sind die weit reichenden Veränderungen der bestehenden wirtschaftlichen Rahmenbedingungen, die mit den unterbreiteten Vorschlägen verbunden sind, offenkundig. Sie sind im Kern positiv zu bewerten, zumindest jedoch der eingehenden Diskussion würdig. Die kritischer zu betrachtenden Teile des Buches liegen eher im „Umfeld“, genauer in einigen der vom Autor gewählten Begründungskontexte und Bewertungskriterien. Aus der Sicht des Rezensenten wäre eine Beschränkung auf die Ziele Zuschreibung von individueller Verantwortung für wirtschaftliches Handeln und Reduzierung von Marktmacht völlig ausreichend und unter Akzeptanzgesichtspunkten erfolgversprechender gewesen, um im Rahmen der existierenden (Nachhaltigkeits)Debatten für die – ohnehin schon für viele schwer verdaulichen – Thesen zur Veränderung des Gesellschafts- und Markenrechts zu werben. Letztlich werden die Intensität und die Richtung der allgemeinen Rezeption und Diskussion des Buches in der nächsten Zeit zeigen, wie die vom Autor gewählte Strategie zu beurteilen ist. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 «» Seite 111 NACHRICHTEN NACHRICHTEN gramme name and, where necessary, a brief description, including the name of the leading organisation. Transport Research Knowledge Centre: Launch of the revamped website The “European Transport Research Knowledge Centre” is a EU-funded website that connects transport research solutions to European transport policy. The newly structured Transport Research Knowledge Centre was launched in July 2004 at the World Congress on Transport Research (WCTR’04) in Istanbul. At In order to ensure that these results are harmonised, a common European Transport Research Reporting Scheme has been developed with the support of an Advisory Board composed of representatives from national transport ministries. For making submissions, transport project co-ordinators can use the Word forms for download (Project Profile, Progress Summaries and Result Summary) or directly use the online reporting facility via a secure extranet (go to http://www.transport-research.info). « http://europe.eu.int/comm/transport/extra/ web/index.cfm the website offers information on how European (e.g. FP4, FP5, etc.) and national transport research programmes and projects can help “to develop guidelines and innovative tools to support sustainable mobility”. The website currently features summaries of 206 international, European and national research programmes. At the project level, FP4 results have all been re-categorised according to a multidimensional thematic structure. Thematic findings are provided once final results are available while policy implications are analysed across the results contributing to specific themes and presented in thematic reports. In the future, results from all 30 countries represented will be made available to the research and business communities, as well as public service providers and governments. In addition to the Programmes database a more concise guide is now available for distribution to a wider audience. For each country, you will find: - A short introduction outlining the main actors and organisation of transport research. - A list of government departments (ministries) and state agencies involved in transport research and their web sites. - A list of programmes sponsored by these government bodies. This includes the pro- Seite 112 Bibliographie zu Fragen der Inter- und Transdisziplinarität Seit Anfang Juni 2004 steht die in den letzten Jahren von der Forschungsgruppe Inter-/Transdisziplinarität (IKAÖ, Universität Bern) aufgebaute Bibliographie zu Fragen der Inter- und Transdisziplinarität als Online-Datenbank mit ca. 3.000 Eintragungen auf dem Netz zur Verfügung: http://www.interdisciplinarity.ch/ Das Ziel der Forschungsgruppe besteht darin, zur Verbesserung inter- und transdisziplinärer Prozesse beizutragen. Sie nimmt eine gesamtheitliche Perspektive ein und versucht, Theorie und Praxis zu verbinden, den Bogen von der Forschung bis zur Lehre zu schlagen und dabei möglichst sämtliche Aspekte interund transdisziplinären Arbeitens in den Blick zu nehmen. Kontakt Dr. Antonietta Di Giulio E-Mail: digiulio@ikaoe.unibe.ch «» Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 DISKUSSIONSFORUM DISKUSSIONSFORUM Innovationspolitische Aspekte der geplanten Einführung eines elektronischen Maut-Systems in Deutschland* von Günter Halbritter, Torsten Fleischer und Christel Kupsch, ITAS Die vornehmlich als industriepolitische Panne angesehene, bisher an technischen und organisatorischen Problemen gescheiterte Einführung des technisch anspruchsvollen elektronischen Mautsystems Toll Collect in Deutschland offenbart auch innovationspolitische Defizite, die in Deutschland vorliegende politische Rahmenbedingungen für die im Augenblick intensiv diskutierten Innovationen betreffen. Nachfolgend werden innovationspolitische Aspekte der geplanten Einführung eines elektronischen Maut-Systems in Deutschland auf der Grundlage von Erfahrungen aus mehreren vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungsprojekten, die am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Forschungszentrums Karlsruhe durchgeführt werden und wurden, und die den Vergleich von Innovationsstrategien im Bereich der Verkehrstelematik in verschiedenen Ländern zum Untersuchungsgegenstand haben, kommentiert. Vergleichende Untersuchungen von Innovationsstrategien im Bereich der Verkehrstelematik (VT) in verschiedenen Ländern, die vom ITAS durchgeführt wurden bzw. zurzeit noch laufen, zeigen, dass infrastrukturbasierte Innovationen, d. h. solche. deren Realisierung mit dem Aufbau von Infrastrukturleistungen verbunden ist, nicht nur einer konzeptionell-strategischen, sondern auch einer organisatorischen Begleitung durch staatliche Institutionen bedürfen, wenn sie erfolgreich realisiert werden sollen (Halbritter u. a. 1999; Halbritter u. a. 2002). In Deutschland hingegen wird Innovationsmanagement vornehmlich als Aufgabe der Industrie angesehen. Komplexe Aufgaben wurden auch im Falle von Toll Collect als Ganzes an die Industrie übergeben, in der Hoffnung, ihr wer- de die Realisierung schon gelingen. Die gesamte Einführungsstrategie, die Überprüfung vorgegebener bzw. festgelegter Schritte während der Einführungsphasen stehen damit nicht mehr im Einflussbereich der Politik. Die fehlenden Möglichkeiten des Eingreifens staatlicherseits bei der Koordinierung sind unter anderem als ein Grund für die Probleme bei der Einführung der satellitengestützten Lkw-Maut anzusehen. Unstrittig ist der eigentliche Grund für die in den Medien als Maut-Desaster beschriebene Technikpanne eine Fehleinschätzung der Komplexität, die mit der Einführung neuer IuKTechniken im Rahmen integrativer Konzepte im großtechnischen Maßstab verbunden sind. Dabei ist im Rahmen von Toll Collect im Wesentlichen das organisatorische Problem der Systemintegration von Komponenten zu leisten, deren Basistechniken, wie z. B. GPS und GSM, weitgehend bekannt und erprobt sind. Das Scheitern dieser Systemintegration weist darauf hin, dass in jüngster Vergangenheit die Entwicklung technischer und organisatorischer Kompetenzen, die früher eine besondere Stärke der deutschen Industrie darstellten, hinter ökonomische Prioritätensetzungen zurückgetreten ist. So beklagen heute viele Ingenieure gerade der fortgeschrittenen Altersstufen, dass in den vergangenen Jahren der kreative, gestalterische Einfluss ingenieurwissenschaftlicher Kompetenz zurückgedrängt wurde. Diese Tendenz kennzeichnet besonders auch die Entwicklung im Bereich der Bahntechnik. Das Tragische an dieser Entwicklung ist, dass bei der Vielzahl der Pannen bei der Einführung neuer Techniken auch die ökonomischen Erwartungen nicht in Erfüllung gingen. Insgesamt lässt sich in jüngster Vergangenheit die widersprüchliche Entwicklung beobachten, dass einerseits neue technische Produkte, wie Digitalkameras und Mobiltelefone, sich großen Interesses sowohl seitens der breiten Öffentlichkeit als auch der Medien erfreuen. Dem steht jedoch nur ein sehr schwach ausgeprägtes Interesse an den eigentlichen technischen Konzepten gegenüber, die Grundlage für diese neuen Produkte und Dienstleistungen sind. Dies spiegelt sich auch wider in dem schweren Stand, den kompetenter Technikjournalismus in Deutschland besitzt. So war und ist auch die mediale Diskussion im Falle der LkW-Maut gar nicht von technischen Problemen geprägt, selten Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 113 DISKUSSIONSFORUM ist von ihnen überhaupt die Rede, vielmehr spielen vornehmlich Spezialfragen der Vertragsgestaltung eine viel bedeutendere Rolle. Auch vom Verkehrsministerium vergebene Beraterverträge zielen dem Vernehmen nach vornehmlich auf rechtliche und wirtschaftliche Fragestellungen und nicht auf die technische Umsetzung von Mautkonzepten, andernfalls hätten kritische technische Machbarkeitsaspekte zumindest als mögliches Umsetzungsproblem angesprochen werden müssen. Dieser mangelnde Bezug von Entscheidungsträgern und Multiplikatoren zu den grundsätzlichen Funktionsweisen technischer Konzepte ist auch ein Grund für unrealistische Visionen zu deren Leistungsfähigkeit und notwendiger Umsetzungszeiträume. Toll Collect ist ein Beispiel für eine solche utopischen Visionen entspringende Überschätzung technischer Systeme. Diese Überschätzung geht sogar so weit, dass in Deutschland, wie das Beispiel von Toll Collect ebenfalls zeigt, verkehrspolitische Überlegungen technischen und industriepolitischen Konzepten untergeordnet werden. Dies kann in kaum einem anderen Land so deutlich beobachtet werden wie in Deutschland. So besteht seit vielen Jahren bei den großen Parteien Konsens darüber, dass der Güterverkehr angemessene Anteile an den Infrastrukturkosten zu tragen hat und dass streckenbezogene Straßenbenutzungsgebühren das geeignete Instrument hierzu seien. Aber anstatt diese Einschätzung schon vor Jahren mit verfügbaren und erprobten terrestrischen Techniken umzusetzen, wird ein „Hightech“-Konzept entwickelt, dass bezüglich seiner technischen Auslegung – Gebührenabbuchung auch bei hohen Geschwindigkeiten und gleichzeitigem Spurwechsel – für den LkW-Verkehr absolut überdimensioniert ist. Die Realisierung einer vernünftigen verkehrspolitischen Einsicht muss daher auf die Entwicklung eines überdimensionierten „Hightech“-Konzepts warten. 1 Der Staat als Innovationsmanager? Ein wesentliches Ergebnis der oben genannten, vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungsprojekte des ITAS, die sich mit Innovationsstrategien im Bereich der Verkehrstelematik in verschiedenen Ländern befasst haben, war, dass infrastrukturbasierte Projekte, d. h. Vorhaben, deren Reali- Seite 114 sierung mit dem Aufbau von Infrastrukturleistungen verbunden ist, nicht nur einer konzeptionell-strategischen, sondern auch einer organisatorischen Begleitung durch staatliche Institutionen bedürfen, um erfolgreich zu sein. Diese Erkenntnis der Notwendigkeit staatlichen Engagements über vertragsrechtliche Regelungen hinaus findet nicht nur in den USA, sondern auch auf der Ebene der Europäischen Union und einer Reihe europäischer Staaten Beachtung, die verkehrstelematische Konzepte entsprechend verkehrspolitischen Strategien teilweise bereits erfolgreich umgesetzt haben. So etwa in Frankreich, Italien, den Niederlanden, dem Vereinigten Königreich, Schweden, Finnland, Tschechien und Österreich. Deutschland hingegen verzichtet bisher auf die Entwicklung verkehrsstrategischer Konzepte zum Einsatz der Verkehrstelematik und hofft auf die Wirkung autonomer Marktmechanismen, ohne dass vorher entsprechende Rahmenbedingungen für einen solchen Markt entwickelt wurden. Dies geschieht auf der Grundlage von Fehlinterpretationen von Konzepten, wie das der „Public Private Partnership (PPP)“. Besonders überraschend ist die innovationsstrategische Praxis in den USA, dem Land, das zumeist als Vorbild für erfolgreiche Innovationsaktivitäten gilt. Im Vergleich zu Deutschland ist dort ein bemerkenswert hohes staatliches Engagement bei der Konzeption und Durchsetzung von Innovationsstrategien im Bereich der Verkehrstelematik, dort ITS – Intelligent Transportation Systems genannt, festzustellen. Die Entwicklung und der Einsatz der neuen Techniken wird dabei keineswegs der Industrie allein überlassen, vielmehr fördern staatliche Institutionen nicht nur die Einführung von ITS in einer systematischen und konsequenten Weise, sondern begleiten diese auch in der Einführungsphase (deployment) und üben einen gezielt lenkenden Einfluss im Hinblick auf die angestrebten Zielvorgaben aus. Man ist geneigt, angesichts des Fördervolumens für nationale ITS-Programme von einem gigantischen staatlichen Technikeinführungsprogramm zu sprechen. Die Vielzahl staatlicher Aktivitäten in diesem Bereich erweckt den Anschein eines Planungsperfektionismus, bei dem staatlichen Institutionen vornehmlich die Vorgabe der strategischen Ausrichtung zukommt. Insbesondere vier Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 DISKUSSIONSFORUM Aspekte kennzeichnen die US-amerikanischen Aktivitäten: So werden von den für die Verkehrspolitik verantwortlichen staatlichen Institutionen nicht nur zukunftsorientierte Programme festgelegt, sondern diese Programme bestimmen auch gesetzliche Regelungen zur Einführung und Umsetzung neuer Techniken und Dienste. Noch konkreter bezüglich der Umsetzung der neuen Techniken und Dienste sind die Vorgaben der so genannten nationalen Architektur, die sich nicht nur auf die Schnittstellenabstimmung verschiedener technischer Einzelmodule beziehen, sondern grundsätzliche Aspekte und Anforderungen für die Einführung neuer Techniken und Dienste beschreiben. Schließlich ist das systematische Projektmanagement nicht nur bei der Entwicklung, sondern auch beim Einsatz der neuen Techniken und Dienste in konkreten Anwendungszusammenhängen zu erwähnen. Um dieses systematische Projektmanagement leisten zu können, wurden in den USA auch institutionelle Voraussetzungen im administrativen Bereich und bei der wissenschaftlichen Begleitung der Programme geschaffen. So wurde in den USA nicht nur im US-Verkehrsministerium (US-DoT) mit dem „Joint Program Office“ eine ressortübergreifende Querschnittsorganisation für die verschiedene Verkehrsträger betreffenden ITS-spezifischen Fragen eingerichtet, sondern auch spezielle wissenschaftliche Institutionen, wie das Volpe Center mit Begleituntersuchungen beauftragt, das mit seinen vielfältigen Kompetenzen im Bereich der strategischen Innovationsplanung und der unmittelbaren wissenschaftlichen Politikberatung in diesem Bereich sehr hilfreich ist. Auch in der EU wurde, wie bereits erwähnt, die Notwendigkeit einer konzeptionellen Gestaltung der Verkehrstelematik im Hinblick auf verkehrs- und umweltpolitische Anforderungen erkannt und auch umgesetzt. So wurde eine „EU Rahmenarchitektur“ der Verkehrstelematik entwickelt, die Strukturen und Funktionen der neuen Techniken und Dienste beschreibt. Sie soll als Grundlage für die Entwicklung von „nationalen Architekturen“ dienen. Ein Großteil der EU-Länder haben die entsprechenden Vorgaben der EU auch in Form von „nationalen Plänen“ und „nationalen Architekturen“ bereits umgesetzt bzw. sie sind dabei, diese umzusetzen. In Deutschland wurde bisher jedoch keine Notwendigkeit gesehen, von Seiten der Regierung strategische und organisatorische Vorgaben zu machen. Als wir im Jahre 1999 die US-amerikanische Vorgehensweise vor Vertretern des BMBF und des damaligen BMV, heute BMVBW, vorstellten, war der lakonische Kommentar des Vertreters des Verkehrsministeriums zu unseren Ausführungen, eine nationale Architektur werde es in Deutschland nicht geben. Von Seiten der Politik sei alles getan, jetzt sei die Industrie am Zuge und der Markt werde die Einführung der neuen Techniken und Dienste regeln. Eine Einschätzung, die schon deshalb sehr erstaunlich ist, da die USA nicht gerade das Land ist, wo Marktprozesse eine unbedeutende Rolle spielen. 2 Unterschiedliches Verständnis von „Public Private Partnership (PPP)“ Die unterschiedliche Einschätzung der Notwendigkeit staatlichen Engagements bei der Realisierung von Innovationsstrategien wird auch aus der unterschiedlichen Bedeutung des Begriffs „Public Private Partnership (PPP)“ deutlich. Dieser Begriff erfreut sich in Deutschland einer Beliebtheit, die weit über diejenige anderer Anglizismen hinausgeht. Dabei ist jedoch bemerkenswert, dass in den USA ganz andere Vorstellungen über die grundsätzliche Bedeutung und die praktische Realisierung von PPP bestehen als in Deutschland. Dort werden, wie bereits erwähnt, PPP-Projekte im Bereich der Verkehrstelematik vornehmlich auf der Grundlage staatlicher Strategiekonzepte und Programme durchgeführt. Privaten Unternehmen werden im Rahmen der Realisierung dieser Programme klar umrissene Arbeitspakete zugewiesen. Umfangreiche staatlich koordinierte Evaluationsprogramme begleiten die praktische Umsetzung. Um diese konzeptionellen Arbeiten zu leisten, wurden sowohl in der einzelstaatlichen wie auch der Bundes-Administration entsprechende organisatorische Voraussetzungen geschaffen. Auch stehen, wie bereits erwähnt, kompetente Einrichtungen zur wissenschaftlichen Politikberatung für diese komplexen Innovationsvorhaben zur Verfügung. Für mit deutschen Verhältnissen Vertraute erstaunt auch immer wieder die Deutlichkeit mit der in den Evaluationsberichten die noch vorliegenden Defizite benannt werden. So wird in dem Evaluationsbericht zu einem vom US-Verkehrsministerium in vier US-Ballungs- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 115 DISKUSSIONSFORUM räumen durchgeführten Projekt zur Einführung von Telematikdiensten klar ausgesprochen, dass bisher kein einziges erfolgreiches PPPProjekt realisiert werden konnte („...there was no successful PPP-project“; US-DoT 2001). In Deutschland hingegen wird Innovationsmanagement vornehmlich als Aufgabe der Industrie angesehen. Es wurden zwar eine Reihe von Innovationsbeiräten gegründet, diese haben jedoch bisher keine wirklich gestaltenden Aktivitäten entfaltet. Im administrativen Bereich auf der Ebene des Bundes werden bestimmte technische Entwicklungslinien im Rahmen von Programmen des BMBF gefördert. Diese werden aber häufig – zumindest in der Frühphase – unter einseitig industriepolitischen Aspekten ohne Einbeziehung der jeweils verantwortlichen Fachressorts und damit auch ohne frühzeitige Analyse der praktischen Umsetzungsmöglichkeiten vorangetrieben. Dies kann, wie das Beispiel des Magnetschwebebahnsystems Transrapid zeigt, zu erheblichen Problemen führen. Technisch durchaus interessante und viel versprechende Projekte scheitern, weil der Analyse der Umsetzbarkeit und der staatlichen Begleitung der Umsetzung (deployment) nicht frühzeitig der notwendige Stellenwert gegeben wird. In den angelsächsischen Ländern sind die Förderung von Technikentwicklungen wie auch die Einführung neuer Techniken zumeist Gegenstand der Fachadministrationen, die dadurch gezwungen sind, Einführungsstrategien zu entwickeln und entsprechende organisatorische Strukturen aufzubauen, die sich an den spezifischen Bedingungen der Einführung der neuen Techniken zu orientieren haben. 3 Ineffektiver Innovationsdiskurs Das Beispiel des Mautsystems Toll Collect zeigt somit auch die erheblichen Auswirkungen, die Defizite im administrativen Bereich haben können. Komplexe Aufgaben wurden auch in diesem Fall als Ganzes an die Industrie übergeben, in der Hoffnung, ihr werde die Realisierung schon gelingen. Die gesamte Einführungsstrategie, die Überprüfung vorgegebener bzw. festgelegter Einführungsphasen stehen damit nicht mehr im Einflussbereich der Politik. Da weder nationale Programme noch entsprechende Gesetze für die Einführung der neuen Techniken als notwendig erachtet werden, sind diese auch Seite 116 nicht Gegenstand parlamentarischer Beratungen. Ohnehin ist die parlamentarische Arbeit in Deutschland nicht durch innovationspolitische Diskurse oder Initiativen gekennzeichnet, sieht man von wenigen Ausnahmen, wie dem Gentechnikgesetz, einmal ab. Das Parlament besitzt zwar kompetente Beratungseinrichtungen zur Problematik der Einführung von neuen Technologien, diese werden aber zumeist zur Beratung über langfristige Entwicklungen und weniger zur unmittelbaren Technikeinführung herangezogen. An dieser Situation ändert auch die vor kurzem initiierte Innovationsdebatte nichts, die bisher in keinem Fall konkret geworden ist oder Visionen derjenigen Innovationen entwickelte, die für die Zukunft von Bedeutung sein sollten, z. B. um die oft geforderte „nachhaltige Entwicklung“ zu befördern. Dieser neuerlich in Deutschland initiierte Innovationsdiskurs, wenn man den Äußerungen der vergangenen Monate diese anspruchsvolle Bezeichnung zuordnen kann, bleibt auch deshalb oberflächlich, da dem mit der Forderung nach Innovationsbereitschaft verbundenen Anspruch an die Politik, in Legislative und Exekutive, nur unzureichend entsprochen wurde. Innovationen sind Umsetzungen technischer und organisatorischer Neuerungen in die gesellschaftliche Praxis. Sie erfordern daher auch entsprechende politische Rahmenbedingungen, um verwirklicht zu werden. Insbesondere die neuen Informations- und Kommunikationstechniken (IuK-Techniken) können ihre Systemvorteile erst dann entfalten, wenn die entsprechenden Bedingungen vorliegen. Als Fazit bleibt zu betonen, dass es zu einfach wäre, die Panne bei Toll Collect allein der Industrie anzulasten, ebenso große Versäumnisse sind auch den politisch Verantwortlichen zu zuschreiben. Hier wird zwar gerne von Innovationen gesprochen, aber weder im Ministerialbereich noch auch im Parlament wurden Strukturen aufgebaut, um den mühsamen Prozess – Innovationsmanagement als Umsetzungen technischer Neuerungen in der Gesellschaft – zu begleiten, so wie es in anderen Staaten geschieht. Es besteht die Gefahr, dass die am Beispiel Toll Collect deutlich gewordene mangelnde Bereitschaft, technischen Problemen eine entsprechende Bedeutung zuzumessen, zusammen mit dem mangelnden Interesse in der Gesellschaft, technische Probleme bezüglich ihrer Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 DISKUSSIONSFORUM Komplexität zur Kenntnis zu nehmen, auch andere Bereiche, wie etwa die Energieversorgung, treffen kann. Dies würde erhebliche Auswirkungen auf unsere technisch-zivilisatorisch geprägte Gesellschaftsstruktur haben. In diesem Sinne kann das Debakel von Toll Collect sogar einen positiven Besinnungsprozess auslösen über die Rolle, die der Technikentwicklung in der Gesellschaft zukommen sollte und wie diese zu gestalten und zu begleiten wäre. * Überarbeitete Version des zuerst in der Zeitschrift Internationales Verkehrswesen, Band 56, Heft 9/2004, S. 363-366 veröffentlichten Beitrags. Literatur Halbritter, G.; Bräutigam, K.-R.; Fleischer, T.; Klein-Vielhauer, S.; Kupsch, Chr.; Paschen, H., 1999: Umweltverträgliche Verkehrskonzepte: Entwicklung und Analyse von Optionen zur Entlastung des Verkehrsnetzes und zur Verlagerung von Straßenverkehr auf umweltfreundlichere Verkehrsträger. Berlin u. a.: Erich Schmidt Verlag (Beiträge zur Umweltgestaltung A 143) Halbritter, G.; Bräutigam, K.-R.; Fleischer, T.; Fulda, E.; Georgiewa, D.; Klein-Vielhauer, S.; Kupsch, Chr., 2002: Verkehr in Ballungsräumen: Beiträge von Verkehrstelematiktechniken und -diensten für einen effizienteren und umweltverträglicheren Verkehr. Berlin u. a.: Erich Schmidt Verlag (Beiträge zur Umweltgestaltung A 149) US-DoT, 2001: Deploying and Operating Integrated Intelligent Transportation Systems. US-DoT Pub. No. 13599 ISBN: 3-5030-4805 7; Preis: EUR 44,80 Kontakt Prof. Dr. Günter Halbritter Forschungszentrum Karlsruhe in der HelmholtzGemeinschaft Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) Postfach 36 40, 76021 Karlsruhe Tel.: +49 (0) 72 47 / 82 - 48 71 Fax: +49 (0) 72 47 / 82 - 48 06 E-Mail: halbritter@itas.fzk.de Internet: http://www.itas.fzk.de ISBN: 3-503-06686-1; Preis: EUR 29,80 «» Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 117 TAGUNGSBERICHTE TAGUNGSBERICHTE Of Visions, Dreams and Nightmares: The Debate on Converging Technologies Report on the Conference „Converging Technologies for a Diverse Europe“, Brussels September 14 – 15, 2004 by Christopher Coenen, TAB, Michael Rader and Torsten Fleischer, ITAS 1 The context The occasion for the conference “Converging Technologies” was the launching of a public discussion on the report of a High-Level Expert Group (HLEG) “Foresighting the New Technology Wave”. The report, entitled “Converging Technologies – Shaping the Future of European Societies”, was edited by the philosopher Alfred Nordmann. Additionally, there were reports from several special interest groups (or working groups of the panel as a whole), position papers from individual members of the HLEG, a collection of state of the art reviews and related papers, and finally a set of comments by invited experts submitted prior to the conference.* The exercise was organised by the foresight unit (K2) within the European Commission’s Directorate General Research. The HLEG was set up towards the end of 2003 and met formally four times between February and mid-June 2004, with communication within the special interest groups (SIGs) organised by their respective chairpersons. It was composed of a total of 25 experts coming from a broad range of scientific disciplines and chaired by the historian Kristine Bruland of the University of Oslo. The HLEG was set up largely in reaction to activities on the convergence of nanotechnology, biotechnology, information technology and cognitive science (abbreviated and hence forward referred to as NBIC) by the National Science Foundation in the US, most notably the publication of a conference report “Converging Technologies for the Improvement of Human Performance” (Roco, Bainbridge 2002; see section 2 below) and subsequent annual conferences on the topic. Seite 118 2 The background Converging Technologies (CT) emerged as an issue of scientific and political discussion in the US. It takes up the notion of ‘convergence in the digital world’ which was developed in the IT, multimedia and entertainment industries in the nineties, and applies it to a current technological trend: Nanotechnology enables many new approaches, processes and materials at the nanoscale as well as analytical access to and theoretical understanding of fundamental chemical, physical and biological processes at atomic and molecular level. The implications of these trends, and their synergies with information technology are described in a RAND report published in 2001 (RAND 2001). On December 3-4, 2001, the National Science Foundation (NSF) and the US Department of Commerce (DoC) at the request of the National Science and Technology Council (NSTC), Subcommittee on Nanoscale Science, Engineering and Technology (NSET), organized a workshop on “Convergent Technologies to Improve Human Performance”. The outcomes of this workshop and contributions submitted after that meeting were published in June 2002 in a report of the same title (Roco, Bainbridge 2002). According to the report, “the phrase ‘convergent technologies’ refers to the synergistic combination of four major “NBIC” (Nano-BioInfo-Cogno) provinces of science and technology, each of which is currently progressing at a rapid rate: (a) nanoscience and nanotechnology; (b) biotechnology and biomedicine, including genetic engineering; (c) information technology, including advanced computing and communications; (d) cognitive science, including cognitive neuroscience. Accelerated scientific and social progress can be achieved by combining research methods and results across these provinces in duos, trios, and the full quartet. (…) This progress is expected to change the main societal paths, towards a more functional and coarser mesh instead of the less organized and finer one we have now.” Topic as well as content of this report almost immediately attracted great attention from the technology assessment and foresight communities as well as national R&D policies. After the publication of the US report they became the subject of international discussions. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE Other reports (TAB 2003; Paschen et al. 2004) characterized the US approach as being very futuristic and open to the ideas of “visionary engineers” (such as Ray Kurzweil) and the “transhumanist” movement. It has been criticized for mixing science and science fiction (Royal Society, Royal Academy of Engineering 2004) as well as for displaying a disquieting “insouciance” towards problematic aspects of the pursuit of human enhancement that could eventually lead to a “humanly diminished” Brave New World (President’s Council on Bioethics 2003). It was also a task of the European HLEG to deal with the questions raised in the US report. Some of the, from our perspective, most problematic aspects of the US NBIC initiative will be outlined below. • enhanced performance in all areas of human life, • “wholly new kinds of rigorous research on the nature of both culture and personality” and a unification of knowledge by combining natural sciences, social sciences, and humanities, • a global !networked society of billions of human beings”, comparable to “one single interconnected ‘brain’” or to “a larger form of a biological organism”, and • a “predictive science of societal behaviour”, allowing “advanced corrective actions”, based on NBIC and with the goal “to interdict undesirable behaviors before they cause significant harm to others and to support and encourage behaviors leading to greater social goods”. 3 Problematic Features of the US Initiative on Converging Technologies While some critics ridiculed this vision, criticized it for its conceptional vagueness and disregard for mainstream science (Royal Society, Royal Academy of Engineering 2004) or dismissed it as a slippery slope to a Brave New World (President’s Council on Bioethics 2003), others appraised it as a pioneering work with necessarily provocative features that should not be taken too seriously. The proponents of the initiative, however, seem indeed to take their visions seriously: In a publication on the results of the second NBIC workshop in February 2003 (Roco, Montemagno 2004), there is some new wording within the rhetorical framework (e.g. “social responsibility”, “democratic rights”, “deliberate choices”, “democratization”, “satisfying the needs of different lifestyles, cultures, and ‘value sets’”) – and even the idea of starting a NNI research project “to think about the language that can best be used to advance our common cause” (Bond 2004). Problematic features of the initiative’s approach are nevertheless retained and even radicalized: In one contribution (Canton 2004) possible misuses of CT by autocratic regimes and the “specter of eugenics” are mentioned, but it is also deterministically stated that human enhancement and designed evolution will inevitably be future tools for shaping societies. In another paper (Bainbridge 2004), a rather bizarre and polemical piece, the author predicts that a biology-inspired approach to social sciences “will allow us to engineer culture” and, The US public-private NBIC initiative could be seen as a by-product of the US nanotechnology initiative (NNI) and certain characteristics of NNI prepared the ground for the CT visions. The US nanotechnology strategy focussed from its beginnings - in the middle of the last decade on new forms of transdisciplinarity and the unity of concepts among disciplines. Along with this soon came a highly optimistic rhetoric concerning the prospects of technological change. In an NSF workshop report on nanotechnology research directions published in 1999, an important proponent of the NBIC initiative wrote: “The convergence of nanotechnology with the other three power tools of the twenty-first century – computers, networks, and biotechnology – will provide powerful new choices never experienced in any society at any time in the history of humankind” (Canton 1999). In the NSF/DOC report (Roco, Bainbridge 2002) this bold vision is further elaborated: CT can potentially bring about • a “new renaissance” within the 21st century, based “on a comprehensive understanding of the structure and behavior of matter from the nanoscale up to the (…) human brain”, • “world peace, universal prosperity and an evolution to a higher level of compassion and accomplishment”, Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 119 TAGUNGSBERICHTE among other things, recommends “memetics” (cf. Strong, Bainbridge 2002), internet research, Friedrich Nietzsche’s “The Birth of Tragedy” and Oswald Spengler’s “The Decline of the West” as useful starting points for the elaboration of such an approach. There’s nothing to be said against new tools of quantitative research, and organic metaphors, as well as biological concepts, are quite well established in social sciences and cultural theory. Even “memetics” may deserve attention. But the initiative’s long-term goal to merge different disciplines into a single “hard” human science is questionable and seems to be rather unrealistic. In any case, polemics won’t help to reduce the notorious gap between the “two cultures” of scientists and humanists. It is therefore an encouraging sign that some parts of the US NBIC community seem to be – increasingly – interested in a thorough and comprehensive analysis of the subject. Noteworthy works are included in the publications of the initiative (e.g. Gorman 2004, Khushf 2004a, or earlier Turkle 2002). The initiative had a useful role in starting the discussion, and “could be understood in a more general way as a forum for exploring the future impact of all science and engineering” (Khushf 2004b). But it still serves as a vehicle for some highly idiosyncratic ideas, exhibits many biases and overly opinionated views, and suffers from a lack of forthrightness with regard to its proximity to “transhumanist” and other radically futuristic thinkers. Overall, the initiative is technology-driven, seems to be heavily influenced by new governmental perspectives on national security after 9/11, and conceals that many of the assumed technical breakthroughs presuppose scientific knowledge and technological capabilities that will very likely not be available in the foreseeable future. Cognitive science is crucial for achieving most of the technological visions but its opportunities and limits are least addressed. Discussions of ethical, legal or social issues related to NBIC are largely avoided. Assessments of hazards and risks as well as the discussion of values and moral boundaries are missing. Among the most serious flaws are the technocratic understanding of society and culture, the dubious evocation of the renaissance, the vision of a perfect future, the carefree siding with the proponents of a neural Seite 120 turn in social sciences and humanities, the alarmingly deep fascination with man-machinesymbiosis, and a certain degree of disregard for diversity and for relevant research findings of other scientists and scholars. 4 Positions of the European High Level Expert Group – Analysis of the Report HLEG (2004) starts the discussion by citing three rather futuristic passages from the NSF/DoC report (Roco, Bainbridge 2002), but then concentrates on the development of an alternative vision of CT. By doing so, HLEG avoided a direct critique of the US report – a prudently chosen modus operandi, given the report’s highly problematic features, the complicated US context of the NBIC initiative, and the short length of time at the HLEG’s disposal In its discussion of the potentials, limits and implications of convergence, the HLEG reacted both implicitly and explicitly to the abovementioned problematic aspects of the US NBIC initiative: • The report of the HLEG, perhaps mischievously, adds socio, anthro, philo, geo, eco, urbo, orbo, macro and micro to the four “big Os” in NBIC convergence and proposes a distinctively European concept for convergence, which it calls CTEKS, standing for Converging Technologies for the European Knowledge Society. A major aim of this concept is to advance the socalled Lisbon agenda, the European path to the knowledge society. • The group developed its own definition of converging technologies: “Converging technologies are enabling technologies and knowledge systems that enable each other in the pursuit of a common goal” (p. 14). While this definition is very broad, at least nanotechnology, biotechnology and information technology have undisputed key roles in convergence. Their mutual enablement is characterized as evident. In addition the HLEG argues for a special role for the social sciences and humanities, including cognitive science in this category rather than in a group with the NBI part of convergence. It also refrains from hastily taking sides in the emergent new round of debate over free will versus (neuro)determinism. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE • HLEG stresses the importance of specific societal needs that must be identified in order to take advantage of and preserve Europe’s cultural diversity and to create economic opportunity. Social sciences and humanities should provide orientation where CT could disrupt traditional ways of life, serve as intermediaries between political actors, CT researchers and society, and help to assess risks. The report obviously appreciates the methodological and theoretical diversity of social sciences and humanities as a reflection of the cultural and political diversity of modern societies. Moreover, these disciplines are seen as enablers for a human-centered and demanddriven CT applications design. • The HLEG favors an approach to CT that prioritizes “engineering for the mind” as opposed to “engineering of the mind”. It is skeptical towards brain-machine interfaces and brain implants to enhance mental capabilities and recommends instead the development of tools that can support and improve social interaction and decision-making in a diverse Europe and for ageing societies. The HLEG takes a reserved stance on technological enhancements of mental and physical capabilities that could create a divide between enhanced and non-enhanced humans – with the latter being increasingly perceived as “imperfect” or inferior. Furthermore the HLEG report warns that an idea of man as machine could lead to a mechanistic world in which there is no genuine moral choice. One may add that far-reaching transformations of the human body by technological means would raise questions of identity, e.g. with respect to the distinction between “having” and “being a body” (“Körper” and “Leib”, as in the phenomenological tradition). • The report includes a set of recommendations for European policy concerning CTEKS, including quite ambitious endeavours, such as an initiative to widen circles of convergence (WiCC), starting with the creation of a coordinating office. Although very good as a starting point for a debate on challenges arising from current developments in science and technology, further reflection on and elaboration of some of the ideas would have been helpful. 5 Structure of the conference Following an introductory session with speakers from the commission and the HLEG, there were sessions on understanding convergence and the process of convergence which mainly featured presentations by members of the HLEG and of similar activities elsewhere. A similar format was employed by sessions on the next day which examined opportunities for Europe from the new technology wave and discussed new research models. Then followed a panel session involving speakers from various commission services on the role of converging technologies in the current EU research policy framework. The closing session was a summing up, in particular, on implications for European research policies. 6 Notes on the sessions The major differences between the European CTEKS and the US American NBIC are perhaps that CTEKS are conceived as a bottom-up approach, starting from societal needs and involving many scientific disciplines other than the core of three or four (depending on the strategic importance of cognitive science), while NBIC has a strong focus on the improvement of human capabilities and performance, fuelled no doubt by military and security concerns, and is concentrated on the three established “big Os” (Nano, bio, info) and a promising newcomer (cogno). The US program is also extremely ambitious, culminating in the declaration of a “new renaissance” of science and including such projects as “mapping the human cognome” or “memetics” as a new scientific discipline, designed to overcome perceived dead-ends in the social science. The European program has no such ambitions and cautions against unbridled technological optimism. The HLEG proposes the involvement of social sciences and the humanities from the outset to consider societal needs and concerns (Bruland, Nordmann in their presentations). Cognitive sciences are seen as a key field for CTEKS, which should receive greater attention at the European and national levels. The cognitive sciences are marked by a high degree of interdisciplinarity and include areas of psychology, neuroscience, linguistics and philosophy with important impulses coming Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 121 TAGUNGSBERICHTE from the social sciences. In the past much attention was given to artificial intelligence (AI) which, depending on perspectives, can be seen as an area of cognitive sciences or as a separate endeavour which uses many results from the cognitive sciences. There was great interest in AI in the late 1980s and early 1990s which ebbed, when promised spectacular progress did not take place. At the moment, neuroscience is at the forefront of cognitive sciences. Cognitive science is making a major contribution to the understanding of the human as a social being which is essential for the construction of converging technologies if these are not to be misused or suffer rejection (presentation by the philosopher and cognitive scientist Daniel Andler). The NBIC initiative has also attracted the attention of its northern neighbour, Canada, which concerned itself with convergence in its own pioneer foresight study on “Biosystemics”, the Canadian variant of convergence, which gives special attention to ecological science in addition to the NBIC quartet. Correspondingly, the Canadian foresight program has devoted special attention to health-related applications, materials science, food system integrity and disease mitigation (presentation by Canadian Foresight director Jack Smith). No doubt because of the military connotations of the American NBIC concept, there are concerns that the social aspects of convergence might be of even greater importance and more controversial than in such cases as genetic engineering. Since societal attitudes in Europe towards CTs are uncertain, due not least to lacking awareness at present, it is extremely difficult to undertake any kind of risk assessment, additionally so, since experts are few and far between (presentation by Raoul Kneucker). In the US, social science on nanotechnology is part of the program outlined in the “21st Century Nanotechnology Research and Development Act” (108th Congress, 1st Session, p. 189, signed by the President on December 3, 2003) with funds earmarked for the purpose. In the NBIC report (Roco, Bainbridge 2002), there is a proposal to actually train social scientists in the NBIC sciences during their professional education. A problem arising from visions for perfecting humans through NBIC is the ethical question of the acceptance of imperfection, such as Seite 122 disabilities of physical or mental nature, i.e. a “right to imperfection” which is being debated in philosophical circles. There is also doubt about the adequacy of the existing legal framework to deal with questions arising from the availability of products of converging technologies, .e.g. “right to life”, privacy concerns or the right to access of certain products in health care. Convergence is already taking place in such concepts as “ambient intelligence”, which relies heavily on nanotechnology to enable cognition (presentation by José Encarnação, Chairman of the Information Society Technologies Advisory Group (ISTAG)). A recurring theme in the conference was the need for cooperation between scientific disciplines in such endeavours as CTEKS. There are various kinds of such cooperation, including multidisciplinarity, where each discipline as assigned its own tasks and there is mainly an exchange of results and transdisciplinarity, where cooperation is closer necessitating an exchange on approaches, underlying assumptions, concepts etc. to be successful (Eleonora Barbierie Masini). There was seen to be a need to embed socio-economic aspects in technological development. The development of CTEKS in four different scenarios for the future development of Europe was discussed, with each scenario producing different accents with respect to the development and application of CTEKS. There was a recommendation to emphasise European values in the development of CTEKS, such as solidarity, justice, cultural diversity and plurality, employing constructive technology assessement (Jan Staman). Another recommendation concerned the justification of decisions on technology policy by decision makers, such as the European Commission (Françoise Roure in her presentation). Concerns and worries could be used to advantage in conceiving new research. New roles emerge for disciplines that are traditionally focussed on regulation issues and gatekeeping functions. E.g. toxicology may serve as a point of information that allows you to generate more biocompatible materials – the US chemist Vicky Colvin was cited. In a similar way, social sciences could be used to generate more socially and culturally beneficial technologies (Nordmann). Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE Presentations from commission officers showed that much research which could fall under the heading of CTEKS in future is already in hand in the sixth framework program. 7 Prospective Outlook Much space in the report of the HLEG is devoted to issues of interdisciplinary work which are obviously of great importance but not restricted to convergence of the type which was the subject of the report. There is thus a need to discuss various approaches to integration of relevant disciplines, such as education of social scientists in the NBIC disciplines as proposed in the NSF/DoC report (Roco, Bainbridge 2002), or the concept of “embedded social scientists” as being implemented at the Nanoscience Centre at the University of Cambridge (UK) (Wilsdon 2004). In further work, it might be helpful not only to analyze the US NBIC visions in greater depth, but also to put them into perspective. The 2002 NSF/DoC report should not be treated as an isolated document, but seen within the context of US and international debates on NBIC and other enabling technologies and knowledge systems. As the US debate seems to be heavily influenced by two poles – an “extremely conservative reluctance” and a “quasi-religious embracement” of CT (Baird 2003) – it may be possible to learn from these highly polarised discussions. In some senses the NBIC debate is reviving many of the arguments exchanged in the late 1980s – early 1990s debate on artificial intelligence, in which Hans Moravec published a controversial book with the title “Mind Children” (Moravec 1988), which contains many central arguments of the “trans-humanists”. Moravec’s and Ray Kurzweil’s mentor, Marvin Minsky, a pioneer of artificial intelligence from the 1950s on, in fact argues for a central role for nanotechnologies in a 1994 article for the “Scientific American” asking the provocative question “Will robots inherit the Earth?”: “…our nanotechnologies should enable us to construct replacement bodies and brains that won’t be constrained to work at the crawling pace of ‘real time’” (Minsky 1994). At this time, there was also a lively debate in parts of Europe on many aspects of artificial intelligence fuelled largely by public and industrial interest in “expert systems”. At the time, a distinction was made between applications designed to replace human beings (experts) and those designed to support them. Many of the issues discussed then are resurfacing in connection with NBIC, so it is instructive to revisit the debate ongoing at that time for lessons which can be learnt – especially against the background of a developing societal framework and changing individual perspectives on and growing societal acceptance of new medical and pharmaceutical opportunities like cosmetic surgery or drugs to improve muscle mass and endurance as well as moods, attention or memory. Besides the ethical and social concerns which are the topic of a drifting debate about CT, there are major doubts about the technological feasibility of many CT applications discussed in the various reports. Although science and technology have made enormous progress in the NBIC fields over the last years, many of the underlying fundamental processes of nature still are not sufficiently understood. Information on the state-of-the-art of related technologies is highly fragmented and often not transparent (since many research efforts in these fields are funded by defense research programs). Progress reports more often than not seem to be biased because of commercial interests, undisputed facts and widely accepted research results are rare. There is a clear need for reliable and wellstructured information on opportunities, challenges and limitations for CT, linked with foresight activities and an analysis of the actual relevance of CT for research policy. Interestingly enough, the political discussion on CT shows signs of the same paradox as the debate on nanotechnology. Much simplified: “It is not clear, what it really is, what it will enable and where it will lead to, but in any case it is very important and will have enormous impact”. Moreover, the atmosphere in the US now seems to be rather poisoned: In “transhumanist” and other technophile circles the members of the US President’s Council on Bioethics are often seen as reactionary fanatics. A member of the Council, Francis Fukuyama, recently characterized “transhumanism” as one of the world’s most dangerous ideas. There is still a real danger that the loudest voices will shape the public debate. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 123 TAGUNGSBERICHTE In any case, it would be unwise to model a European approach to CT only in opposition to a single US initiative or by adapting some of its elements in a European context without careful consideration: Shared cultural roots - like older occidental traditions - as well as the specificities of US and European societies and historical experience have to be taken into account. Otherwise relevant human, ethical and social aspects of CT and their potentially disruptive qualities may be neglected. A critical appraisal of US discussions may also help to avoid a biased perception of the US cultural climate, the scientific state of the art and the similarities and differences between Europe and the US with regard to CT. Rational curiosity about the synergistic effects of new technologies, coupled with historical and ethical awareness, seems to be the stance that is most appropriate for the forthcoming discussions. * Most of the material is available at the Conference website (NTW 2004) Bibliography Bainbridge, W.S., 2004: The Evolution of Semantic Systems. In: Roco, M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converging Technologies, op. cit., pp. 150-177 Baird, D., 2003: Testimony at a Full Committee Hearing on Nanotechnology of the US Senate Committee on Commerce, Science, and Transportation. 01.05.2003 http://commerce.senate.gov/hearings/ testimony.cfm?id=745&wit_id=2012 (17.11.2004) Bond, P.J., 2004: Vision for Converging Technology and Future Society. In: Roco, M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converging Technologies, op. cit., pp. 17-24 Canton, J., 1999: The Social Impact of Nanotechnology: A Vision to the Future. In: NSTC-IWGN (ed.): Nanotechnology Research Directions. Workshop Report, The National Science and Technology Council’s Interagency Working Group on Nano Science, Engineering, and Technology, workshop on January 27-29, 1999, pp. 178-180 (chapter 11.7.13) http://www.wtec.org/loyola/nano/IWGN.Research. Directions/IWGN_rd.pdf (17.11.2004) Canton, J., 2004: Designing the Future: NBIC Technologies and Human Performance Enhancement. In: Roco, M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converging Technologies, op. cit., pp. 186-198 Gorman, M.E., 2004: Collaborating on Convergent Technologies: Education and Practice. In: Roco, Seite 124 M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converging Technologies, op. cit., pp. 25-37 HLEG – High Level Expert Group ‘Foresighting the New Technology Wave’, 2004: Converging Technologies – Shaping the Future of European Societies. By Alfred Nordmann, Rapporteur. Brussels Khushf, G., 2004a: Systems Theory and the Ethics of Human Enhancement: A Framework for NBIC Convergence. In: Roco, M.H.; Montemagno, C.D. (eds.): The Coevolution of Human Potential and Converging Technologies, op.cit., pp. 124-149 Khushf, G., 2004b: The Ethics of Nanotechnology. Vision and Values for a New Generation of Science and Engineering. In: National Academy of Engineering (ed.): Emerging Technologies and Ethical Issues in Engineering. Papers from a Workshop, October 14-15, 2003. The National Academies Press; http://books.nap.edu/books/030909271X/html/ 29.html#pagetop (17.11.2004) Minsky, M., 1994: Will Robots Inherit the Earth? Scientific America, October 1994 Moravec, H., 1988: Mind Children – The Future of Robot and Human Intelligence. Cambridge, Mass., London: Harvard University Press NTW, 2004: Conference Website http://www.europa. eu.int/comm/research/conferences/2004/ntw/index_ en.html Paschen, H.; Coenen, C.; Fleischer, T.; Grünwald, R.; Oertel, D.; Revermann, C., 2004: Nanotechnologie – Forschung, Entwicklung, Anwendung. Berlin: Springer-Verlag President’s Council on Bioethics, 2003: Beyond Therapy: Biotechnology and the Pursuit of Happiness. Washington DC; http://www.bioethics.gov/ reports/beyondtherapy/beyond_therapy_final_report_ pcbe.pdf (25.11.2004) RAND, 2001: The Global Technology Revolution. Bio/Nano/Materials Trends and Their Synergies with Information Technology by 2015. By Philip S. Antón, Richard Silberglitt and James Schneider. RAND National Defense Research Institute Roco, M.H.; Bainbridge, W.S. (eds.), 2002: Converging Technologies for Improving Human Performance: Nanotechnology, Biotechnology, Information Technology and Cognitive Science. http://www.wtec.org/ConvergingTechnologies (17.11.2004) Roco, M.H.; Montemagno, C.D. (eds.), 2004: The Coevolution of Human Potential and Converging Technologies. New York: New York Academy of Sciences (Annals of New York Academy of Sciences, Vol. 1013, May 2004) Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE Royal Society; Royal Academy of Engineering, 2004: Nanoscience and nanotechnologies: opportunities and uncertainties. RS policy document 19/04. London, July 2004 Strong, G.; Bainbridge, W.S., 2002: Memetics: A Potential New Science. In: Roco, M.H.; Bainbridge, W.S.: Converging Technologies for Improving Human Performance: Nanotechnology, Biotechnology, Information Technology and Cognitive Science. http://www.wtec.org/ConvergingTechnologies, pp. 279-286 (17.11.2004) TAB – Office of Technology Assessment at the German Parliament, 2003: Summary of TAB working report No. 92 “Nanotechnology”. http://www.tab.fzk.de/en/projekt/zusammenfassung/ ab92.htm (07.11.2003) Turkle, S., 2002: Sociable Technologies: Enhancing Human Performance when the Computer is not a Tool but a Companion. In: Roco, M.H.; Bainbridge, W.S.: Converging Technologies for Improving Human Performance: Nanotechnology, Biotechnology, Information Technology and Cognitive Science. http://www.wtec.org/ConvergingTechnologies, pp. 133-140 (17.11.2004) Wilsdon, J., 2004: Nanotech needs to listen to its public, and now. Financial Times, 1 September 2004 auch die universitäre und außeruniversitäre Forschung waren vertreten. Es ging, wie der die Ministerin vertretende Staatssekretär Dudenhausen einleitend betonte, u.a. darum herauszufinden, für welche Ideen und Entwicklungen die im kommenden Jahr zur Verfügung stehenden F+E-Mittel (30 Mio. Euro) eingesetzt werden sollen. Dudenhausen forderte dazu auf, sich die präsentierten Projekte anzusehen, die dann am interessantesten seien, wenn sich Gebiete überkreuzten, wie z. B. Telekommunikation und Nanoelektronik. Die heutige mobile Kommunikation sei erst durch die Nanoelektronik möglich geworden, „und zugleich ist heute die Mobilkommunikation ein Hauptmotor für die Nachfrage nach Nanoelektonik“. Forschung und Industrie sollten enger kooperieren. Für uns war die Tagung Gelegenheit, eine Zwischenbilanz zu unserem Forschungsprojekt über „i-mode“ (das unter dem Programm für Innovations- und Technikanalysen des BMBF gefördert wird) auf der Postersession zu präsentieren (http://www.itas.fzk.de/deu/projekt/ webe0333c.htm). » 1 Struktur und Themenblöcke Mobilfunkbranche peilt auf dem Petersberg die Zukunft an Zukunftsforum Mobiles Internet 2010, 14. - 15. September 2004 Tagungsbericht von Bernd Wingert und Arnd Weber, ITAS Der Ort war gut gewählt, das Gästehaus der Bundesregierung auf dem Petersberg in Königswinter, denn er passte mit seinem prachtvollen Ambiente gut zu der wieder zu Optimismus neigenden Stimmungslage der Mobilfunkbranche. Die Konferenz war Gelegenheit zur Standortbestimmung, zum Rückblick auf bisherige Entwicklungen und das darin Versäumte, wie zum Ausblick auf komplexer werdende Infrastrukturen und ein unübersichtlicher werdendes Feld von Akteuren. Die Konferenz versammelte weit über 300 Teilnehmer: Mobilfunkbetreiber, Chip- und Gerätehersteller, Dienste- und Inhalteanbieter, Die Konferenz ging über zwei Tage; es gab am ersten Tag eine ‚Keynote’ von René Obermann (Vorstandsvorsitzender der T-Mobile International AG), und am folgenden Tag sogar zwei Keynotes, die erste von Thomas Ganswindt (Siemens, IuK-Netzwerke), die zweite von Jeffrey Funk (Hitotsubashi University, Tokio). Die Beiträge am Nachmittag des ersten Tages waren den Themen „Infrastruktur“ und „Endgeräte“ gewidmet. Nach den beiden Keynotes des zweiten Tages waren „Internationale Trends“ Gegenstand der Betrachtung, danach „Anwendungsfelder und Geschäftsmodelle“. Am Nachmittag ging es erneut um Infrastrukturen, nun aber explizit um „Mobile Netze der Zukunft“. Da es wenig informativ wäre, alle Beiträge mit der gleichen Intensität zu beleuchten, wählen wir aus und sparen die Sektionen über ‚Gerätetechnik’ und jene zu ‚Anwendungen’ ganz aus und gehen auch innerhalb der Sektionen nicht auf jeden einzelnen Beitrag ein. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 125 TAGUNGSBERICHTE 2 Infrastruktur: Wie sehen Betreiber und Ausrüster Stand und weitere Entwicklung? Diese Sektion wurde von Gerhard Fettweis geleitet, der an der TU Dresden die Vodafone Stiftungsprofessur innehat. Der einführende Vortrag von René Obermann sei ebenfalls hier subsumiert. Während sich Wiemann (Vodafone) mit der unmittelbar anstehenden Zukunft befasste (der Übergang auf DVB-T und -H, „Digital Video Broadcasting-Terrestrisch bzw. –Handheld“) und Möglichkeiten auslotete, welche Marktnischen ein Handy-angepasstes TV besetzen könnte, gingen Wulf (Alcatel, Vorstand Marketing, Vertrieb) und Horn (T-Mobile, Geschäftsführer Technik) auch schon auf die Auslegung künftiger konvergierender Netze ein. Im Vergleich dazu nahmen die Vertreter der beiden Netzbetreiber (Obermann für T-Mobile und Dirks für E-Plus) auch einen kritischen Rückblick vor, der in seiner deutlichen Sprache und Offenheit überraschte. Kritisch kommentiert wurden von Obermann u. a. die unterschätzte Komplexität des mobilen Internet, der Konfigurierungsaufwand für den Nutzer, der nicht immer zufrieden stellend arbeitende Bildtransport, oder der Umstand, dass das Marketing zu lange über die Technologie aufgezogen worden sei und in Zukunft „mehr Kundenverständnis“ aufgebracht werden müsse. Die Komplexität des mobilen Internet sei, nicht nur von T-Mobile, unterschätzt worden, angefangen bei der Netztechnologie, über die Dienstebereitstellung, die Endgeräte und das Schaffen eines gesamten „Ökosystems“, was wir dahin interpretieren, eine Vielzahl von Beteiligten untereinander abzustimmen (Inhalteanbieter, Netzbetreiber, Handyhersteller). Natürlich sei es gut, wenn die Geräte immer besser würden, aber es stehe, so Obermann wörtlich, „wenn wir ganz ehrlich sind, in der Nützlichkeit der Dienste, in der Einfachheit der Bedienung und die günstigen Preise, die wir alle brauchen und wollen für den Massenmarkt, noch nicht in allen Bereichen zum Besten.“ Freilich zeigte sich Obermann auch vom Erfolg des mobilen Internet überzeugt. Wo muss nach Ansicht von René Obermann in Zukunft anders gehandelt werden? Er ging auf fünf Punkte ein: 1) Zwar müsse man alternative Technologien zu UMTS wie WiFi, WiMAX oder OFDM verfolgen, aber sie wür- Seite 126 den in Zukunft ein Netz sehen, das aus verschiedenen Komponenten aufgebaut sei. Das Ganze müsse einfach tarifiert werden. 2) Die Kunden wollten Mobilität und seien bereit, dafür zu bezahlen. Das heutige relativ hohe Preisniveau im Mobilfunk sei aber nicht zu halten. Wichtig sei „Ende-zu-Ende-Qualität“. 3) „Schaffe das mobile Ökosystem!“ war eine weitere Forderung. Man könne in Zukunft nicht mehr alles alleine machen, „walled garden“-Modelle seien nicht mehr aktuell. 4) Man müsse für den Kunden die Komplexität reduzieren, den Techno-Jargon verlassen, die Dienste einfacher machen und auch an die älteren Nutzer denken. 5) Bessere Geräte, mehr Speicher, bessere Displays – das alles sei richtig, aber entscheidend sei, die Gerätesubventionierung herunterzufahren, auch auf die Gefahr hin, dass ein Anbieter dann 1% Marktanteil verliere. Die Zeit, so Obermann resümierend, wo es um schiere Kundenzahlen ging, sei vorbei. Die Branche müsse sich daran gewöhnen, unter „reifen Marktbedingungen“ zu agieren. Im kritischen Rückblick auf die bisherige Entwicklung traf sich Thorsten Dirks in vielen Punkten mit René Obermann, so etwa darin, dass die Branche zu technikgetrieben sei und die Kundenorientierung vernachlässigt habe, oder dass die „walled garden“-Strategie in einem mobilen Internet nicht mehr gehen würde. Aber er teilte nicht den Optimismus über den Erfolg von „public hot spots“. Man prüfe zwar auch die neuen Möglichkeiten (wie WiMAX), aber als Technologie im Hintergrund, nicht für die Kundenseite. Was künftige Geschäftsmodelle angeht, plädierte Dirks weder für ein völlig offenes Modell, wo der Betreiber nur als „Pipe“ fungiert, noch für ein völlig geschlossenes. Nach seiner Einschätzung liege das Optimum in der Mitte, also in etwa ‚kontrollierte Offenheit’. 3 Mobiles Internet – was ist das eigentlich? In den beiden Keynotes am Mittwochvormittag ging es zum einen schwerpunktmäßig um „machine to machine communication“ (von Thomas Ganswindt; Siemens, Bereichsvorstand Information and Communication Networks) und zum anderen um „mobile Internet“ (von Jeffrey Funk, Tokio). Wir konzentrieren uns auf den zweiten Beitrag und schlagen, um das von Obermann Gesagte und das Folgende bes- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE ser einordnen zu können, drei Varianten von „mobilem Internet“ vor. (1) Eine erste Variante bezieht sich auf die drahtlose Nutzung herkömmlicher InternetDienste, z. B. mittels Laptop oder PDA. Damit kann etwa ein Außendienstmitarbeiter über UMTS oder WiFi Daten aus dem Internet holen kann. Bei dieser Variante kommen Handys noch nicht ins Spiel. (2) Geht es um Angebote wie ‚Vodafone live’ ‚T-Zones’ von T-Mobile oder ‚i-mode’ von E-Plus, dann handelt es sich um Portale der Betreiber, die per Handy zugänglich sind (per Vertrag), um etwa Nachrichten abzurufen oder die aktuelle Wetterkarte anzusehen. Aufgrund des kontrollierten Zugangs nennt man ein solches Konzept „walled garden“. (3) Die dritte Variante liegt vor, wenn Internet-Standards implementiert sind, wie bei „i-mode“ in Japan, so dass man vom Handy aus direkt eine URL anklicken und die hinterlegte Information abrufen kann (sinnvollerweise für die Bildschirmgröße von Handys angepasst). Diese Variante hat Funk im Auge, wenn er über „Solving the start up problems in Western mobile Internet markets“ spricht. Zunächst ging es ihm darum, gängige Vorurteile über den japanischen Mobilfunkmarkt zu zertrümmern, so wenn betont werde, dass die Beschäftigten in Japan sehr viel und lange mit dem Zug fahren, weniger den PC nutzen und Japan eben, auch kulturell, anders sei: „Success of Japan’s mobile Internet has nothing to do with trains and low PC Internet usage“. Für die hohe Handy-Nutzung in Japan sei vor allem entscheidend, was er „push-based Internet Mail“ nannte. Damit werde es möglich, Mails vom PC direkt auf das Handy zu leiten, in die Nachricht eine URL aufzunehmen, die dann wiederum klick- und nutzbar ist, oder es komme zu einer „combination of Internet and other media“. Das Start-up Problem sieht Funk darin, „to create a critical mass of users and technology providers in industries that have network effects“. Maßnahmen, das ‚start up Problem’ zu lösen, sind nach Funk u. a. eine Vielzahl von solchen einfachen Anwendungen. Der Markt entstehe nicht dort, wo Nutzer über einen Browser nach Informationen suchten, sondern wo sie sich für spezifische Informationen registrieren lassen, die ihnen per Mail dann zugeht (z. B. dass ein bekannter Künstler dann und dann auf- tritt, so dass gleich ein Ticket bestellt werden kann). Warum würden hiesige Service Provider solche Dienste nicht einrichten? Funk sieht solche Gründe etwa darin, sich das SMS-Geschäft nicht kaputt zu machen, oder in einem nicht ausreichenden Verständnis der Bedeutung von ‚Internet mail’: „In my conversation with service providers I've met very few people who understand the importance of push-based Internet mail. When you talk about mail they think, oh yes, business people want to access their PC mail by their phone. And I say, that’s important, but that’s not the most important thing. It’s for all the other things I've talked about“. Und dazu gehöre auch die Frage, ob Regierungen da nicht Einfluss nehmen sollten. „The mobile Internet is too important to leave it to the service providers ... And so I think that governments need to consider doing some of these things, and the exact way they do them I don't claim to know“. Es bleibt abzuwarten, ob sich auch die hiesigen Anbieter langfristig auf ein solches offenes Modell zu bewegen werden, wie es Funk skizzierte. 4 Internationale Trends: DoCoMo in München, Siemens in China und WWRF international Hendrik Berndt (Senior Vice President der DoCoMo Euro-Labs in München) befasste sich mit der Architektur von Netzwerken der nächsten Generation (4G). Das von ihnen favorisierte Modell arbeitet mit offenen Plattformen auf jeder Ebene; wichtig seien „programmability & adaptability“ dieser Netzwerke. Auch Berndt betonte wie andere Referenten (Obermann, Horn, Wulf), dass das Management solcher Netzwerke komplizierter werde. In ihrer Sicht sei 4G eine Kombination von mobiler Welt und einem „ubiquitous networking environment“, das sich gegenüber dem Nutzer auch initiativ verhalten könne. In der Diskussion gefragt, welche Gründe ein japanisches Unternehmen denn bewegen würden, in Deutschland ein Forschungslabor aufzumachen, nannte Berndt u. a. die in Europa und zumal in Deutschland vorhandene lange Tradition von Forschung und die Notwendigkeit, dass DoCoMo im Zuge einer stärker internationalen Positionierung die unterschiedlichen „Räume“ (vermutlich auch als ‚Kulturräume’ gemeint) besser verstehen Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 127 TAGUNGSBERICHTE müsse. Es gäbe neuerdings auch Labors in den USA und in China. Im Vortrag von Peter Weiss (Siemens China) wurde von kulturellen Gegebenheiten immer wieder gesprochen, und Siemens müsste Bescheid wissen, sind sie doch schon länger als 100 Jahre in China geschäftlich tätig. Bei Siemens China arbeiten 30.000 Beschäftigte (mit einem Umsatz von 3,3 Mrd. Euro). Ziel sei es, in den kommenden fünf Jahren den Umsatz zu verdoppeln. Weiss erläuterte das Ausbildungssystem (allein im IuK-Bereich 350.000 Absolventen pro Jahr), das forschungspolitische System (im Programm „873“ seien auch Forschungsmittel für „Beyond 3G“ enthalten) und die Telekommunikationsbranche. Sowohl der führende chinesische Festnetz- als auch der Mobilfunkbetreiber sind die größten der Welt. China werde zu einem „lead market“ für den Mobilfunk, im Jahre 2010 rechnet man mit 500 Mio. Mobilfunkteilnehmern, aber der Markt ist noch immer stark durch die Regierung reguliert. Zwischen China, Korea und Japan entwickeln sich engere Formen der Kooperation, auch um Industriestandards abzusprechen und sich europäischer und amerikanischer Interessen stärker erwehren zu können. Trotz dieses ‚Bollwerkes’ sieht der Referent eine Chance, sich in diesen Dialog einzubringen. Ihr Ansatz sei, in China für den chinesischen Markt zu produzieren, auch mit guten Ideen und Innovationen, die in Deutschland entstünden. Die Chinesen hätten „einen unheimlichen Drang, ihr eigener Chef zu sein“, so Weiss in seinem Exkurs über die dortige Mentalität. Aus nahe liegenden Gründen gab es zu diesem Vortrag viele Nachfragen, so u. a., wie es mit IPR (intellectual property rights) stehe und wie sich Siemens gegen den Diebstahl von Ideen wehre. Hierzu meinte Weiss, eine „no risk situation“ gebe es nicht; man könne nicht verhindern, dass etwas kopiert werde. Aber das sei nicht entscheidend. Wichtiger sei die Frage, was passiere, wenn sie in diesem Markt überhaupt nicht präsent wären. Mikko A. Uusitalo erläuterte als Chairman des WWRF (Wireless World Research Forum) Aufgabenverständnis, Ziele und Arbeitsgruppen, Mitglieder und kommende Konferenzen dieser Organisation. Die 150 Mitglieder des WWRF kommen aus allen Kontinenten, wenn auch, wie in der Diskussion klargestellt wurde, „the Euro- Seite 128 pean way of doing“ noch dominiere. Die WWRF ist in einem vorwettbewerblichen Bereich tätig und sucht den internationalen Konsens: „Develop a consistent vision of the future Wireless World“, wie eines der Hauptziele umschrieben wurde. Diese Ideen und Modelle sind in einem voluminösen Band zusammengefasst, dem „Book of Visions“. Die Modellvorstellung ist die einer evolutionären Entwicklung hin zu 3G- und 4G-Systemen, nicht eines revolutionären Wandels, der mit „disruptive technologies“ verbunden wäre. Eine solche Gefahr, so Weiss in der Diskussion, sehe er aber in zwei oder drei Jahren aus dem asiatischen Raum heraufziehen. Wir interpretieren diese Hinweise dahin, dass (1) mit neuen Technologien Sprach- und Datendienste billiger als mit UMTS erbracht werden können, (2) neue breitbandige Datennetze, wie sie derzeit in Japan und Korea aufgebaut werden, gemeint sind, wie auch (3) drahtlose Sprachkommunikation über das InternetProtokoll („voice over IP“). Dem Thema „Disruptive Technologien in Telekommunikationsnetzen – Verifikation anhand von Prototypen“ war der erste Vortrag von Georg Haubs (Siemens) gewidmet. Der zweite Vortrag von Rainer Fechner (Lucent Technologies Network Systems) befasste sich mit „ABC – Always Best Connected: Konvergenz der Dienste und Systeme“ und betonte den personalisierten Bezug auf einzelne Nutzer und Nutzergruppen. Etwas näher eingehen wollen wir auf Fiona Williams, die über „Towards Ambient Networks“ sprach und in Aachen das Ericsson Research Lab aufgebaut hat. Einleitend wies sie darauf hin, dass angesichts der Sättigungskurven in den Industrienationen das kommende Wachstum im Mobilfunk von den Entwicklungsländern erzeugt werde, so dass man gehalten sei, gängige Annahmen zum Bedarf zu überdenken. Konkret malte sie ein Szenario eines mobilen Rockkonzerts aus, das Teil einer Reihe von Projekten im WWIVerbund ist, der ‚Wireless World Initiative’, die im Kontext des 7. Rahmenprogramms der EU auf eine ‚Wireless Communications Technology Platform’ hinauslaufen solle, damit Europa mit den ehrgeizigen Aktivitäten von China, Korea und Japan mithalten könne. Forschungsanstrengungen in diesem Bereich seien nötig, denn heute schon gelte, was erst wenige Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE so sehen würden: „mobile & wireless have an economic impact greater than the Internet“. Bernhard Walke, der Moderator dieser Sektion, lieferte selbst noch einen kleinen Beitrag, bevor er die Diskussion eröffnete. Die Diensteerbringung sei in den heutigen Netzen noch ineffizient. Er schlug ein Konzept vor, nach dem man die mit zunehmender Entfernung von der Basisstation stark abnehmende verfügbare Datenrate für die Nutzer durch Aufstellen von kleinen Relais verbessern kann. Eine solche Komponente sei im WiMAXStandard (IEEE 802.16) als Mesh-Komponente vorgesehen, im Übrigen auf Forschungen basierend, die früher an der TH Aachen gemacht wurden. Deutschland solle die Forschung an Mesh-Konzepten vorantreiben. Das sei eine „disruptive technology“, weil u. a. die Festnetzanschlusskosten dramatisch reduziert werden könnten. Damit endet unser Einblick in die Konferenz, die auch ein „Zukunftsforum“ sein sollte, und kommen noch einmal auf jenen Ausblick zurück, den man vom Petersberg hat – Modell für den Ausblick in eine ungewisse Zukunft? „Der beste Weg, die Zukunft vorherzusagen ist, sie zu gestalten“ – so zitierte Ganswindt, seinen Vortrag abschließend, Peter Drucker. Gewiss richtig. Nur zeigte die Konferenz gerade an jenen Stellen, wo „disruptive technologies“ angesprochen wurden, wie hoch-kontingent dieses Gestaltungshandeln in einem globalen Kontext geworden ist, wenn mit neuen Techniken die über Jahre gepflegte Technologielinie überrollt zu werden droht. » Auf dem Weg zu interdisziplinären Methodologien Karlsruhe, 24. - 25. Juni 2004 Tagungsbericht von Armin Grunwald, ITAS, und Jan C. Schmidt, Zentrum für Interdisziplinäre Technikforschung, TU Darmstadt Am 24. und 25. Juni 2004 fand in Karlsruhe der Sondierungsworkshop „Auf dem Weg zu interdisziplinären Methodologien. Forschungsstand und offene Fragen“ statt. Veranstalter waren das Zentrum für Interdisziplinäre Technikforschung an der TU Darmstadt (ZIT) und das Institut für Technikfolgenabschätzung und Systemanalyse des Forschungszentrums Karlsruhe (ITAS). 1 Fragestellung und Zielsetzung Die fortschreitende Differenzierung der Wissenschaften seit der Neuzeit folgte in erster Linie den inneren Bedürfnissen und Entwicklungen der Wissenschaften, weniger den äußeren Anforderungen. In Disziplinen und Subdisziplinen wurden immer spezialisiertere Felder hoch komplizierter Fragestellungen bearbeitet. Das rasche Wachstum und die enorme Leistungssteigerung der Wissenschaft beruht im Wesentlichen auf dieser funktionalen Ausdifferenzierung und Spezialisierung im Wissenschaftssystem. Im Gegenzug erwartet jedoch die Gesellschaft seit einigen Jahrzehnten verstärkt wissenschaftliche Problemlösungen – z. B. in den Bereichen Umwelt, Energie, Gesundheit -, die sich nicht der disziplinären Spezialisierung fügen. Besondere Bedeutung kommt dabei der Zusammenarbeit zwischen Natur- bzw. Technikwissenschaften einerseits und den „Reflexionswissenschaften“ (Philosophie, Soziologie, Psychologie, Rechtswissenschaften und Ökonomie) andererseits zu. Technikfolgenabschätzung und interdisziplinäre Technikforschung sind einschlägige Gebiete. Inter- und Transdisziplinarität als gesellschaftliche Antwort auf die fortschreitende disziplinäre Spezialisierung der Wissenschaften soll die Wissenschaften wieder stärker an praktischen Problemen der Gesellschaft orientieren und die Parzellierung des Wissens aufheben. Diese Diskussion um Inter- und Transdisziplinarität dauert seit den siebziger Jahren an. Nach wie vor herrscht der appellative Duktus vor, dass Inter- und Transdisziplinarität dringend benötigt werden. In der Forschungsförderung wird sie häufig erwartet, und in institutionellen Evaluierungen stellt sie mittlerweile meist einen Pluspunkt dar. In vielen Feldern sind Inter- und Transdisziplinarität mittlerweile fest etabliert, partiell sogar als Teil der Selbstverständnisse von Forschungseinrichtungen oder ganzer Forschungsrichtungen wie z. B. der Nachhaltigkeitsfor- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 129 TAGUNGSBERICHTE schung. Eine Vielzahl von Antworten auf die praktischen Fragen, wie denn interdisziplinäre Forschung zu organisieren sei und worauf man in konkreten Projekten achten müsse, kann mittlerweile aufgrund empirischer Erfahrung gegeben werden. Demgegenüber scheint die theoretische und methodische Aufarbeitung und Erfassung von inter- und transdisziplinärer Forschung hinterher zu hinken. Folgende Fragen einer Theorie interdisziplinärer Forschung (hier könnte auch ein etwas weniger stark belastetes Wort stehen) sind ungelöst: - Funktionen: Soll Interdisziplinarität nur Wissen für wissenschaftsexterne Zwecke erzeugen bzw. bündeln oder soll sie in die Disziplinen zurückwirken? Welche Funktionen soll sie dort in Forschung und Ausbildung haben? - Objekt: Was sind die Gegenstände interdisziplinärer Forschung und wie werden sie konstituiert? Arbeiten verschiedene Disziplinen, die an einem gemeinsamen Projekt forschen, an den gleichen Gegenständen, oder sind die Gegenstände disziplinär unterschiedlich konstituiert? - Methode: Gibt es eine Methodologie interdisziplinärer Forschung und wie sieht sie aus? Was soll sie leisten? Wo sind die Schnittstellen zu den disziplinären Methodologien? - Qualitätskriterien: Wie kann gute von weniger guter Interdisziplinarität unterschieden werden? Wie sieht die Qualitätssicherung aus und welche Kriterien werden verwendet? Besonders problematisch ist das Fehlen anerkannter Qualitätskriterien, da vielleicht nichts so sehr das Selbstverständnis der Wissenschaften und auch ihre externe Anerkennung bestimmt wie die Ausbildung einer internen Qualitätssicherung die – trotz gelegentlicher Irrtümer – im Ganzen ausgezeichnet arbeitet. Dieser Punkt betrifft sowohl die externe Anerkennung der interdisziplinären Forschung als auch ihre Anerkennung seitens der – traditionell qualitätsgesicherten – disziplinären Forschung. Auf dem Sondierungsworkshop „Auf dem Weg zu interdisziplinären Methodologien. Forschungsstand und offene Fragen“ standen die wissenschaftstheoretisch und wissenschaftssoziologisch, aber auch in praktischer Hinsicht Seite 130 interessierenden Fragen der Methodologie und ihrer Konsequenzen für die Definition von Qualitätsmerkmalen im Mittelpunkt. Dies in doppelter Hinsicht (wobei auf dem Workshop die erstgenannte Perspektive im Vordergrund stand, was auch teils kritisiert wurde): - In wissenschaftstheoretischer Perspektive interessierten die Grundlagen der Geltung von Resultaten inter- und transdisziplinärer Forschung. Geltungsfragen disziplinärer Aussagen werden im Regelfall durch den Verweis auf die adäquate Verwendung anerkannter disziplinärer Methodik beantwortet. Wie sieht dies für inter- und transdisziplinäre Forschung aus? - In wissenschaftssoziologischer Perspektive wurde gefragt, wie sich die empirische Forschungspraxis im inter- und transdiziplinären Bereich darstellt, welche forschungsorganisatorischen und institutionellen Erfahrungen vorliegen und welche Qualitätsstandards in der Praxis implizite Anwendung finden. Das Ziel des Workshops bestand darin zu erkunden, inwieweit das Thema der in inter- und trandisziplinärer Forschung verwendeten Methoden und Verfahren einer eigenen Methodologie bedarf oder wenigstens eine solche zulässt. 2 Referate Jürgen Mittelstraß (Universität Konstanz; Vortragstitel „Methodische Transdisziplinarität“) setzte bei der Diagnose einer neuen Unübersichtlichkeit des Wissenschaftssystems an. Diese sei zum einen dem raschen Wachstum, aber auch der institutionellen und fachlichen Partikularisierung geschuldet. Sie liegt nicht in der Natur der Sache, sondern ist historisch kontingent. Fachübergreifende transdiziplinäre Strukturen (wie z.B. themenorientierte Zentren an Universitäten) seien punktuell erforderlich, um die Problemlösekapazität der Wissenschaften zu erhalten oder zu vergrößern sowie die Einheit der wissenschaftlichen Rationalität wiederherzustellen. Charakteristisch hierfür müsste sein, dass die Themen dieser Forschungsrichtungen wissenschaftsextern definiert sein müssten. Disziplinarität und Transdisziplinarität seien hierbei Idealformen, während die Forschungsrealität zumeist aus Mischformen bestehe. Disziplinen sind nach Mittelstraß notwendig, aber nicht Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE hinreichend zur Aufgabenerfüllung der Wissenschaften. Transdisziplinarität sei eine „Forschungsform“, das Problemwahrnehmung und Problemlösung anleitet und weit reichende institutionelle Folgen hat, jedoch keine eigene Methodologie und keine „Theorieform“. Methodische Transdisziplinarität zerfalle in praktische Transdisziplinarität (in der es auf kluge und effiziente Koordination von Forschung ankomme) und theoretische Transdisziplinarität, wenn es um die interne Weiterentwicklung der Disziplinen geht, z. B. an ihren Rändern. Das „Methodische“ an der Transdisziplinarität sieht Mittelstraß „in der argumentativen Erzeugung des Wissens“ über Disziplingrenzen hinweg. Dies sei schließlich unabdingbar, um Nachvollziehbarkeit und Transparenz zu ermöglichen. Gotthard Bechmann (ITAS; Vortragstitel „Gibt es eine interdisziplinäre Methodologie?“) deutete die Disziplinbildung als Konstitution einer Innen/Außen-Differenz, d. h. als eine funktionale Differenzierung gegenüber einer Disziplinumwelt. Der Behauptung, interdisziplinäre Forschung habe eine größere Realitätsnähe als disziplinäre, setzte er entgegen, dass interdisziplinäre Forschung wie die disziplinäre neben Wissen auch Nichtwissen produziert, allerdings ein anderes Wissen und Nichtwissen. Es komme darauf an, welche Wissen/Nichtwissen-Kombinationen für eine bestimmte Art der Problembearbeitung adäquat seien. Um dies zu beurteilen, müssten Problemkonstitution, Wissensproduktion, Handlungsorientierung, Wissenstransfer und die Folgenbeobachtung als Gesamtkomplex gesehen werden. Dabei seien methodologische Fragen nachrangig neben Fragen der Organisation und des Transfers von wissenschaftlich produziertem Wissen in praktische Handlungskontexte. Günter Ropohl (Universität Frankfurt, Vortragstitel „Allgemeine Systemtheorie als transdisziplinäre Integrationsmethode“) begann mit der Diagnose, in wissenschaftsphilosophischen und wissenschaftspolitischen Debatten sei bislang vernachlässigt worden, dass „Transdisziplin-Wissenschaften“ einem anderen Paradigma unterliegen als die Disziplin-Wissenschaften. Dies betreffe gleichermaßen die Definition der Probleme, die Sprache und Begrifflichkeit, die Denkmodelle, die Methoden und die Qualitätskriterien. Da nach Ropohl die Probleme in einer transdisziplinären Wissenschaft nicht ana- lytisch, sondern synthetisch verstanden werden, seien dementsprechend statt der analytischen vor allem synthetische Methoden angezeigt. Hierzu nannte Ropohl einige Methoden, die abseits der klassischen disziplinären Methoden stehen wie z. B. die Szenario-Methode. Als synthetische Methoden seien die pragmatische Situationsmodellierung der Allgemeinen Systemtheorie und ihre zahlreichen Konkretisierungen – wie etwa die Modelle soziotechnischer Systeme – hervorragende Ansätze zur synthetischen Bewältigung der komplexen Probleme in Weltdeutung und Weltgestaltung. Transdisziplinarität finde letztlich ihren theoretischen Ort in einer synthetischen Philosophie. In Gegensatz zu Mittelstraß und Bechmann sah Ropohl damit einen klaren Bedarf an inter- und transdisziplinärer (vielleicht auch a-disziplinärer) Methodik sowie erste Ansätze der wissenschaftlichen Entsprechung dieses Bedeafs. Peter Euler (TU Darmstadt, Vortragstitel „Interdisziplinarität als ‚Bildungsprinzip’ der Forschung: methodologische Konsequenzen“) begriff Interdisziplinarität in der Tradition kritischer Bildungstheorie als Reaktion auf die Zerrissenheit der Wissenschaften sowie die negativen Folgen von Wissenschaft und Technik, die im 20. Jahrhundert unübersehbar und auch zum Politikon wurden. Interdisziplinarität in dieser Perspektive sei der Ort kritischer Auseinandersetzung um die den gegenwärtigen gesellschaftlichen und zivilisatorischen Verhältnissen angemessene Form der Forschung. Interdisziplinarität werde damit sowohl zur Wundstelle als auch zum Ansatzpunkt der ReVision unserer Wissenschaftsverfassung. Euler sieht methodologische Konsequenzen dieses kritischen Verständnisses von Interdisziplinarität deshalb, weil die Generierung von Methoden entscheidend ist, wenn interdisziplinäre Forschung bewusst disziplinäre Engführungen überwinden will. Im Sinne einer „Resozialisierung der Wissenschaften“ gehe es um „reflektierte Sachkompetenz“ statt um isoliertes Expertentum und enggeführte „Fachkompetenz“. Interdisziplinarität sei, in reflexiver Wendung, entscheidend zur Erreichung einer „guten“ Disziplinarität und zum Verstehen des eigenen Faches, was dann auch entsprechenden Reflexionsbedarf hinsichtlich der disziplinären Methodologie nach sich ziehe. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 131 TAGUNGSBERICHTE Paul Burger (Universität Basel, Vortragstitel „Kognitive Aufgaben in transdisziplinären Wissenschaftspraktiken und ihre methodologischen Implikationen“) fokussierte auf transdisziplinäre Wissenschaftspraktiken im Bereich der sustainability science. Nachhaltige Entwicklung ist ein neues, internationales Entwicklungsleitbild und benennt eine gesellschaftliche wie auch wissenschaftliche Querschnittsaufgabe. Von Forschung werde in diesem Bereich mehr erwartet als das Beschreiben und Erklären des IstZustands. Gefragt seien darüber hinaus Diagnosen (z. B. im Hinblick auf Nachhaltigkeitsdefizite), Zielevaluationen (z. B. Prioritätensetzungen) und die Erarbeitung und Bewertung von Maßnahmen (z. B. durch Effizienzanalyse) mit Blick auf rationale Entscheidungsgrundlagen. Ausgehend von einer handlungstheoretischen Grundstruktur argumentierte Burger, dass die Erreichung dieser Ziele aus systematischen Gründen sowohl eine Zusammenarbeit von Natur- und Sozialwissenschaften als auch den Einbezug gesellschaftlicher Akteure verlangt. Methodisch klares Vorgehen sei unverzichtbar, um Nachvollziehbarkeit und Transparenz wissenschaftlich zu sichern und nach außen dokumentieren zu können. Z. B. mittels der Szenariotechnik könnten Teilergebnisse systematisch und produktiv integriert werden. Die Weiterentwicklung und Ausweisung interdisziplinärer Methodologien sei dringend erforderlich, um interdisziplinäre Institutionen in ihren wissenschaftlichen Handlungen zu stärken. Burger betonte, dass in der Praxis der inter- und transdisziplinären Forschung vieles bereits etabliert sei bzw. getestet werde, so dass theoretische Reflexion sich stärker auf bereits vorliegende Erfahrungen stützen könnte, als dies zumeist geschieht. Rudolf Wille (TU Darmstadt, Vortragstitel „Allgemeine Wissenschaft als transdisziplinäre Methodologie?“) fokussierte auf die Disziplinen und ihre jeweilige Disziplinarität. Es sind die Defizite der Disziplinen, ihre Isolierung untereinander und von der Gesellschaft, die zu einem wissenschaftlichen wie auch gleichermaßen gesellschaftlichen Problem geworden sind. Unter Rekurs auf den Pädagogen Hartmut v. Hentig führte Wille den Topos der Allgemeinen Wissenschaft und der „guten Disziplinarität“ in die Diskussion ein. Zu dieser, die „allgemeiner Teil“ jeder einzelwissenschaftlichen Disziplin sein sollte, gehören alle Bemühungen, Wissen- Seite 132 schaft offen zu legen und allgemein zugänglich zu machen, damit sich die Allgemeinheit insbesondere mit möglichen Bedingungen, Folgen und Auswirkungen wissenschaftlichen Tuns auseinandersetzen kann. Für eine Disziplin heißt das, ihre jeweiligen Zwecke, Mittel (d. h. eben auch Methoden), Erkenntnisse und Folgen transdisziplinär zu vermitteln und damit den öffentlichen Diskurs über die Disziplin zu fördern. Am Beispiel der von Wille entwickelten mathematischen Methode der formalen Begriffsanalyse erläuterte Wille sein Konzept der „guten Disziplinarität“ sowie die Probleme der allgemeinen, d. h. der inter- und transdisziplinären Verständigung über unterschiedliche Begriffe und Semantiken bis hin zu disziplinär verschiedenen Weltverständnissen und die Möglichkeiten ihrer Überwindung. „Gute Disziplinarität“ umfasst einen allgemeinen, nicht abziehbaren Anteil transdisziplinärer Methodologien. Gertrude Hirsch Hadorn (ETH Zürich, Vortragstitel „Anforderungen an eine Methodologie problemorientierter Forschung“) setzte an dem gängigen Verständnis an, dass wissenschaftliche Forschung an Methoden gebunden ist, um den Geltungsanspruch ihres Wissens begründen und für andere einsichtig machen zu können. Sie stellte dann die zentrale Frage, ob es in der transdisziplinären Forschung, die häufig als „problemorientierte Forschung“ bezeichnet wird, analoge Referenzsysteme für methodische Anforderungen wie die Disziplin oder scientific community gibt, welche auf entsprechende Standards in einer Fachsprache zurückgreifen können. Sie zeigte, dass sich interdisziplinäre Projekte auf mehreren Sprachebenen bewegen und dass die häufig erhobene Forderung nach einer gemeinsamen Sprache nicht den Kern der Sache trifft. Vielmehr bestehe die Anforderung darin, die Kompetenz zu erwerben, die anderen im Projekt relevanten Sprachen zu verstehen und ineinander zu übersetzen. Dabei können sich Sprachen verändern und neue Fachsprachen entstehen. Mathias Gutmann (Universität Marburg, Vortragstitel „Methoden und Gegenstandskonstitution – Zum Problem der Disziplinarität“) konstatierte, dass derjenige, der von „Interdisziplinarität“ spricht, zunächst „Disziplinarität“ in den Blick nehmen müsse. Die Rede von der „Disziplin“ bleibt jedoch eigentümlich unbestimmt. In der methodischen Ordnung bedürften Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE die Geltungskriterien des inter- oder transdisziplinären Wissens vorgängig einer Rekonstruktion von Geltungsbedingungen disziplinären Wissens. Er stellte die Frage, ob denn Disziplinen „existieren“ oder ob sie nicht nur Resultate einer bestimmten Beschreibung wissenschaftlichen Arbeitens seien. Am Beispiel der Biologie demonstrierte Gutmann, dass man von einer spezifisch biologischen Methodik kaum reden könne. Vielmehr nutze der Biologe zum großen Teil chemische oder physikalische Methoden, ohne dabei zum Chemiker oder zum Physiker zu werden. Die Beschreibung biologischer Forschung als Biologie verdanke sich daher nicht einfach dem Einsatz von Methodik, sondern Disziplinarität sei als Reflexionsbegriff zu verstehen und Disziplinen seien das Ergebnis von spezifischen Betrachtungsperspektiven. Die Unterscheidung disziplinär/interdisziplinär sei eine Unterscheidung entlang der Forschungspraxis, wie sie sich historisch entwickelt habe. 3 Perspektiven Diese Vorträge und die ausgesprochen anregenden Diskussionen konnten selbstverständlich die aufgeworfenen Fragen nicht abschließend klären. Dennoch können eine Reihe von konvergenten Einschätzungen gewonnen werden: 1. Das Methodenverständnis der Wissenschaften muss erweitert werden, wenn man auch in inter- und transdiziplinärer Forschung von Methodologie sprechen will. Als Ausgangspunkt unbestritten ist, dass methodische Transdisziplinarität (Mittelstraß) ihren Kernpunkt darin hat, dass sie argumentativ erzeugtes Wissen ist. Dies ist unverzichtbar, wenn der Anspruch erhalten bleibt, auch im interdisziplinären Bereich Wissen von bloßem Meinen unterscheiden zu können – und alles andere wäre eine Selbstaufgabe der Wissenschaften. Das enge Methodenverständnis klassischer Disziplinen (z. B. eine Unterscheidung wahr/falsch zu erlauben) greift aber nicht mehr unbedingt. „Weichere“ argumentative Einschätzungen müssen Berücksichtigung finden können. Für die Durchführung von Argumentationen sind nun aber Effizienzstrategien (wie Regeln, prädeliberative Einverständnisse, etc.) erforderlich, denn es kann nicht immer alles in Frage stehen. Zielgerichtete Argumentation benötigt eine Ausgangsbasis und Regeln zur Abkürzung von Kommunikation. Inter- und transdisziplinäre Methoden könnten – und so wäre der Widerspruch zwischen den Positionen „es gibt keine interdisziplinäre Methodologie“ (Mittelstraß, Bechmann, Gutmann) und „es gibt eine oder sollte eine geben“ (Ropohl, Euler, Burger, Hirsch) aufzulösen – gerade darin bestehen, dass sie zur Effizienzsteigerung der inter- und transdisziplinären Kommunikation und Forschung dienen (Beispiel Szenariotechnik). Man kann dann nicht mehr über wahr/falsch oder über beste Methoden sprechen, wohl aber Leistungen und Grenzen betrachten. 2. Inter- und transdisziplinäre Forschung lässt die Disziplinen nicht unberührt. Methodische Rückwirkungen auf die Disziplinen und auf das Disziplinverständnis treten hervor. Der Ort der Transdiziplinarität liegt (auch) innerhalb der Disziplinen. Dort sind – methodisch, inhaltlich und organisatorisch – bestimmte Voraussetzungen zu schaffen, um transdisziplinäre Forschung zu ermöglichen. Interdisziplinarität ist als Teil einer „guten“ Disziplinarität zu verstehen (Euler, Wille, Gutmann). 3. Die entscheidende Frage nach den Bedingungen der Möglichkeit von interdisziplinären Methodologien ist diejenige nach der jeweiligen (disziplinären) Sprache. Sprachen prägen Weltzugänge, Problemkonstitutionen und Wirklichkeitskonstruktionen. Anforderungen an interdisziplinäre Forschungspraxen liegt in der adäquaten „Übersetzung“, nicht nur einzelner Begriffe, sondern auch der Semantiken und der damit verbundenen Weltkonstruktionen (Hirsch, Gutmann). Interdisziplinarität erscheint aus dieser Perspektive auch als ein Kommunikations- und Sozialisationsproblem (Euler, Wille), das eine emanzipatorische Funktion aufweist. 4. Ausgangspunkt und Motiv, über interdisziplinäre Methodologien nachzudenken, liegen in einer Wahrnehmung einer Diskrepanz, nämlich dass vielfach Forschung betrieben wird, die sich einerseits als „interdisziplinär“ bezeichnet. Andererseits vermag sie nicht auszuweisen, was das Spezifikum an Interdisziplinarität ist. Hieran schließt sich wissenschaftstheoretischer Systematisierungsbedarf an. Auch wenn unterschiedliche Ant- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 133 TAGUNGSBERICHTE worten gegeben worden, waren sich alle Vortragen in dieser Analyse einig. 5. Ein weiterer Workshop sollte: - die Klärungsziele konkreter festlegen und insbesondere die Frage in den Blick nehmen, was unter einer „Methodologie“ verstanden werden kann und welche Leistungsanforderungen an sie zu stellen ist - den empirischen Hintergrund deutlicher machen und Fallbeispiele mit berücksichtigen (vorhandene Erfahrungen stärker aufnehmen) - die Traditionen der theoretischen und praktischen Befassung mit Inter- und Transdisziplinarität aufarbeiten - die Mischung aus (normativer) Theorie und (empirischer) Praxis rekonstruieren. Mittelfristiges Ziel ist die Etablierung eines Kompetenzzentrums zur „Interdisziplinaritätsforschung“ bzw. zur „Methodologie von Interdisziplinarität“. Ein erstes Netzwerk, das durch eine Art „verlängerte Rheinschiene“ (Zürich, Basel, Karlsruhe, Darmstadt, Marburg) dargestellt wird, befindet sich im Aufbau. Es ist offen für alle interessierte Wissenschaftlerinnen und Wissenschaftler, insbesondere jene der Interdisziplinären Technikforschung, der Technikfolgenabschätzung sowie der Wissenschafts- und Technikphilosophie. Ein Kern liegt darin, die Erfahrungen in Theorie und Praxis zu vermitteln und hinsichtlich möglicher zukünftiger Evaluierungen interdisziplinärer Forschungsprojekte auszuloten. Eine zukünftige Aufgabe einer „Interdisziplinaritätsforschung“ liegt in der Entwicklung einer Methodologie erfolgreicher interdisziplinärer Forschungsprojekte. » nanoDE – Factors for Success Wiesbaden, 21. - 24. Juni 2004 Tagungsbericht von Gerd Bachmann, Zukünftige Technologien Consulting der VDI TZ GmbH, Düsseldorf Von 21. bis 24. Juni 2004 fand im Kurhaus in Wiesbaden die Internationale Konferenz zu nanostrukturierten Materialien „Nano2004“ statt. Sie wurde von ca. 1100 Teilnehmern be- Seite 134 sucht, mehr als 230 Vorträge und 450 Poster wurden präsentiert sowie 30 Aussteller waren anwesend. Die Nachricht von den Möglichkeiten, die die Nanotechnologie bietet, unser Leben künftig angenehmer, gesünder und sicherer zu machen und ebenso die Innovationskraft, die aus dem Nanokosmos kommt und Arbeitsplätze schaffen wird, hat in vielen Anwendungsbereichen bereits die Universitäten und Institute verlassen und die Öffentlichkeit erreicht. Die Teilnehmer der „Nano2004“ waren deshalb neben weltbedeutenden Wissenschaftlern auf diesem Gebiet hochrangige Vertreter der Industrie, der Venture Capital-Firmen, der Start-ups wie auch die allgemeine Öffentlichkeit, welche den ebenfalls bereitstehenden NanoTruck besuchen konnte. Erstmals gab es auch einen Gemeinschaftsstand der 9 BMBF Kompetenzzentren und der VDI Technologiezentrum GmbH, welcher die internationale Community zur Situation der Nanotechnologie in Deutschland auf der ganzen technologischen und infrastrukturellen Breite informierte. In das Programm integriert war die BMBFVeranstaltung „nanoDE“, die in diesem Jahr den Untertitel „Factors for Success“ trug. Gemeint war damit letztlich die Transformation der Nanowissenschaft in Nanotechnologie und deren Transformation in neue Produkte, neue Arbeitsplätze, schließlich in Geld. Die Inhalte der „nanoDE“ waren darum vornehmlich auf diesbezügliche strategische Fragestellungen ausgerichtet, wohingegen die Vorträge der „Nano2004“ den wissenschaftlichen Teil der beiden sich ergänzenden Veranstaltungen bildeten. Ziel der „nanoDE“ war es, die für eine erfolgreiche Umsetzung von Ideen in Produkte wichtigen Faktoren herauszuarbeiten und zu diskutieren. So wurden verschiedene Förderansätze zur Generierung von Erkenntnissen für kommerzielle Produkte und die damit verbundenen Interessen der diversen Förderorganisationen, die Bedeutung von regionalen Netzwerken und innovativen Geschäftsmodellen von Start-ups sowie die notwendige Zusammenarbeit der Akteure entlang der Wertschöpfungskette diskutiert. Hinzu kamen zwei Podiumsdiskussionen zum internationalen Vergleich von Förder- und Umsetzungsstrategien sowie zu Chancen und Risiken verschiedener Nanotechnologie-Linien. Dem letzten Thema war auch ein ganzer Vortragsteil der Nano2004 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE gewidmet, welcher toxikologische Effekte, arbeitsmedizinische Fragen und Umweltaspekte explizit ansprach. Auf der Podiumsdiskussion zu Chancen und Risiken verschiedener NanotechnologieLinien wurden die Standpunkte von den Referenten sachlich vertreten. Der Vertreter von Greenpeace (D. Parr) forderte nicht – wie andere NGO an anderer Stelle – ein generelles Moratorium für die Herstellung nanotechnologischer Produkte, sondern empfahl verstärkte Untersuchungen in solchen Bereichen, welche dispergierende Nanomaterialien nutzen. Diese zukünftig notwendige Begleitforschung wurde ebenfalls von den anwesenden Vertretern aus Industrie und Politik angeregt. M.C. Roco (NSF) führte an, dass kurzfristig ein hypeartiges Verhalten der Investoren und auch der Presse zu erkennen sei, aber langfristig die Nanotechnologie doch eine immense technologische Chance darstelle. „Overhyping“ wurde speziell von A. Gutsch (Degussa) als gefährlich für die letztendliche Verwertung der Ergebnisse eingeschätzt. Daher sei eine offene Informationspolitik aller Beteiligten anzuraten. Absehbare Risiken müssten adressiert werden, wobei nicht nur die direkten der Toxizität von Partikeln, sondern auch die möglichen gesellschaftlichen Veränderungen, welche sich evolutionär einschleichen könnten, eine Rolle spielen sollten. Bei der Diskussion der möglichen Implikationen sollte vom Problem kommend diskutiert werden, nicht generell von den technologischen Möglichkeiten aus. Auch die Frage des Risikos, falls man etwaige Risiken als Nation nicht auf sich nehmen wollte, wurde gestellt. Beim Vergleich der verschiedenen internationalen Förder- und Umsetzungsstrategien konnten nur im Bereich Öffentlichkeitsarbeit und bzgl. erforderlicher Reaktionen auf Interessensgemeinschaften zum Stopp nanotechnologischer Arbeiten erhebliche Unterschiede festgestellt werden. Im asiatischen Raum sind derzeit kaum ethisch und soziologisch begründete Hindernisse für die Nanotechnologie festzustellen. Ansonsten werden weltweit wohl ähnliche Fragestellungen (Erkenntnisgewinn, Umsetzungsgeschwindigkeit für die Produktgenerierung, Ausbildungsfragen, Langfristmärkte, Infrastrukturen, Kooperationsformen) bei der F&E-Förderung im Nanotechnologiebereich adressiert, jedoch mit unterschiedlicher Gewichtung und Strategie. Ob die Grundlagenerarbeitung in den USA, die Industriekooperation in Europa oder die firmeninterne Forschung in Japan die erfolgreichere Strategie darstellen, wird sich wohl erst in der Zukunft zeigen. Insgesamt hat sich die strategische Diskussion von Wertschöpfungsketten bei der nanoDE als eine wichtige Informationsplattform neben den wissenschaftlichen Präsentationen erwiesen. Für weitere Informationen siehe http://www.nanoDE.de sowie http://www.nano2004.org. « Raum für Nachhaltigkeit. Zur Kontextualisierung des Leitbilds Leipzig, 17. - 18. Juni 2004 Tagungsbericht von Dieter Rink, Umweltforschungszentrum Leipzig-Halle Nachhaltigkeit hat Konjunktur, möchte man angesichts der Allgegenwart des Leitbilds in Politik und Gesellschaft meinen. Fragt man die jeweiligen Akteure jedoch nach ihrem Verständnis von Nachhaltigkeit, dann ergibt sich ein reichlich dissonantes Bild. Und soll das Leitbild gar als Richtschnur für politisches Handeln dienen, dann wird klar, dass dieses „hehre Ziel“ erst einmal für den jeweiligen Anwendungszusammenhang ausbuchstabiert und übersetzt werden muss, ehe an eine Nachhaltigkeits-orientierte Politik auch nur zu denken ist. Eine bedeutende Rolle bei der Anpassung des Leitbilds an konkrete räumliche, zeitliche, soziale und politische Gegebenheiten kann die Entwicklung und Anwendung regionaler und kommunaler Berichtssysteme spielen: Die Fokussierung auf einen bestimmten Analyseraum und die Kooperation von Wissenschaft mit Politik und Verwaltung erzwingen förmlich die Konkretisierung und Kontextualisierung von Nachhaltigkeitszielen. Das BMBF hat vor drei Jahren einen Förderschwerpunkt eingerichtet, der die Erarbeitung und Implementierung von Berichtssyste- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 135 TAGUNGSBERICHTE men unter dem Leitbild der Nachhaltigkeit für die regionale und kommunale Ebene zum Ziel hat. Die Tagung „Raum für Nachhaltigkeit. Zur Kontextualisierung des Leitbilds“ vom 17. - 18. Juni 2004 am Umweltforschungszentrum Leipzig-Halle (UFZ) widmete sich den Erfahrungen, die bei der Kontextualisierung von Nachhaltigkeit im Förderschwerpunkt „Konzeption und Erprobung problemorientierter regionale Berichtssysteme für eine nachhaltige Entwicklung“ (RBS) des BMBF bislang gesammelt wurden. Mit der Implementierung in Politik und Verwaltung und der Frage nach möglichen Steuerungswirkungen thematisierte sie zudem die politische Relevanz von Berichtssystemen. Ein weiteres Ziel der Tagung war die Einbettung der Projekte des Förderschwerpunktes in den deutschen Nachhaltigkeitsdiskurs. 1 Konzepte und Verständnisse von Nachhaltigkeit Die Tagung gliederte sich in drei thematische Blöcke, die jeweils durch Impulsreferate von eingeladenen Experten eröffnet wurden. Im ersten Block ging es um Konzepte und Verständnisse von Nachhaltigkeit. Hier wurden die dominanten Konzepte der deutschen Nachhaltigkeitsdebatte mit den Nachhaltigkeitsverständnissen der RBS-Projekte und denen kommunaler Akteure kontrastiert. Juliane Jörissen (Forschungszentrum Karlsruhe, ITAS) widmete sich in ihrem Impulsreferat den bekannten deutschen „Konzepten von Nachhaltigkeit“ und versuchte, Grundlinien der Debatte nachzuzeichnen. Die deutsche Debatte zeige im Zeitverlauf den Trend zu zunehmender Komplexität. Dabei ließe sich folgende Entwicklung erkennen: Ausgangspunkt seien Ein-Säulen-Modelle gewesen (wie sie den Studien des Wuppertal-Instituts oder des Umweltbundesamtes zugrunde lagen), die den Vorrang von ökologischen Belangen postulierten. Dann seien Drei-Säulen-Modelle entwickelt worden, die eine Gleichrangigkeit von ökologischen, sozialen und ökonomischen Belangen vertreten (wie z. B. der Bericht der Enquete-Kommission „Schutz des Menschen und der Umwelt“ sowie die Studie „Arbeit und Ökologie“). Schließlich seien komplexe Konzepte ausgearbeitet worden, die dimensionsübergreifende Ziele formulierten und diesen Mindestanforderungen zuordneten. Seite 136 Beispiele dafür seien die Nationale Nachhaltigkeitsstrategie der Bundesregierung und das Integrative Nachhaltigkeitskonzept der HelmholtzGemeinschaft (HGF). Man müsse jedoch sagen, so Jörissen, dass sich das Drei-Säulen-Modell in der deutschen Öffentlichkeit durchgesetzt habe und es schwer sei, andersartige Konzepte zu platzieren. In der Kritik an Nachhaltigkeitskonzepten würden folgende Punkte dominieren: deren Hyperkomplexität, die Verwässerung klarer Positionen, die Unterteilung in Dimensionen bzw. Säulen und die Ausrichtung an einzelnen Wissenschaftsdisziplinen (z. B. Ökologie, Ökonomie). Juliane Jörissen betonte, dass Nachhaltigkeit kein mehrdimensionaler Wunschzettel sei, sondern ein normatives Leitbild. Die Verbindung zwischen den globalen Normen und den jeweiligen örtlichen Verhältnissen müsse hergestellt werden, denn erst durch die Einbindung eines Teilraumes bzw. einer Region in den globalen Kontext werde ein Konzept zu einem Nachhaltigkeitskonzept. Katja Huber und Dieter Rink (beide Umweltforschungszentrum Leipzig-Halle) stellten sodann in ihren Beiträgen die Nachhaltigkeitsverständnisse der RBS-Projekte sowie die ihrer Praxispartner vor, wobei sie sich auf eine Umfrage unter den Projekten des Förderschwerpunkts im Jahr 2003 bezogen. Hier zeige sich zwar auch das Bild der deutschen Debatte (wie von Jörissen skizziert), aber auch andere Konzepte. Überwiegend beziehe man sich auf gebräuchliche Nachhaltigkeitskonzepte, am ehesten Säulenkonzepte oder Kombinationen verschiedener Ansätze, führte Katja Huber aus, integrative Konzepte seien dagegen sehr selten. Bei der Rezeption des Leitbilds der Nachhaltigkeit bei den kommunalen Praxispartnern würden Skepsis und Ablehnung sowie Unbestimmtheit und Unsicherheit überwiegen, so Dieter Rink. Hinzu kämen Fragen nach dem Nutzen bzw. der Funktion des Leitbilds für die kommunale Praxis und es würden Schwierigkeiten gesehen, dies in den kommunalen Kontext einzuordnen. Auch bei den Praxispartnern dominierten Drei- bzw. Vier-Säulen-Konzepte. Auf der kommunalpolitischen Ebene werde Nachhaltigkeit dezidiert wirtschafts- bzw. arbeitsmarktpolitisch interpretiert und häufig recht plakativ verwendet: Als nachhaltig werde hier alles angesehen, was dauerhaft Arbeitsplätze schaffe. Daneben gebe es auf der Ver- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE waltungsebene ressortspezifische Zugänge, die zum Teil in Widerspruch zum kommunalpolitischen Verständnis stünden. Das entscheidende Defizit verortete Rink in der fehlenden Einbindung des Leitbilds Nachhaltigkeit in kommunale Leitbilder, Pläne und Beschlüsse. Hier sah er auch eine Aufgabe für die weitere wissenschaftliche Bearbeitung des Themas: es müsste geklärt werden, wie die Kommune Nachhaltigkeit in ihr Handeln implementieren könne. 2 Kontextualisierung von Nachhaltigkeit Im zweiten Block „Kontextualisierung von Nachhaltigkeit“ sollten die Möglichkeiten der Kontextualisierung von Nachhaltigkeit mit den Strategien konfrontiert werden, die in den Projekten des Förderschwerpunkts zur Anwendung kommen. Thomas Döring (Universität Kassel) und Stefan Heiland (Institut für Ökologische Raumentwicklung Dresden) gingen in ihrem Impulsreferat „Strategien der Kontextualisierung von Nachhaltigkeit“ auf die Potenziale von Nachhaltigkeitsindikatorensystemen ein. Dabei wiesen sie eingangs auf die Vielzahl von Kontextualisierungsdimensionen hin, wie z. B. Probleme, Themen, Ziele, Akteursgruppen oder Instrumente. Den Hintergrund ihrer Präsentation bildete eine eigene, im Auftrag des Umweltbundesamtes durchgeführte Studie zur vergleichenden Analyse von Nachhaltigkeitsindikatorensystemen auf kommunaler und regionaler Ebene. Ein wesentliches Ergebnis des Vergleichs sei, dass es viele Gemeinsamkeiten zwischen den Systemen gebe: Die Systeme seien häufig am Nachhaltigkeitsverständnis der Lokalen Agenda 21 ausgerichtet, die praktische Anwendbarkeit werde betont und die gleichen bzw. ähnliche Zielgruppen angesprochen (Politik, Verwaltung und Öffentlichkeit). Ziel sei meist nicht die konsequente bzw. konsistente Umsetzung eines Konzepts, sondern Information und Bewusstseinsbildung. Zudem sei die Indikatorenauswahl weitgehend an der Datenverfügbarkeit orientiert. Unterschiede bestünden in der Gliederung der Systeme, in den behandelten Themenbereichen und der Zahl der Indikatoren, aber auch im Umfang der Partizipation von Bürgern und gesellschaftlichen Gruppen sowie der inhaltlichen Verknüpfung der Daten. Dessen ungeachtet gebe es eine große Heterogenität der lokalen Nachhaltigkeitsindikatorensysteme, was die beiden Autoren als Zeichen für eine starke Kontextualisierung deuteten. Der lokale Bezug werde bei der Entwicklung und beim Einsatz der Systeme betont, was auch zur Vernachlässigung konzeptioneller zugunsten pragmatischer Überlegungen führe. Die Auswertung der Themenfelder zeige, dass die Themen „Ökologie“ und „Soziales“ weit vor dem Thema „Wirtschaft“ rangierten und es insbesondere eine Ökologielastigkeit der Indikatoren gebe, die die ersten zehn Plätze belegen. Kommunale Nachhaltigkeitsindikatorensysteme würden – so ihr Fazit – kaum genutzt. Wenn dann erfüllten sie in erster Linie eine Informationsfunktion und auch diese vorrangig für die Lokale Agenda. Die Nutzung für die politische Steuerung sei dagegen äußerst selten und sei vor allem nicht institutionalisiert. Die Ursachen für die geringe Nutzung lägen generell im Desinteresse am Thema Nachhaltigkeit und Nachhaltigkeitsindikatorensystemen, an ressortbezogenen Denk- und Verhaltensweisen, aber auch an Kapazitäts- und Finanzproblemen. Hinzu komme der umfassende Anspruch des Nachhaltigkeitspostulats, der mit dem fehlenden Bezug zum kommunalen Kontext kontrastiere. Die Indikatorensysteme seien zu unspezifisch für bestimmte Akteure und Funktionen. Außerdem sei auch die Frage der Anschlussfähigkeit der lokalen/regionalen Ebene an die übergeordnete (nationale) Ebene nicht geklärt. Im Anschluss stellte Wibke Glismann (Universität Hamburg) das Projekt „Gesundheit als integrierendes Leitziel in der Konzeption und Erprobung eines regionalen Berichtssystems nachhaltiger Entwicklung“ vor. Hier werden in Kooperation mit 10 Städten in Ostdeutschland Berichtssysteme für die Bereiche Gesundheit, Soziales und Umwelt entwickelt. In Orientierung am Nachhaltigkeitspostulat des Brundtland-Berichts sollen unter Einbeziehung lokaler Agenda-Aktivitäten die genannten Themenbereiche vor einem gesundheitswissenschaftlichen Hintergrund integriert werden. Das Projekt folge dabei, so Glismann, einer pragmatischen Vorgehensweise im Hinblick auf die Auswahl von Indikatoren. Unter Rückgriff auf bereits vorhandene Indikatorensätze würde in einem Diskussionsprozess mit den beteiligten Städten ein Kernindikatorensatz von 35 Indikatoren nebst entsprechenden Zielbestimmungen benannt. Wibke Glismann zeigte sich optimistisch, dass es mit Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 137 TAGUNGSBERICHTE dem Projekt gelingen werde, das Thema „Gesundheit“ erfolgreich mit der Nachhaltigkeitsberichterstattung zu verknüpfen. Antonina Bieszcz-Kaiser und Erhard Schreiber (Institut für Wirtschafts- und Sozialforschung Chemnitz e.V.) bezogen sich in ihrem Beitrag auf das Projekt „Konzeption und Erprobung eines Berichtssystems zur Beobachtung und Beschreibung von neuartigen Entwicklungen bei Beschäftigungsmaßnahmen auf der kommunalen Ebene unter dem Leitbild einer nachhaltigen Entwicklung“. Sie gingen der Frage nach, welchen Beitrag öffentlich geförderte Beschäftigung zu nachhaltiger kommunaler Entwicklung leistet. Ziel des Projekts sei die Erarbeitung eines Beobachtungs- und Berichtssystems als ein Instrument für die kommunalen Akteure, das ihnen hilft, „eine sowohl der regionalen Arbeitsmarktlage noch adäquatere als auch nachhaltige kommunale Entwicklung befördernde Struktur der zum Einsatz kommenden arbeitsmarktpolitischen Instrumente zu bestimmen“. Es ginge darum, die Effektivität von Beschäftigungsmaßnahmen in diesem Sinne wesentlich zu erhöhen. Beschäftigungsmaßnahmen sollten nachhaltig dazu beitragen, das Arbeitsplatzdefizit zu verringern, die Beschäftigungsfähigkeit zu erhöhen und Zukunftsperspektiven zu eröffnen. Über die Reaktivierung brachliegenden Arbeitskräftepotenzials sollten wichtige kommunale bzw. regionale Aufgaben bearbeitet werden. Hierbei gelte es, ökologische, ökonomische und soziale Aspekte integrativ zu behandeln. Die Kommunen sollten mit dem Berichtssystem ein Instrument erhalten, das es ihnen gestatte, die Nachhaltigkeit von Beschäftigungsmaßnahmen zu bewerten. In seinem Vortrag „Kommunale Problemfelder als Nachhaltigkeits-Kontext“ umriss Gerhard Hartmuth (Umweltforschungszentrum Leipzig-Halle) die Kontextualisierungsstrategie des Projekts. Er charakterisierte die Ausgangslage bei der Entwicklung eines kommunalen Nachhaltigkeitsindikatorensystems als Akzeptanz- und Vermittlungsproblem. Die Haltung in der Verwaltung lasse sich pointiert in dem Satz zusammenfassen: „Wir haben hier eigentlich andere Probleme“. Daher seien die Operationalisierung und Kontextualisierung des Leitbilds im Sinne einer Anpassung an die lokalen Bedingungen zentrale Anforderungen. Im Projekt werde die Kontextualisierung über die Formu- Seite 138 lierung der vordringlichsten kommunalen Problemfelder geleistet. Diese würden mit den Nachhaltigkeitszielen eines integrativen Nachhaltigkeitskonzepts (des HGF-Konzepts; vgl. den Beitrag von Juliane Jörissen) verknüpft, bevor an der Schnittstelle von Problemfeldern und Nachhaltigkeitszielen Indikatoren identifiziert werden. Das integrative Nachhaltigkeitskonzept habe sich als Erfassungsraster und Bewertungsmaßstab für kommunale Probleme geeignet und so die Relevanz des Leitbilds für kommunale Problemfelder aufgezeigt. Dies habe zu einem umfassenderen Verständnis für Nachhaltigkeit bei den beteiligten kommunalen Akteuren geführt und die Akzeptanz des Leitbilds gestärkt. Eine Schwachstelle des Projekts sei die mangelnde Berücksichtigung aller kommunalen Handlungsfelder. Da die Methode zwangsläufig die Partizipation kommunaler Praxispartner beschränke, spiegelten sich die spezifischen Problemsichten einzelner Ämter bzw. Verwaltungsbereiche stärker wider als die anderer. Unterschiedliche Vorstellungen gäbe es bei der Gewichtung der Problemfelder. Die Praxispartner forderten die Priorisierung der Problemfelder entsprechend ihrer politischen Relevanz, die Wissenschaftler favorisierten dagegen deren Gleichbehandlung. Am Beispiel der Region Mecklenburgische Seenplatte stellte Johann Käther (Fachhochschule Neubrandenburg) in seinem Vortrag „Nachhaltigkeitsindikatoren von unten“ die Frage, ob diese einen Beitrag zur regionalen Kontextualisierung von Nachhaltigkeit leisten können. Der Aufbau und die Etablierung von regionalen bzw. lokalen Nachhaltigkeitsberichtssystemen sei insbesondere mit dem Problem konfrontiert, was nachhaltige Entwicklung auf dieser Ebene bedeuten könne. Es mangele an der Anpassung des Leitbilds an die regionale Ebene und der Implementierung von Nachhaltigkeitsindikatorensystemen als Monitoring- und Steuerungsinstrument. Im Projekt „Freiwillige Selbstkontrolle Nachhaltigkeit“ werde Kontextualisierung durch die Problemorientierung (Einbeziehung lokaler bzw. regionaler Aspekte), die Akteursorientierung (Einbeziehung von Praxispartnern) sowie die Verknüpfung von Politik- bzw. Handlungsfeldern erreicht. Die Probleme der Kontextualisierung lägen etwa in den unterschiedlichen Nachhaltigkeitsverständnissen der Akteure, der Begrenztheit des Indika- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE torensatzes sowie den Defiziten bei der Verfügbarkeit. Außerdem gebe es unterschiedliche Bewertungsmaßstäbe und die Indikatoren seien das Ergebnis politischer Aushandlungsprozesse. Dadurch würden nur geringe Steuerungswirkungen entfaltet, die möglicherweise nicht überzeugend sind für eine dauerhafte Implementierung und Nutzung von Berichtssystemen. Pamela Dorsch und Frauke Hoffmann (Technische Universität Berlin) präsentierten das Projekt „Nachhaltiger Tourismus in der Prignitz – Ein Informationssystem“. Im Projekt werde mit einem „projektbezogenen Grundverständnis“ von Nachhaltigkeit gearbeitet, das sich auf die drei Dimensionen „Ökologie“, „Ökonomie“ und „Soziales“ (plus „Institutionelles“) beziehe. Die Kontextualisierung erfolge durch die Beteiligung der Akteure an allen Entwicklungsschritten: an der Stärken-SchwächenAnalyse des regionalen Tourismus und an der Analyse von Akteurskonstellationen. Daraus werde ein Zielsystem für nachhaltigen Tourismus entwickelt, das den Dimensionen zugeordnet sei und zu den Zielthemen jeweils Teilziele enthalte. Das Berichtssystem habe drei Funktionen: es biete Orientierungswissen, mache ein Kommunikationsangebot und beinhalte das eigentliche Monitoring mit einem regionalen Ziel- und Indikatorensystem. Kern des Projekts sei die Regionalisierung des Leitbilds mit dem Ziel der Steuerung der regionalen Entwicklung. 3 Politische Implikationen von Nachhaltigkeits-Berichtssystemen Der dritte Block „Politische Implikationen von Nachhaltigkeits-Berichtssystemen“ wurde mit einem Impulsreferat zum derzeitigen Stand in Deutschland eingeleitet, an den sich Berichte aus der kommunalen Praxis anschlossen. Ulrich Gehrlein (Institut für ländliche Strukturentwicklung Frankfurt/Main) gab in seinem Impulsreferat einen Überblick über die „Implementierung und Steuerungswirkungen von Nachhaltigkeitsberichtssystemen“. Es gebe etwa 250 Kommunen, in denen derartige Systeme angewendet würden – allerdings in ganz unterschiedlicher Form. Die Zielsetzung bestehe überwiegend in der Bestandsaufnahme bzw. Berichterstattung, der Bestimmung von Handlungsbedarf und der Öffentlichkeitsarbeit. Weit weniger jedoch würden damit Ziele wie die politische Entscheidungsunterstützung, die Steuerung des Verwaltungshandelns oder die Erfolgskontrolle der Zielumsetzung verfolgt. Infolgedessen hätten die Systeme zwar zur Bewusstseinsbildung in Politik und Verwaltung beigetragen, aber kaum zur Steuerung kommunaler Entwicklung. Die Ursachen dafür sah Gehrlein auch in der schwachen Kontextualisierung und mangelnden Implementierung von Berichtssystemen: Sie seien kaum in Arbeitsabläufe und Entscheidungsprozesse integriert, schlecht in das institutionelle Setting eingebettet und kaum mit Planungs- und Managementinstrumenten verknüpft. Aber auch auf der inhaltlich-konzeptionellen Ebene machte er Defizite aus: Die Indikatoren besäßen bislang nur eine eingeschränkte Handlungsrelevanz für die kommunale Praxis. Bisherige Nachhaltigkeitsindikatorensysteme würden überwiegend einem übergeordneten, querschnittsorientierten Kernindikatorenmodell entsprechen, aber wenig spezifisch für einzelne Steuerungsebenen sein. Hier stelle sich aber die Frage, ob die Gesamtentwicklung langfristig gesteuert werden solle oder konkrete Projekte? Wünschenswert seien aus dieser Perspektive funktionsspezifische Konzepte mit einer höheren Handlungsrelevanz. Dabei müssten insbesondere kommunale bzw. regionale Politikziele Aufnahme finden. Gehrlein meinte, dass sich die Berichtssysteme nur dann umfassend in die Kommunalpolitik bzw. -verwaltung implementieren ließen, wenn sie in das Neue Steuerungsmodell integriert würden. Nachhaltigkeitsindikatorensysteme hätten dann nämlich zentrale koordinierende Funktionen und würden als Controlling-Instrumente eines differenzierten Berichtssystems in Politik und Verwaltung eingesetzt. Daher seien die Systeme in diese Richtung zu entwickeln und Aspekten der Implementierung müsste in Zukunft viel mehr Aufmerksamkeit gewidmet werden. Der nachfolgende Vortrag von Erwin Rothgang (Stadt Wuppertal) zeichnete den Prozess der Implementierung eines Nachhaltigkeitsberichtssystems in der Stadt Wuppertal nach. An diesem Beispiel werde sinnfällig, dass dieser Prozess (viel) Zeit brauche und von den Akteuren großes Durchhaltevermögen erfordere. In Wuppertal sei 1995 mit dem Agenda-Beschluss des Stadtrats der Startschuss gefallen und erst 2004 die strategische Steuerung unter dem Leitbild der Nachhaltigkeit mit Zielvereinbarungen, Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 139 TAGUNGSBERICHTE Kennzahlen und Indikatoren eingeführt worden. Rothgang wies in seiner engagierten Präsentation nachdrücklich darauf hin, dass der Implementierung viel Aufmerksamkeit gewidmet werde müsse und Politiker von Anfang an einzubinden seien. Ein weiteres Beispiel für die „Dauerhafte Implementierung eines Nachhaltigkeitsberichtssystems“ wurde von Annett Zimmermann (Stadt Güstrow) am Beispiel der Stadt Güstrow demonstriert. Ausgangspunkt für die Entwicklung eines Nachhaltigkeitsberichtssystems sei auch hier der Agenda-Prozess gewesen, der mit kommunalen Aktivitäten verknüpft worden sei. Es sei von Anfang an ein ganzheitlicher Projektansatz verfolgt worden, der die Vernetzung ökonomischer, ökologischer, sozialer und kultureller Aspekte vorsah. Innerhalb der Stadtverwaltung, so Zimmermann, sei der Umgang mit den Indikatoren inzwischen zum Alltagsgeschäft geworden und habe sich professionalisiert. Dies habe ein Bewusstsein für das Controlling der Stadt- und Wirtschaftsentwicklung geschaffen und diene der Kontrolle der eingesetzten Strategien und Maßnahmen. Allerdings seien die Indikatoren dadurch vorrangig Planungswerkzeuge geworden. Auf der politischen Ebene würde demgegenüber eher mit qualitativen Zielen und Strategien operiert als mit quantitativen Größen. Ungeachtet dieser Differenzen schätzte die Güstrower Planerin den Implementierungsprozess als erfolgreich ein. 4 Nachhaltigkeitsberichtssysteme: Von der Kontextualisierung zur Implementierung? Die Tagung machte die breite Palette an Forschungsaktivitäten zum Thema sichtbar und gestattete eine Verortung der Projekte des RBSFörderschwerpunktes in diesem Feld. In Bezug auf das Thema der Tagung, die Kontextualisierung, wurde die Vielfalt der Strategien sichtbar, die von akteursbezogenen über thematische bis hin zu räumlichen und funktionsbezogenen Strategien reichen. In den Diskussionen wurde deutlich, dass für eine erfolgreiche Implementierung in der Verwaltung eine Kontextualisierung im Hinblick auf institutionelle Abläufe erforderlich ist. Dazu taugen die vorliegenden Indikatorensysteme nur bedingt, da sie in erster Linie für die (öffentliche) Information und Kommunikation entwickelt wurden und infolgedessen vor Seite 140 allem zur Bewusstseinsbildung beigetragen haben. Um sie aber in der kommunalen Praxis als Steuerungsinstrument nutzen zu können, bedarf es der Ausrichtung auf spezifische Berichtspflichten sowie kommunale Ziele und Beschlüsse. Selbst wenn das Leitbild der Nachhaltigkeit akzeptiert und ein kommunaler Zugang dazu entwickelt ist, so muss ein entsprechendes Berichtssystem nicht unbedingt schon allein deshalb anschlussfähig an die kommunale Steuerungsphilosophie sein. Neben dem breiten Überblick über die vorhandenen und die in den RBS-Projekten in Entwicklung befindlichen Berichtssysteme machte die Tagung auch Fortschritte sichtbar. Diese bestehen etwa in der mittlerweile erreichten Vielfalt der entwickelten Indikatorensysteme, in der Varianz der verwendeten Konzepte, in der Heterogenität der angewandten partizipativen Verfahren sowie in der stärkeren Ausrichtung auf spezifische Funktionen und Ziele. Es wurde aber auch deutlich, dass viele der entwickelten Systeme einmalige (Kraft)Akte darstellen, die in dieser Form nicht wiederholbar sind. Die beteiligten Akteure, gerade aus dem Umfeld der Lokalen Agenden, verfügen in der Regel nicht über die nötigen Ressourcen, um Berichtssysteme auf Dauer stellen zu können. Zugleich wurde deutlich, dass sich die bislang entwickelten Berichtssysteme innerhalb eines Rahmens bewegen: Es werden keine grundsätzlich neuen Systeme mehr entwickelt, sondern es werden überwiegend bekannte Konzepte herangezogen und vorliegende Indikatorensets werden nur noch wenig verändert. Die RBS-Projekte selbst bauen im Wesentlichen auf dem erreichten Stand der Indikatorenentwicklung auf und haben ihm nur partiell Neues hinzugefügt. Dafür sind sie stärker kontextualisiert, etwa durch ihre Ausrichtung auf die Bedürfnisse und Erwartungen der kommunalen Verwaltungspraxis oder die Einbettung in Formen der ämterübergreifenden Zusammenarbeit. Abschließend wurde die Frage diskutiert, ob im Prozess der Implementierung in die kommunale Praxis schon der „Point of no return“ erreicht sei. Eine Reihe von Teilnehmern bezweifelte dies mit Blick auf die bisher geringe Zahl an erfolgreichen Beispielen. Es blieb dabei offen, inwiefern die Implementierung an grundsätzlichen Hindernissen scheitert. Deutlich wurde, dass künftig die Beschäftigung – auch die Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAGUNGSBERICHTE wissenschaftliche Untersuchung – der Voraussetzungen, Bedingungen und Schritte bei der Implementierung der Berichtssysteme in das kommunale Verwaltungshandeln von zentraler Bedeutung für Fortschritte auf diesem Gebiet sein wird. Es sind auch weitere Anstrengungen nötig, um die Zugänglichkeit der Systeme für die Öffentlichkeit zu erhöhen. Die Anwendung bzw. Umsetzung der Berichtssysteme mittels elektronischer Software und ihre Einspeisung in kommunale Intra- bzw. Internetsysteme steht erst am Anfang. Die Diskussion endete eher mit offenen Fragen als mit Antworten – was beim derzeitigen Forschungsstand in diesem Feld auch nicht überraschend ist. Auf welche Ebene zielen kommunale Berichtssysteme, auf die der strategischen Kommunalpolitik, die des Verwaltungshandelns – auch einzelner Ressorts – oder die einzelner Projekte? Welche spezifischen Steuerungs- und Controlling-Funktionen können kontextualisierte Nachhaltigkeitsberichtssysteme haben? Usw. Engagiert wurde dafür gestritten, sich mit derartigen Berichtssystemen „nicht in die Historie schieben (zu) lassen“. Die Beiträge der Tagung sollen in einem Band in der von Armin Grunwald und Bernd Hansjürgens herausgegebenen Reihe „Global zukunftsfähige Entwicklung – Perspektiven für Deutschland“ (edition sigma) publiziert werden. » Ökologische Ökonomie: eine neue Wissenschaft? Heidelberg, 6. - 8. Mai 2004 Tagungsbericht von Fred Luks, Hamburger Universität für Wirtschaft und Politik, Projekt NEDS – Nachhaltige Entwicklung zwischen Durchsatz und Symbolik Welche Funktion kann die Wissenschaft in einer sich wandelnden Welt haben, wenn das Ziel eine nachhaltige Entwicklung ist? Welche Rolle kann die Ökologische Ökonomie in diesem Zusammenhang spielen? Inwieweit ist sie eine „neue Wissenschaft“, die zur Lösung wichtiger Gegenwarts- und Zukunftsprobleme Beiträge leisten kann? Diese und andere durch das Leitbild „Nachhaltige Entwicklung“ provo- zierte Fragen an die Wissenschaft im Allgemeinen und die Ökologische Ökonomie im Besonderen waren Gegenstand der kleinen, thematisch breit angelegten und inhaltsreichen Tagung „Ökologische Ökonomie: eine neue Wissenschaft?“, die von der Vereinigung Ökologische Ökonomie (VÖÖ) vom 6.-8. Mai 2004 in Heidelberg ausgerichtet wurde. Die Ökologische Ökonomie befasst sich mit Ganzheiten ebenso wie mit spezifischen wirtschaftlichen, sozialen und ökologischen Problemen. Sie sieht sich selbst als offenen Suchprozess, der zum Suchprozess „Nachhaltige Entwicklung“ praktikable Lösungen beitragen will. Diese normativ und im Hinblick auf die Vision einer nachhaltigen Entwicklung motivierten Charakteristika der Ökologischen Ökonomie als „neuer Wissenschaft“ erwiesen sich als guter Ausgangspunkt für einen drei Tage langen Diskussionsprozess, an dem sich über 30 WissenschaftlerInnen unterschiedlicher Disziplinen und unterschiedlicher Generationen intensiv beteiligten. Einmal mehr war der „Heidelberg-Spirit“ der Jahrestagung zu spüren – der intensive Gedanken- und Erfahrungsaustausch zwischen den Sitzungen war ebenso wichtig wie die „offziellen“ Plena und Arbeitsgruppen. Eine zentrale Scharnierstelle für die Verbindung von Wissenschaft und Nachhaltigkeit ist die disziplinäre Organisation von Forschung und Lehre. Wenn die Wissenschaft nicht nur Teil der Probleme, sondern Teil der Lösungen sein will, muss sie eben diese Disziplinarität hinterfragen und sich auf Debatten zum Status von Mono-, Multi-, Inter- und Transdiziplinarität einlassen. Die Tatsache, dass ein analytisch, partikularisierend und disziplinär ausgerichteter Wissenschaftsbetrieb vor dem Hintergrund von Nachhaltigkeitsproblemen an Überzeugungskraft verliert, war ein wiederkehrendes Thema. Es gehört zu den Grundannahmen der Ökologischen Ökonomie, dass eine an Nachhaltigkeit orientierte Reform von Gesellschaft und Wirtschaft mit einer Reform der Art und Weise einhergehen muss, mit der Wissenschaft betrieben wird. Zu thematisieren ist in diesem Zusammenhang mithin „Kultur“ als Ganzes, und auch dies wurde auf der Tagung versucht. Zu fragen war also, wie eine neue Wissenschaft und eine neue Wissenschaftskultur aussehen können, und welche Bedeutung der Ökologischen Ökonomie in diesem Zusammenhang zukommt. Gegen- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 141 TAGUNGSBERICHTE stand dieser Tagung war mithin nicht das Kleinteilige und Detaillierte, sondern das Große und Ganze. Mit seinem Vortrag „Auf dem Weg zu einer neuen Ökonomie – Auf dem Weg zu einer neuen Wissenschaft?“ führte Peter Plöger (Bielefeld) in das Tagungsthema ein und spannte dabei einen weiten Bogen von der historischen Entwicklung der Wissenschaft als einem disziplinär organisierten Gebilde bis zu aktuellen Problemen. Zwei weitere Plenumsbeiträge konkretisierten Themen und Fragestellungen. Peter Finke (Bielefeld) stellte die Frage „Was heißt ‚neue Wissenschaft’“ und gab Antworten aus Sicht der Wissenschaftsforschung, während Christiane Busch-Lüty (Ebenhausen) „Herausforderungen einer Ökologischen Ökonomie an die Wissenschaft“ thematisierte. Am Abend des ersten Konferenztages wurde erstmals der nach dem Ökonomen Karl William Kapp benannte „Kapp-Forschungspreis für Ökologische Ökonomie“ vergeben. Dieser Preis wird im zweijährigen Turnus gemeinsam von der Vereinigung für Ökologische Ökonomie (VÖÖ), der Kapp-Stiftung, der Hatzfeldt-Stiftung sowie der Forschungsgesellschaft anstiftung vergeben und dient der wissenschaftlichen Nachwuchsförderung. Aus zahlreichen zum Thema „Gerechtigkeit und nachhaltige Entwicklung“ eingereichten Studien wurden zwei prämiert: Der Geograph Michael Flitner wurde für seine von der Universität Freiburg angenommene Habilitationsschrift „Lärm an der Grenze. Eine Studie über Fluglärm und Umweltgerechtigkeit am Beispiel des Flughafens BaselMulhouse“ ausgezeichnet. Die Politikwissenschaftlerin Dagmar Vinz erhielt die Auszeichnung für die im Rahmen ihrer Promotion an der Freien Universität Berlin erstellte Studie „‚Verzehrte Zeiten’ – Ubiquität und Temporalität des Ernährungssystems aus der Perspektive der Umwelt- und Geschlechterforschung“. Die Jury des Preises ist interdisziplinär besetzt und besteht aus Fachleuten der Ökonomie, Ökologie, Soziologie, Wissenschaftstheorie und Kulturwissenschaft. Das Auswahlverfahren steht mit dem Tagungsthema „Neue Wissenschaft“ also ebenso in Bezug wie die beiden ausgezeichneten Arbeiten, die nicht zuletzt durch einen problemorientierten, Disziplinen übergreifenden Ansatz geprägt sind. Im Zentrum des zweiten Konferenztages standen die Arbeitsgruppen, in denen vier The- Seite 142 menblöcke vertieft diskutiert wurden. Die AG „Weltbilder reflektieren“ tat genau dies – sie überdachte unterschiedliche wissenschaftliche Weltbilder und ihre „Brauchbarkeit“ für eine am Nachhaltigkeitsleitbild orientierte Wissenschaft. Die AG „Ökologische Ökonomie kommunizieren“ wandte sich dem Problem zu, wie wissenschaftliche (vor allem: ökologisch-ökonomische) Fragestellungen und Konzepte erfolgreich in der Öffentlichkeit kommuniziert werden können. Im ökologisch-ökonomischen Diskurs ist es ein Gemeinplatz, dass man „Institutionen verändern“ muss – die gleichnamige Arbeitsgruppe thematisierte institutionellen Reformbedarf ebenso wie die Frage nach der Definition und theoretischen und praktischen „Bearbeitbarkeit“ von Institutionen. „Transdisziplinarität praktizieren“ schließlich war ein AG-Thema, in dem vor allem Fragen transdisziplinärer Forschung und Qualifikation in disziplinären Strukturen thematisiert wurden. Hier kamen nicht zuletzt NachwuchswissenschaftlerInnen zu Wort, die sich mit Disziplinen übergreifenden und praxisorientierten Forschungsarbeiten qualifizieren wollen und dabei bemerkenswerte Erfahrungen mit (Hochschul-)Institutionen machen konnten. Wichtiges Thema dieser AG waren auch die Grenz-Ziehung zwischen verschiedenen Disziplinen übergreifenden Herangehensweisen und die Pluralität von Vorstellungen darüber, was genau Transdisziplinarität bedeutet. Der bei VÖÖ-Tagungen stets stattfindende Empfang im Heidelberger Rathaus stand ebenfalls im Zeichen eines grundsätzlichen Nachdenkens über Wissenschaft und die Grenzziehungen, die sie funktionieren lassen, aber auch zu Problemen führen. Walther Zimmerli, Gründungspräsident der VW AutoUni in Wolfsburg, verkörpert schon in seiner Person einiges, das das Verhältnis von Nachhaltigkeit und Wissenschaft charakterisiert oder charakterisieren sollte: Er ist nicht nur ein philosophischer Grenzgänger, der sich mit einem breiten Spektrum gesellschaftlicher Probleme befasst hat, sondern auch ein erfolgreicher Wissenschaftsmanager. Sein launiger Festvortrag „Paradoxien der Nachhaltigkeit – Wissenschaft jenseits ihrer eigenen Grenzen“ thematisierte die Spannung zwischen Nachhaltigkeitszielen und Wissenschaft. Zimmerlis gedankenreiche Ausführungen waren für alle Teilnehmenden anregend, für einige auch sehr provokativ. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ANKÜNDIGUNGEN / EVENTS Der letzte Konferenztag begann mit einigen Überlegungen von Beate Weber, Oberbürgermeisterin der Stadt Heidelberg, zur praktischen Nachhaltigkeitspolitik auf regionaler Ebene. Daran anschließend wurden die Ergebnisse aus den Arbeitsgruppen präsentiert und diskutiert. Der letzte Plenumsbeitrag war ein „Praxisbericht“ von Sabine Höhler und Fred Luks (beide Hamburg) zum Thema „Transdisziplinarität als neues Weltbild?“. Die Praxis, aus der Höhler und Luks berichteten, ist die vom Bundesministerium für Bildung und Forschung geförderte sozial-ökologische Forschung (SÖF), in deren Rahmen beide über „Nachhaltige Entwicklung zwischen Durchsatz und Symbolik“ forschen. Der Vortrag stellte Bezüge her zwischen den Diskussionspunkten der Tagung und dem Alltag interdisziplinären Forschens in einer nach wie vor disziplinär strukturierten Umgebung. Dieses Spannungsfeld sei anstrengend, biete aber auch ein überaus interessantes Betätigungsfeld. Darüber hinaus wurden in diesem Vortrag die Vorzüge und Tücken einer konstruktivistischen Perspektive herausgearbeitet. Die Plenarvorträge und die Ergebnisse der Arbeitsgruppen werden in Kürze von der VÖÖ in der Reihe „Beiträge und Berichte der Vereinigung für Ökologische Ökonomie“ publiziert werden (http://www.voeoe.de). Was die Tagung sehr deutlich gemacht hat: Der „Querschnittscharakter“ des Leitbildes einer nachhaltigen Entwicklung stellt nicht nur die Politik vor große Herausforderungen, sondern eben auch die Wissenschaft. Und ebenso wie der politische Bereich sind Forschung und Lehre durch die Nachhaltigkeitsdebatte mit Problemen konfrontiert, die ihr Selbstverständnis auf fundamentale Weise berühren. Das Programm der „sozial-ökologischen Forschung“ des Bundesforschungsministeriums ist hier ebenso zu nennen wie das Aufkommen neuer Paradigmen wie der Ökologischen Ökonomik. Die Notwendigkeit, auch jenseits technischer Entwicklung innovativ sein zu müssen, ist eine bleibende Herausforderung für alle Anstrengungen im Hinblick auf Zukunftsfähigkeit. Dass die Wissenschaft hier wichtige Beiträge leisten kann, wenn sie sich auf inter- und transdisziplinäre Debatten einlässt, hat die Tagung auf beeindruckende Weise gezeigt. «» ANKÜNDIGUNGEN / EVENTS Adapting to Climate Change – Developing Local Strategies London, United Kingdom, December 2, 2004 This conference will address both likely impacts and adaptation responses, in the context of an integrated approach which includes local emissions mitigation responses under schemes such as the Nottingham Declaration on Climate Change. It takes place in the run-up to the Tenth Conference of the Parties to the UN Framework Convention on Climate Change in Buenos Aires in December 2004, which is set to focus for the first time primarily on adaptation measures. Drawing upon contributions from a wide range of experts and practitioners, it will assess the threats and costs arising from climate change and their impacts, particularly in fluvial and coastal regions, urban areas, air quality management areas, low-lying facilities such as toxic waste and nuclear sites presenting potential health risks. Presentations will cover the implications for planning, insurance, investment, sustainable construction and future provision of emergency services, particularly in growth areas. Progress on improved local prediction, regional and local adaptation strategies will be reviewed, with a wide range of examples of best practice presented. The conference will be of interest to a wide range of stakeholders in climate change adaptation, particularly: regulatory bodies, regional partnerships, local authorities, planners, water, gas and electricity utilities, the nuclear and waste industry, insurers, lenders, lawyers, consultants, engineers, architects, the residential and commercial property sectors, the construction industry, the transport sector, the emergency services, academics, the tourism industry, amenity managers, and public health experts. For more information go to: http://www.newzeye.com/conferences_educati on/conferences_display.cfm?item_ID=64 or contact conference@newzeye.com or phone +44 (0)20 8969 1008 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 « Seite 143 ANKÜNDIGUNGEN / EVENTS Konkrete Utopien der Arbeit (III) Mobilität und Mensch im Zeichen flexibler Arbeitskulturen Ludwigshafen, 3. Dezember 2004 Gemeinsam lädt ein engagiertes Netzwerk* zur dritten Veranstaltung „Konkrete Utopien der Arbeit“ ein. In diesem Jahr trägt sie den Titel: „Mobilität und Mensch im Zeichen flexibler Arbeitskulturen“. Wie werden wir morgen arbeiten? Wie flexibel müssen wir bleiben, um beschäftigungsfähig zu sein? Wie mobil gestaltet sich die zukünftige Arbeitswelt? Mit welchen Anforderungen wird der erwerbstätige Mensch konfrontiert? Ist er ein Objekt und ein Getriebener des technischen Fortschritts oder gelingt es ihm, endlich „die Geschicke selbst in die Hand zu nehmen“, wie es Karola Bloch einmal ausdrückte? – Die Referentinnen und Referenten der Tagung „Mobilität und Mensch im Zeichen flexibler Arbeitskulturen“ geben erste Antworten. Die Positionen sind kontrovers und doch einem gemeinsamen Ziel verbunden: Frauen und Männer sollen mit Hilfe von Orientierungswissen einen leichteren (Wieder-)Einstieg in die Arbeitswelt erhalten. Mit der Veranstaltung wird die Themenreihe „Philosophie trifft Arbeitswelt – Arbeitswelt trifft Philosophie“ fortgesetzt. Ziel der Initiative ist es, einen kritischen Dialog zwischen Wissenschaft, Gewerkschaft, Wirtschaft, Forschung, Politik und Kultur über den Wandel der Arbeit auf dem Weg in die Informationsund Wissensgesellschaft anzustoßen. „Die Philosophie hat uns in der Neuzeit die Frage nach der Arbeit, ineins die nach dem Sinn von Arbeit, als zentrale Frage unserer Selbstbestimmung präsentiert und zudem aufgezeigt, dass sie notwendig nur über die Gesellschaft zu beantworten sei. Der Sinn der Arbeit ist nur vom gesellschaftlichen Kontext ausgehend zu begreifen. Wandelt sich dieser, so verändert sich auch die Arbeit und verändert sich die Arbeitswelt, so entsteht gesellschaftlicher Wandel, denn wir bestimmen unsere gesamten Lebensbereiche vom Arbeitsplatz her. Globalisierung, Digitalisierung und Rationalisierung sind Stichworte, die immer dann fallen, wenn es darum geht, die gegenwärtigen in kaum vorstellbarer Geschwindigkeit sich vollziehenden Veränderungen der Arbeitswelt zu benennen. Aufgabe der philoso- Seite 144 phischen Reflexion wäre es, das in den Wandlungen entstehende gesellschaftliche Potenzial an seinen Möglichkeiten zu messen. Dabei sollen insbesondere Prozesse der Ungleichzeitigkeit der Arbeitskulturen betrachtet und die Ausgestaltung konkreter Utopien der Arbeit befördert werden. Im Zentrum steht dabei die gesellschaftliche Emanzipation des Menschen im Umbruch der industriellen Erwerbsarbeit hin zu ‚Neuen Infrastrukturen der Arbeit‘ der ITgestützten globalen Ökonomie.“ (Aus dem Vorwort des Bloch-Jahrbuches 2003) Der Eintritt ist frei. Es wird um eine freiwillige Eintrittsspende in Höhe von 5.00 € gebeten. * Gemeinsame Tagung des Ernst-Bloch-Zentrums und der „Virtuellen Bloch-Akademie“ des Talheimer Verlages in Zusammenarbeit mit dem „Forum Soziale Technikgestaltung“, der Gewerkschaft ver.di Landesbezirk Baden-Württemberg Abteilung Bildung und der Ernst-Bloch-Gesellschaft e.V. – unterstützt von ZIRP Zukunftsinitiative Rheinland-Pfalz und der Stiftung ErnstBloch-Zentrum Anmeldung Anmeldung erbeten über Mail an schroeter@talheimer.de « Greening of Policies – Interlinkages and Policy Integration Berlin Conference on the Human Dimensions of Global Environmental Change Berlin, Germany, December 3 - 4, 2004 The Environmental Policy and Global Change section of the German Political Science Association (DVPW) and its partners will organise the 2004 Berlin Conference on the Human Dimensions of Global Environmental Change, to be held in Berlin on 3-4 December 2004. This year’s discussions will address the theme “Greening of Policies – Interlinkages and Policy Integration”. The 2004 Berlin Conference has been endorsed by the International Human Dimensions Programme (IHDP) core projects “Institutional Dimensions of Global Environmental Change (IDGEC)” and “Indus- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ANKÜNDIGUNGEN / EVENTS trial Transformation” (IHDP-IT), and is organised by the Environmental Policy Research Centre of the Freie Universität Berlin. Additional support is provided by the Global Governance Project (glogov.org). The 2004 Berlin Conference on the Human Dimensions of Global Environmental Change is the fourth of its kind in Germany. coordinated approach. Special attention has to be paid to mutual interaction between regimes and policies on the international and national level, such as trade and environment. The conference should bring about a stocktaking of both the institutional basis of policy integration on the different levels of policy making as well as an improvement of the knowledge basis for a furthering of integration. The Berlin Conferences aim at: • establishing and developing a renowned institution for international exchange among social scientists dealing with Global Change • supporting exchange especially with scientists from developing countries • transferring international research agendas to Germany and Europe • stimulating problem-oriented and interdisciplinary research by organising communication between political science and its neighbour disciplines as well as between scientists and decision makers • creating internationally recognised publications. The Policy Problem Problems of Global and Regional Environmental Change are by their very nature sectorrelated problems. Insofar, their solution requires sector-integrated approaches of policymaking that abandon the parallel pursuit of contradictory policies. Thirty years of environmental policy-making at the national and international level reveal, however, striking problems to establish interlinkages that lead to an integration of regimes and joined-up policymaking, both horizontally on each level of political decision-making and vertically between the different layers of the multi-level system of international governance. One crucial factor in explaining this path of development is the traditional organization model of bureaucracy that is based upon specialization and division of work. It has proven to be successful in a number of ways. It fails, however, in addressing the needs of crosscutting problems such as environmental protection. The challenge, both at the national and international level, is to establish institutional provisions that allow actors to pursue a more Core Questions Given the obstacles for a more far reaching consideration of environmental concerns in sectoral policy making processes on both the national and the international level there is a need for an analysis of instruments and strategies, and the institutional setting in which they are implemented. Which approaches have proven to be successful, what are the impediments? Against this background contributions will particularly deal with the following issues: 1. Analysis of policy integration in practice: What kinds of institutions are successful in strengthening policy integration? Which actors, which instruments and strategies were the driving forces of a greening of policies? We are interested in case studies from different policy fields and from different levels of policy making. What are the implications of policy integration for environmental policy? Is there evidence for a diluting of environmental concerns by building up an overcomplexity of integration requirements and a loss of advantages gained by specialization? What is the role of law in codifying integration requirements? In how far are major trends, e.g. economic and political globalization, from government to governance, from environmental protection to sustainable development affecting integration efforts? 2. Instruments and knowledge basis for policy integration: What methods are available or currently under development that allow for an ex ante evaluation of the effects of policies on the different dimensions of sustainability? What indicators are available that allow an assessment in how far a policies are integrated? What experiences are available in integrating the different domains of knowledge for such an assessment? Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 145 ANKÜNDIGUNGEN / EVENTS 3. Multi-level aspects: To what extent are international regimes affecting the capacities at the national level for a greening of policies and vice versa? What efforts have been undertaken to ensure also a vertical integration among the different levels of policy making? In how far are impacts in other countries considered in approaches of policy integration, in particular in respect of developing countries? What mechanisms proved to be successful in ensuring the coherence of the different international regimes, in particular between environmental and trade regimes? Special panel Teaching This years Berlin Conference will host a special panel on academic environmental teaching programs. Complex environmental problems as climate change, loss in biodiversity, ground water pollution, degradation of soil caused by human activities ranging from global to local level challenge academia in many respects. To tackle these problems an interdisciplinary perspective are required. Hence academic training has to adapt new forms of systematic interdisciplinary cooperation. Professional training needs to integrate elements such as interdisciplinary communication, methods of problem-oriented approaches and teambuilding. Moreover the ground has to be paved for communication between academia and non-university experts and practitioners from the state, industry and non-government organisations. How can academic programs respond to these challenges? The papers in this section will present experiences in teaching environmental sciences. Contact Daniel Pentzlin Manager, 2004 Berlin Conference Environmental Policy Research Centre Tel.: +49 (0) 30 / 838 - 570 31 Fax: +49 (0) 30 / 838 - 566 85 E-Mail: bc2004@zedat.fu-berlin.de Conference Website: http://www.fu-berlin.de/ffu/ akumwelt/bc2004/ Nachhaltiges Wirtschaften 2010: Towards A Balanced Economy Berlin, 16. - 17. Dezember 2004 Das Deutsche Kompetenzzentrum für Nachhaltiges Wirtschaften (dknw) an der Universität Witten/Herdecke, gefördert durch die Deutsche Bundesstiftung Umwelt, veranstaltet am 16. und 17. Dezember 2004 unter der Schirmherrschaft des Bundesumweltministeriums den Kongress „Nachhaltiges Wirtschaften 2010“ mit dem Trendsetting-Forum „Nachhaltigkeit für alle“. Als Referenten konnten hochrangige Experten und Persönlichkeiten aus Politik, Verbänden, Wissenschaft und Unternehmenspraxis gewonnen werden. Am ersten Tag des Kongresses lädt das dknw dazu ein, aufbauend auf Impulsreferaten die Zukunft Nachhaltigen Wirtschaftens zu diskutieren. Themen sind u.a. aktuelle Fragestellungen wie Klimaschutz und Emissionshandel, Kommunikation von Nachhaltigkeit und die Umsetzung Nachhaltigen Wirtschaftens in der Unternehmenspraxis. Am zweiten Tag des Kongresses bietet das Trendsetting-Forum „Nachhaltigkeit für alle“ die Möglichkeit, im Rahmen von Workshops aktuelle Themenstellungen des Nachhaltigen Wirtschaftens zusammen mit Fachexperten zu diskutieren. Eine kongressbegleitende Posterausstellung informiert über Arbeiten und Projekte, die am dknw bearbeitet werden bzw. wurden. Anmeldung Deutsches Kompetenzzentrum für Nachhaltiges Wirtschaften (dknw) Wirtschaftsfakultät, Universität Witten/Herdecke Alfred-Herrhausen-Straße 50, 58448 Witten Tel.: +49 (0) 23 02 / 926 - 505 Fax: +49 (0) 23 02 / 926 - 539 E-Mail: dknw@uni-wh.de Internet: http://www.nachhaltigeswirtschaften2010.de « » Seite 146 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ANKÜNDIGUNGEN / EVENTS Climate Change Risks & Opportunities: Learning from the Leaders New York, USA, January 13 - 14, 2005 Conference Objectives Contact Robyn Stewart Center for Economic and Environmental Partnership, Inc. New York Tel.: +1 518 432 6400 E-Mail: robyn@ceepinc.org The leading conference objectives are: - to bring the leaders of the corporate, financial and legal sectors together with some of the world’s foremost experts on climate change policy to discuss the legal and practical implications of the problem for U.S. businesses; - to consider the experience of the major companies that have taken early action to reduce greenhouse gas emissions; and - to discuss pragmatic steps companies can take to develop an effective and profitable strategy for contributing to climate change mitigation. Conference Agenda The conference will run from 12:30 pm on Thursday, January 13th through 5:30 pm on Friday, January 14th, 2005. The conference will be divided into three blocks: - Session 1: Expert Briefings on the scientific basis for climate change mitigation and emerging policy frameworks; - Session 2: Corporate Spotlight on the business case for action on climate change and how leading companies have responded; - Session 3: Interactive Workshops with industry leaders and policymakers to assist companies with integrating climate change into their strategic planning. Who Should Attend • Companies interested in addressing climate change risks & opportunities in a strategic way, based on practical experiences; • Corporate legal and management advisors, who need to integrate climate change considerations into their advisory services; • Regulators who want to learn about corporate best practice and innovative approaches of leading companies; • Anyone wanting to remain updated on the latest climate policy development in the USA. « Europapolitischer Workshop Vorsorgende Chemikalienpolitik in der erweiterten EU: Wie viel Fortschritt bringt die REACh-Verordnung? Loccum, 21. - 23. Januar 2005 Mit der Implementierung des REACh-Verfahrens (Registration, Evaluation and Authorisation of Chemicals) will die EU-Kommission dafür sorgen, dass in Zukunft alle Chemikalien vor ihrer Markteinführung registriert, evaluiert und besonders gefährliche Substanzen nur noch für bestimmte Anwendungen zugelassen werden. Auch die bereits auf dem Markt befindlichen rund 30.000 Altstoffe sollen nach und nach entsprechenden Prüfungen unterzogen werden. Wie aber kann es gelingen, REACh als ein hinreichend flexibles, lernendes System zu etablieren, das so effektiv wie möglich der Erreichung der erklärten politischen Ziele der EU auf dem Feld der Gesundheits- und Umweltpolitik dient und zu diesem Zweck auch den bestehenden Informationsrechten bzw. Partizipationsinteressen der Bevölkerung (insbesondere als Konsumenten von Erzeugnissen der chemischen Industrie) gerecht wird, ohne dabei inakzeptable Beeinträchtigungen der Wettbewerbsfähigkeit europäischer Chemikalienproduzenten im EUüberschreitenden Handel in Kauf zu nehmen? Dies ist die Frage, auf die im Dialog mit politischen Entscheidungsträgern und ausgesuchten Fachleuten auf dem Workshop Antworten gesucht werden sollen. Der Workshop wird gefördert durch die Deutsche Bundesstiftung Umwelt (BDU) in Zusammenarbeit mit dem Lehrstuhl für Produktionswirtschaft und Umwelt der Universität Oldenburg und mit dem Arbeitskreis Umweltchemikalien/Toxikologie im BUND e.V. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 147 ANKÜNDIGUNGEN / EVENTS Anmeldung Evangelische Akademie Loccum Postfach 2158, 31545 Rehburg-Loccum Tel.: +49 (0) 57 66 / 81-0 Fax: +49 (0) 57 66 / 81-9 00 Internet: http://www.loccum.de » ENTER 2005 12th International Conference on information Technology and Travel & Tourism Innsbruck, Austria, January 26 - 28, 2005 Now in its twelfth year, ENTER is the ONLY travel and tourism e-business conference that successfully brings together top ranking practitioners, researchers, destination managers and consultants to debate all aspects of e-business in Travel and Tourism. The theme for 2005 is “E-business is here – What’s Next?”, reflecting the tremendous impact of new technologies on the travel and tourism sector. Delegates will be able to “look behind the curtain” and discuss and debate new developments and new business practices that are being or about to be implemented by leading businesses and destinations worldwide. Regularly attracting over 400 international delegates, the ENTER series of conferences are well known for their lively debates, leadingedge research and, most importantly, for the opportunity they provide for delegates to exchange information and experiences in what is still a brave new world of tourism e-business. The involvement of leading academics and researchers has always been an integral feature of ENTER conferences and the 2005 event will be no exception. An extensive research track is planned which will complement the highlyfocused business sessions. The conference is organised by ifitt – the International Federation for IT and Travel & Tourism (http://www.ifitt.org). Registration and Hotel Accommodation PCO Tyrol Congress – Congress Innsbruck GmbH Rennweg 3, A-6020 Innsbruck, Austria Tel.: +43 - 512 - 57 56 00 Fax: +43 - 512 - 57 56 07 E-Mail: enter05@congress-innsbruck.at Internet: http://www.pco-tyrolcongress.at » Seite 148 Informatisierung der Arbeit – Gesellschaft im Umbruch Darmstadt, 27. - 28. Januar 2005 Ziel der Tagung Dass digitale Informations- und Kommunikationstechnologien heute enorme Auswirkungen auf Wirtschaft und Gesellschaft haben, ist unbestritten. Das gilt speziell für die Arbeitswelt, die einem Strukturwandel im globalen Maßstab unterworfen ist: Produktions- und Verwertungsketten werden neu zusammengesetzt; neue Medien schaffen neue Möglichkeiten der globalen Steuerung und Kontrolle von Arbeitsund Produktionsprozessen; mit dem Internet entsteht ein global verfügbarer Informationsraum, der dem arbeitenden Subjekt als virtueller sozialer Handlungsraum gegenübertritt. Wie lässt sich diese informatisierte Arbeitswelt begreifen, erklären und gestalten? Diese Frage stellt sich gleichermaßen WissenschaftlerInnen wie den Akteuren der Arbeitswelt. Traditionelle Erklärungsmuster und Gestaltungsmittel, die für die Analyse der fordistischen Industriegesellschaft entwickelt wurden, sind heute sicherlich in manchen Punkten nicht mehr angemessen. Aber worin besteht denn tatsächlich das Neue informatisierter Arbeit? Das Ziel dieser Tagung ist es, den Fragen nachzugehen, die für das Verständnis und die Gestaltung der modernen Arbeitswelt von Bedeutung sind: • In welchem Verhältnis stehen Informatisierung und Industrialisierung? • Was kennzeichnet die neuen Organisationsformen der Arbeit und welche Chancen und Risiken bergen sie? • Was sind die prägenden Merkmale der “neuen Technologien”? Welche Trends in der informationstechnischen Entwicklung zeichnen sich ab? • Welche Folgen hat die informatisierte Arbeitswelt für das Subjekt und seine Lebenswelt? • Welche Folgen für soziale Gerechtigkeit und Bildung zeichnen sich ab? Welche Anforderungen entstehen insbesondere an die betriebliche Aus- und Weiterbildung? • Wie entwickelt sich die internationale Arbeitsteilung und welche Gestaltungsnotwendigkeiten ergeben sich in Zukunft daraus? Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ANKÜNDIGUNGEN / EVENTS Die Tagung richtet sich an WissenschaftlerInnen aus allen Disziplinen, die sich mit dem Wandel von Arbeit und Gesellschaft befassen – und zugleich an betriebliche Akteure, die den Prozess der Informatisierung mitgestalten, sowie an VertreterInnen aus Verbänden und Gewerkschaften. Wir wollen aufmerksam machen auf Gefahren und Chancen dieser Entwicklung und uns auf die Suche begeben nach neuen Erklärungs- und Lösungsansätzen, die den Wandel verständlich und die Zukunft gestaltbar machen. Die Tagung findet statt im Rahmen des Forschungsvorhabens „Kooperationsnetz prospektive Arbeitsforschung“ (KoprA) – gefördert mit Mitteln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 01HN0122 und betreut vom Projektträger „DLR – Innovative Arbeitsgestaltung und Dienstleistungen“ im Rahmenkonzept „Innovative Arbeitsgestaltung – Zukunft der Arbeit“. Tagungsablauf Nach einer Einführung in die Tagung sind die folgenden vier Themenblöcke vorgesehen: 1. Die Praxis der Informatisierung 2. Informatisierung – Industrialisierung – Subjekt (Diskussionsforen – parallel in zwei Staffeln) 3. Informatisierung in gesellschaftstheoretischer Perspektive 4. Informatisierung der Arbeit – Gesellschaft im Umbruch (Podiumsdiskussion mit hochrangigen Vertretern von IG Metall und ver.di sowie aus Politik, Wirtschaft und Wissenschaft) Anmeldung Anmeldung per Fax oder E-Mail erbeten an: Kooperationsstelle Wissenschaft und Arbeitswelt Rheinstr. 50, 64289 Darmstadt Tel.: +49 (0) 61 51 / 30 73 16 Fax: +49 (0) 61 51 / 30 73 22 E-Mail: info@kooperationsstelle-darmstadt.de Ein Anmeldeformular steht zur Verfügung unter http://www.informatisierung-der-arbeit.de Aktuelle Informationen finden Sie im Internet: http://www.informatisierung-der-arbeit.de » Call for papers DGS-Sektion Wissenschafts- und Techniksoziologie Pervasive Computing – Totale Vernetzung Visionen eines neuen Verhältnisses von Technik und Gesellschaft Dortmund, 22. - 23. April 2005 Unter Pervasive Computing (PvC) und – nahezu synonym dazu „Ubiquitous Computing“ (UC) – werden Visionen der Durchdringung von Lebenswelt und gesellschaftlichen Strukturen durch miniaturisierte, drahtlos miteinander vernetzte Rechner subsumiert. Während Großrechner nur von wenigen Experten benutzt wurden und der PC nach dem Konzept „one man, one computer“ funktioniert, sollen in Zukunft Rechner die Dinge in „smarte“ Artefakte verwandeln, um so Handlungsabläufe zu informatisieren. Protagonisten eines PvC/UC wie z. B. Mark Weiser antizipieren damit verknüpfte neue Formen der Bedürfnisbefriedigung („intelligente“ Kleidung „kommuniziert“ bei Eintritt in das „smart home“ mit der vernetzten Haustechnik und regelt nach individuellen Nutzerprofilen Heizung, Licht, Unterhaltungselektronik, E-Mail-Abruf etc.) und der Rationalisierung („smart labels“ ermöglichen das Scannen von Waren, Gepäck oder Menschen schnell und berührungslos). Allerdings sind noch viele technische Probleme von der Energieversorgung bis zur funktionierenden Vernetzung ungelöst, die Frage nach der Nützlichkeit und sozialen Akzeptanz von Anwendung bleibt ungeklärt; und eine Diskussion um PvC/UC und Fragen der informationellen Selbstbestimmung, des Datenschutzes oder der Risiken komplexer vernetzter Systeme, die reale physische Vorgänge automatisiert steuern, hat erst begonnen. Die einzureichenden Papers sollten möglichst einem der folgenden Gliederungspunkte zuzuordnen sein: • Die Genese der PvC-Vision: Von der Idee Mark Weisers bis zu aktuellen Konzepten ökonomischer Nutzung • PvC: technische Möglichkeiten und Restriktionen • Anwendungsfelder des PvC (Verkehr, Haus, Unterhaltung, Dienstleistung, Produktion etc.) • PvC als Gegenstand der TA Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 149 ANKÜNDIGUNGEN / EVENTS • PvC: ein technisches Mittel zur Lösung sozialer Probleme? • PvC als riskante Technik: automatisierte Komplexität als Problem • PvC, „Agency“ und verteiltes Handeln • Der PvC-Diskurs oder die Frage danach, wie Vision und „Wirklichkeit“ voneinander geschieden werden können. Einsendeschluss für Abstracts (max. 1 Seite) ist der 15. Januar 2005. Kontakt Dr. Stephan Cramer Universität Dortmund WiSo-Fakultät 44221 Dortmund Tel.: +49 (0) 231 / 755 - 37 17 E-Mail: stephan.cramer@uni-dortmund.de « NanoBusiness 2005 New York, USA, May 23 - 25, 2005 The NanoBusiness Alliance*, in conjunction with Penton Media, announces the 4th annual NanoBusiness 2005, to be held May 23, 24, and 25, 2005 at the New York Marriott Financial Center Hotel in New York City. NanoBusiness 2005 is Nanotechnology’s foremost business conference, intended for key stakeholders in the business of small technology, and will once again gather hundreds of scientists, engineers, business leaders and investors for three intensive days of seminars, presentations, keynotes and networking events. NanoBusiness 2005 is designed to provide the information required to move research and application development to commercialization, as well as to showcase the ongoing integration of small tech products into the global economy. Whether you are a scientist, engineer, business executive or investor, NanoBusiness 2005 is your very best opportunity to learn about the latest applications, opportunities, breakthroughs, challenges and issues within the rapidly evolving world of nanotechnology. This is the only event that brings together so many of the industry’s luminaries and stakeholders. It is the premiere nano education, information and networking event in 2005. Seite 150 Contact Vincent Caprio Event Director Tel: +1 – 203 - 559 - 28 11 E-Mail: mailto:vcaprio@penton.com Further information on the conference is available at: http://www.nanoevent.com * About The NanoBusiness Alliance The NanoBusiness Alliance is the first industry association founded to advance the emerging business of nanotechnology. The NanoBusiness Alliance creates a collective voice for the emerging small tech industry and is developing a range of initiatives to support and strengthen the nanotechnology business community, including research and education, public policy and awareness, public relations and promotion, networking, industry support and mentoring programs. The Alliance was founded by F. Mark Modzelewski, Nathan Tinker and Josh Wolfe of Lux Capital in 2001. The Advisory Board of the Alliance is headed by the leaders of the nanotechnology community and is headed by former House Speaker Newt Gingrich, famed venture capitalist Steve Jurvetson of Draper Fisher Jurvetson, and Herb Goronkin, the noted nanotechnology visionary who recently retired Motorola. For more information about the NanoBusiness Alliance, please visit: http://www.nanobusiness.org » Erstankündigung TA’5: Technikfolgenabschätzung und Politik – Rückblick in die Zukunft 5. österreichische TA-Konferenz Wien, Österreich, 30. Mai 2005 Als Termin für die nächste große TA-Konferenz des Instituts für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften ist der 30. Mai 2005 vorgesehen. Interessenten werden gebeten, sich diesen Termin vorzumerken. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ANKÜNDIGUNGEN / EVENTS Die Website wird sein: http://www.oeaw.ac.at/ita/ta05/ Kontakt Univ.-Doz. Dr. Michael Nentwich Institut für Technikfolgen-Abschätzung Österreichische Akademie der Wissenschaften Strohgasse 45/5, A-1030 Wien Tel.: +43 - 1 - 515 81 65 83 Fax. +43 - 1 - 710 89 83 Internet: http://www.oeaw.ac.at/ita; http://eiop.or.at/mn/ » work organization (networks, virtual teams). Special attention will be paid to the development of skill and competencies, the role of institutions, social actors and regulation and on new groups at risk (see also the preliminary programme and the subthemes). Call for papers Participants are invited to send their abstract (at least three A4-pages) to one of the convenors of the five thematic workshops, listed here below, before January 17th 2005. Information about acceptance will be send before March 1, 2005. Thematic Workshops Call for papers / 1st Bi-annual European Conference ICT, the Knowledge Society and Changes in Work The Hague, The Netherlands, June 9-10, 2005 The 1st Bi-annual European Conference on ICT, the Knowledge Society and Changes in Work will be held in The Hague, The Netherlands, 9 & 10 June 2005. The conference is organized by SISWO / Social Policy Research in close cooperation with (and funded by) NWO-MES / The Dutch “Society and the Electronic Highway” research funding programme and the Dutch Cultural Planning Office (SCP). Conference theme Changes in ICT and work offer the framework for the conference. First and foremost among those changes is the emergence of the information society, in which production and employment are increasingly geared to the development of information and the creation of knowledge. Secondly there is the growing importance of ICT-tools at the workplace. As a consequence, the work process and the organization of work are also undergoing major changes. Of course, not only does ICT have an impact on work, but also the other way around: social forces (the social dialogue, institutional shaping, transitional labour markets) influence technological developments. The relationship between ICT and work is reciprocal. The focus of the conference is on the impact of ICT and the knowledge society on work, the quality of work and new forms of - ICT and skill change: opening the black box? Convenor: Bram Steijn (E-Mail: steijn@fsw.eur.nl) - Virtual teams and virtual organizations Convenor: Erik Andriessen (E-Mail: j.h.t.h.andriessen@tbm.tudelft.nl) - ICT, work and social inequality Convenor: Jos de Haan (E-Mail: j.de.haan@scp.nl) - ICT and Public Sector Reform Convenor: Willem Trommel (E-Mail: W.A.Trommel@utwente.nl) - ICT and Globalization Convenor: Monique Ramioul (E-Mail: monique.ramioul@hiva.kuleuven.ac.be) For further information and Registration please contact Drs. Otto Nuys SISWO/Social Policy Research Plantage Muidergracht 4, NL-1018 TV Amsterdam, The Netherlands Phone: +31 - 20 - 527 06 21 Fax: +31 - 20 - 622 94 30 E-Mail: nuys@siswo.uva.nl Conference website: http://www.nwo.nl/nwohome.nsf/pages/NWOP_64PB8P «» Ausführlichere Informationen zu diesen Veranstaltungen sowie Hinweise zu weiteren Tagungen sind dem ständig aktualisierten “Konferenzkalender” auf dem ITAS-Server zu entnehmen (http://www.itas.fzk.de/veranstaltung/inhalt.htm) Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 151 ITAS-NEWS ITAS-NEWS Bericht über die erste Konferenz des „Netzwerks TA“ (NTA1) gensatz z. B. zum Health Technology Assessment (HTA) mit regelmäßigen internationalen Konferenzen). Diese, der internen Kommunikation und der externen Sichtbarkeit entgegen stehende Situation soll durch das „Netzwerk TA“, das auch selbst Konferenzen organisieren wird, behoben werden. In diesem Sinne ist die Konferenz „Technik in einer fragilen Welt – Perspektiven der Technikfolgenabschätzung“ als Auftakt einer Reihe gedacht. 1 Hintergrund 2 Zum Konferenzthema Seit einiger Zeit laufen Bemühungen zu einer besseren Vernetzung und Selbstorganisation der Technikfolgenabschätzung (TA) in ihren verschiedenen Orientierungen, institutionellen Implementierungen, methodischen Orientierungen und fachlichen Schwerpunkten. Vor diesem Hintergrund ist der Aufruf zur Gründung eines „Netzwerks TA“ vom Mai dieses Jahres von Alfons Bora (Universität Bielefeld), Armin Grunwald (ITAS/TAB) und Ortwin Renn (Universität Stuttgart) zu sehen, der unterstützt durch eine Reihe von Kolleginnen und Kollegen am 24.11.2004 zur Gründung des „Netzwerk TA“ führte. Im Anschluss fand die Konferenz „Technik in einer fragilen Welt – Perspektiven der Technikfolgenabschätzung“ statt, die erste Konferenz des „Netzwerks TA“ (NTA1). Sie wurde veranstaltet von den oben genannten Einrichtungen, unterstützt vom BMBF, und fand statt im neuen Glashaus des Botanischen Gartens in Berlin-Steglitz. TA-Konferenzen in Deutschland (und darüber hinaus) fanden bislang nur zu speziellen Themen oder Ereignissen und insgesamt eher selten statt (mit Ausnahme der 2005 bereits im fünften Jahr stattfindenden österreichischen TATagungen). Beispiele sind das TA-Kolloquium in Bonn anlässlich des 65. Geburtstages von Herbert Paschen 1998 (Petermann, Coenen 1999) und der e-Society-Kongress in Berlin 2001 (Banse, Grunwald, Rader 2002). Auf europäischer Ebene versandete der Ansatz einer Konferenzserie „European Congress on Technology Assessment“ (ECTA) nach der dritten Veranstaltung 1992. Die TA-Community hat bislang keine regelmäßig stattfindende Form des Austauschs in Bezug auf Forschung und Beratungspraxis ausgebildet (ganz im Ge- Die Welt wird heute als hoch differenziert, aber auch als fragil und zerbrechlich wahrgenommen (Stehr 2003). Zu den wesentlichen Gründen gehören die ökonomische Globalisierung, die Auflösung kultureller Traditionen, das Denken in Netzwerken statt in Hierarchien und die Herausforderung des menschlichen Selbstverständnisses durch die Lebenswissenschaften. Wissenschaft und Technik haben an diesen Entwicklungen einen erheblichen Anteil. So sind die modernen Informations- und Kommunikationstechniken eine unverzichtbare Begleiterscheinung der Globalisierung. Vernetzte, dezentrale und „kleine“ Technologien bilden die Speerspitze der technischen Innovationen. Ihr Netzwerkcharakter steigert Komplexität und Unvorhersehbarkeit „systemischer“ Effekte. Neue Fragen an das Selbstverständnis des Menschen kommen aus aktuellen Entwicklungen in Bio-, Gen-, Nano- und Medizintechnik wie auch aus der Hirnforschung. Wissenschaft und Technik bringen bislang ungeahnte neue Möglichkeiten hervor, machen die moderne Gesellschaft aber auch verletzlich und angreifbar. Diese Fragilität der heutigen Welt ist einerseits die Folge wissenschaftlich-technischer und damit verbundener sozialer Innovationen. Andererseits stellt sie eine wesentliche Randbedingung für die Gestaltung der Technik für die Welt von morgen dar. Aus diesen Gründen kommt der Analyse von Innovationsprozessen und der Erarbeitung und Bewertung von Handlungsoptionen für Politik und Gesellschaft eine weiter wachsende Bedeutung zu, um Felder des wünschenswerten wissenschaftlich-technischen Fortschritts zu identifizieren. Angesichts vieler Diskussionen um neue Formen politischer Governance in der „fragilen Welt“ steigen die „Technik in einer fragilen Welt – Perspektiven der Technikfolgenabschätzung“ Seite 152 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ITAS-NEWS Erwartungen an Technikfolgenabschätzung und benachbarte Felder, durch Politikberatung und Begleitung gesellschaftlicher Diskurse zur Meinungsbildung und Entscheidungsfindung in Zukunftsfragen aktiv beizutragen. Auf der Konferenz wurden diese thesenartigen Diagnosen durch Analyse der geschilderten Entwicklungen und der Rollen und Folgen des wissenschaftlich-technischen Fortschritts genauer unter die Lupe genommen. Es wurden, vielfach basierend auf Erkenntnissen aus TAProjekten, Strategien der Technikgestaltung unter den Rahmenbedingungen der „fragilen Welt“ aufgezeigt. 3 Die Konferenz Die Konferenz begann mit einer öffentlichen Podiumsdiskussion zum Thema „Neuer schöner Mensch? Möglichkeiten und Grenzen der Menschengestaltung durch Gentechnik und Künstliche Intelligenz“ am Abend des 24. November 2004. Das Eröffnungsplenum am 25.11. war der Nachfrageseite nach TA gewidmet. Daran schloss sich der wissenschaftliche Teil der Konferenz in drei Parallelsektionen mit insgesamt über 30 Vorträgen an, die auf der Basis eines Call for Papers und eines anschließenden Begutachtungsverfahrens ausgewählt worden waren: 1. Fragilität des Individuums: die Herausforderungen der „life sciences“ und der „life technologies“ für die Identität des Menschen. Inwieweit wird der Begriff der menschlichen Person selbst fragil, was bedeutet dies für die Gesellschaft und wie kann darauf reagiert werden? 2. Fragilität der Gesellschaft: auf welche Weise führt Technik direkt oder indirekt zu neuartigen gesellschaftlichen Gefährdungen und steigert die Verletzlichkeit der Gesellschaft? Wie lassen sich frühzeitig Risiken abschätzen und Gegenmaßnahmen ergreifen? 3. Technikgestaltung in einer fragilen Welt: auf welche Weise beeinflusst die Diagnose einer fragilen Welt die Möglichkeiten der Technikreflexion und der Technikgestaltung heute? Wie ändern sich Risikokommunikation, das Verhältnis zu Wissenschaft und Technik sowie technikbezogene Entscheidungsprozesse? Am Abend des 25.11. fand eine Postersession mit insgesamt 16 Teilnehmern statt, in der vor allem der wissenschaftliche Nachwuchs in der TA die Gelegenheit zur Darstellung eigener Forschungsergebnisse hatte. Den Abschluss bildete am Freitag wiederum ein Plenum, in dem der Bogen zurück zum „Netzwerk TA“ und seinen zukünftigen Aktivitäten gespannt wurde. Die Bedeutung der TA für die Politik verdeutlichten die Vorträge von Staatssekretär Wolf-Michael Catenhusen (BMBF), der die Netzwerkgründung begrüßte und dem „Netzwerk TA“ seine Unterstützung zusagte, und Dr. Gerhard Schmid (bis vor kurzem Vizepräsident des Europäischen Parlamentes), der über die Erfahrungen am Europäischen Parlament mit TA berichtete, sowie die Beteiligung von Frau Ulrike Flach (Vorsitzende des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages) an der Podiumsdiskussion. Der Direktor des VDI, Dr. Willi Fuchs, riet dazu, stärker die Wirtschaft einzubeziehen. Dr. Matthias Weber (ARC systems research, Österreich) analysierte Veränderungen der Technologiepolitik im Hinblick auf die Konsequenzen für TA. Zur Konferenz ist eine Buchpublikation bereits in Vorbereitung, die 2005 in der ITASBuchreihe „Gesellschaft – Technik – Umwelt“ bei der edition sigma erscheinen wird. 4 Resonanz und Deutung Die Resonanz auf die Ankündigung der Konferenz übertraf die kühnsten Erwartungen. Bereits der Call for Papers führte zu einer unerwartet hohen Zahl an Einreichungen, so dass trotz der Nutzung der maximal möglichen Zahl von drei Parallelsektionen über je zwei Halbtage hinweg nur ein Teil der Einreichungen – nach einem Begutachtungsverfahren – angenommen werden konnte. Analog verhielt es sich mit dem Teilnehmerkreis. War zunächst die Veranstaltung organisatorisch auf ca. 80 Personen konzipiert, so nahmen mit ca. 150 Teilnehmern dann fast doppelt so viele teil (was auch, das sei nicht verschwiegen, zu einigen räumlichen und kulinarischen „Engpässen“ führte). Diesem in Zahlen ausgedrückten Interesse entsprach eine hoch motivierte Stimmung der Teilnehmer, die Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 153 ITAS-NEWS von der Netzwerkgründung bis zum Abschlussplenum durchhielt. In den Reaktionen vieler Teilnehmer wurde häufig die große Zahl der anwesenden jüngeren Kolleginnen und Kollegen als bemerkenswert erwähnt. Auch die Vielfalt der konzeptionellen und methodischen Ansätze und die hohe Bereitschaft zum gegenseitigen Zuhören wurden als nicht selbstverständlich gewürdigt. Mehrfach wurde die Meinung geäußert, dass mit dieser Konferenz „TA“ erheblich an Fahrt gewinnen werde. „Altlasten“ der TA-Diskussion wie Fragen „TA oder Technikgeneseforschung?“, „Chancen- oder Risikoorientierung“, „TA als Politikoder Wirtschaftsberatung?“, „Praktische Ethik oder Sozialforschung“ wurden zwar gelegentlich diskutiert, aber ohne die entzweiende Wirkung früherer Tage zu entfalten. Der Wunsch und die Bereitschaft, mit dem „Netzwerk TA“ an einem gemeinsamen Dach zu arbeiten, unter dem sich alle Ansätze der technologiebezogenen und auf wissenschaftliche (Gesellschafts-, Wirtschafts- und Politik-)Beratung angelegten Forschung zusammenfinden können, waren deutlich stärker als alle Abgrenzungstendenzen. a) trotz dieser Diversität gegenseitige Anknüpfungspunkte und Gemeinsamkeiten zu finden, und wenn b) die Diversität als Quelle der gegenseitigen Inspiration und der Kooperation gesehen wird. Hierfür stehen die Chancen nach der Konferenz „Technik in einer fragilen Welt – Perspektiven der Technikfolgenabschätzung“ ausgezeichnet. Literatur Petermann, Th.; Coenen, R. (Hrsg.), 1999: Technikfolgen-Abschätzung in Deutschland – Bilanz und Perspektiven. Frankfurt u. a.: Campus (Veröffentlichungen des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS), Bd. 6) Banse, G.; Grunwald, A.; Rader, M. (Hrsg.), 2002: Innovations for an e-Society. Challenges for Technology Assessment. Berlin: edition sigma (Gesellschaft – Technik – Umwelt, Neue Folge 2) Stehr, N., 2003: Die Zerbrechlichkeit der Gesellschaft. Frankfurt a. M.: Suhrkamp (Armin Grunwald, Michael Decker und Ulrich Riehm) 5 Perspektiven So erfolgreich und motivierend Netzwerkgründung und Konferenz verliefen, so stehen die „Mühen der Ebene“ erst noch an. Es gilt, den gesetzten Impuls zu nutzen, um daraus eine dauerhafte Stärkung von TA und verwandten Aktivitäten zu gewinnen. Das „Netzwerk TA“ wird von einer Reihe engagierter Kolleginnen und Kollegen in Kürze mit einer erforderlichen Mindestinfrastruktur versehen. Hierzu gehören möglichst rasch der Aufbau eines Internetportals und die Etablierung einer Mailing-List. Eine weitere Arbeitsform des Netzwerks werden thematische Arbeitskreise darstellen. Weiterhin gibt es bereits Überlegungen zu Netzwerk-Workshops und zu einer nächsten Konferenz. Die Integration so heterogener Forschungsrichtungen wie Praktische Ethik, Systemanalyse, sozialwissenschaftliche Wissenschafts- und Technikforschung, Innovationsforschung, Risikoforschung, Innovations- und Technikanalyse, der Governance-Forschung und weiterer Felder Seite 154 unter dem Dach des „Netzwerks TA“ wird dann erfolgreich sein, wenn es gelingt « New EU Project: The Institutionalisation of Ethics in Science Policy; practices and impact (INES) Debates on technological developments touch fundamental ethical considerations and uncover wide mistrust in public authorities and scientific establishments. Policy makers have reacted by incorporating ethics into the decision making processes of S&T policy. Different nations have different ways of doing this, ranging from advisory expert committees to open debates with relevant stakeholders. The form and method in which ethics is incorporated in S&T varies greatly throughout Europe and its actual impact in decision making is still unclear. Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ITAS-NEWS INES brings together a group of European experts in the area of S&T ethics and the relevant policy making community, to analyse comparatively the manner by which ethics is incorporated into the official decision making structures. The analysis is done in terms of representations of the “ethical problem”; understanding of the concepts “ethics vs morality”, “ethics vs bioethics”; the notion of ethical “expert”; and consideration of lay values in the decision making process. Informed by public perceptions research on “ethics” and paying particular attention to gender differences, the project will explore case studies presenting particular challenges for the incorporation of ethics in decision making (medical genetics, genetic databases and food technologies). The differences in the understanding of the ethical issues and the incorporation approaches chosen will provide the basis for the creation of a “European map” which will be critically examined in terms of impact assessment and best practices. The ultimate goal of INES is to create a pan-European platform where ethics experts, policy makers and relevant stakeholders can debate, exchange information, identify ”best practices” and devise ways to improve the input and impact of ethics in the actual decision making process. The project is carried out on behalf of the European Commission and has a duration of three years (Febr. 2004 - Febr. 2006). It is conducted in cooperation with the following partners: - CESAGen – ESRC Centre for the Economic and Social Aspects of Genomics, Lancaster University; UK (Project-Coordination) - Uob – Centre for the Study of Global Ethics, The University of Birmingham; UK - KUN – University of Nijmegen, Centre for Society and Genomics; The Netherlands - CSSC – Centre for Science, Society and Citizenship; Italy - fBBVA – Fundación BBVA; Spain - STS Centre – Centre of Science, Technology, Society Studies at the Institute of Philosophy, Academy of Sciences of the Czech Republic; Czech Republic - IS – Academy of Sciences of Bulgaria, Institute of Sociology; Bulgaria - RATHENAU – Rathenau Institute; The Netherlands - POST – Parliamentary Office of Science & Technology; UK - viWTA – Flemish Institute for Science and Technology Assessment; Belgium - TA SWISS – Centre for Technology Assessment at the Swiss Science and Technology Council; Switzerland Project Team at ITAS/TAB: Prof. Dr. Armin Grunwald, Dr. Leonhard Hennen (Leonhard Hennen, TAB) « ITAS-Workshop zur Endlagerung nuklearer Abfälle in Deutschland Fragen zum Profil einer zukünftigen sozialwissenschaftlichen Endlagerforschung standen im Mittelpunkt eines zweitägigen interdisziplinären Workshops, den ITAS am 28. und 29. Oktober 2004 in Karlsruhe veranstaltete. Diskutiert wurden Chancen und Risiken deliberativer Politik, die in der aktuellen deutschen Entsorgungsdebatte eine besondere Rolle spielen. Durch Einzelvorträge und ein Round Table-Gespräch wurde zugleich die natur- und ingenieurwissenschaftliche Kompetenz des Forschungszentrums Karlsruhe in die Überlegungen einbezogen. Eingeleitet wurde der Workshop mit dem Titel „Zur Endlagerung radioaktiver Abfälle in Deutschland: Perspektiven für eine sozialwissenschaftliche Begleitforschung“ durch zwei Impulsvorträge. Während Lutz Mez (Freie Universität Berlin) die politisch und gesellschaftlich umstrittene Frage nach der Entsorgung radioaktiver Abfälle in Deutschland in den Kontext der Energiepolitik stellte, wählte Manfred Popp (Vorstandsvorsitzender des Forschungszentrum Karlsruhe) einen anderen Ansatzpunkt. Ausgehend von seinem Engagement für die Bundesregierung in den 1970er Jahren im Rahmen der damaligen Überlegungen zur Nutzung der Kernenergie und der nuklearen Entsorgung beschrieb er Eckpunkte der Endlagerpolitik im zeitlichen Ablauf und ging da- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 155 ITAS-NEWS ran anschließend auf die paradoxe Entscheidungslage in der aktuellen Endlagerpolitik ein. Strukturiert wurde der Workshop durch vier Themenblöcke: (1) Endlager-Politik in Deutschland, (2) Stand der natur- und ingenieurwissenschaftlichen Endlagerforschung, (3) Kontextstrukturen der Endlager-Debatte und deliberative Verfahren als Handlungschance, (4) Chancen und Risiken einer problemorientierten sozialwissenschaftlichen Endlagerforschung. Im Rahmen des natur- und ingenieurwissenschaftlichen Themenblocks moderierte Ortwin Renn (Universität Stuttgart) einen Round Table zu den Leistungen und Defiziten der naturwissenschaftlichen Endlagerforschung, an dem Reinhard Odoj (Forschungszentrum Jülich), Wernt Brewitz (Gesellschaft für Anlagen- und Reaktorsicherheit), Georg Arens (Bundesamt für Strahlenschutz), Detlef Appel (PanGeo Hannover) und Thomas Fanghänel (Forschungszentrum Karlsruhe) teilnahmen. ITAS präsentierte auf dem Workshop Ergebnisse aus seiner Evaluationsstudie über den Arbeitskreis Auswahlverfahren Endlagerstandorte (AkEnd).* Hervorzuheben sind weiterhin die Vorträge von Detlev Ipsen (Gesamthochschule Kassel) und Frank Fischer (Rutgers University/USA). Während Ipsen für einen schrittweisen politischen Entscheidungsprozess bei der Errichtung eines Endlagers plädierte und die dabei auftretenden Vorteile am Verfahrensvorschlag des AkEnd für einen Neuanlauf der Endlagersuche verdeutlichte, skizzierte Fischer die Erfahrungen, die in den USA und Kanada mit Verfahren des „participatory risk assessment“ gemacht wurden. Die Ergebnisse des Workshops werden Anfang 2005 in Form eines Tagungsbandes veröffentlicht. Die TA-TuP wird zu gegebener Zeit darauf hinweisen. * Der ITAS-Endbericht zu diesem Projekt ist über die Homepage des AkEnd zugänglich: http://www.akend.de/projekte/pdf/berichtsband.pdf. (Peter Hocke-Bergler, Crimmitschau/Karlsruhe) » Seite 156 Präsentation der ITAS-Projekte auf der Tagung „Nachwachsende Rohstoffe – Forschungsprojekte für den Ländlichen Raum“ Universität Hohenheim, 14. Oktober 2004 Auf der Tagung wurden erste Forschungsergebnisse des Forschungsprogramms „Forschungsprojekte für den Ländlichen Raum“ des Ministeriums für Ernährung und Ländlichen Raum (MLR) Baden-Württemberg vorgestellt. Das Forschungsprogramm hat einen Umfang von insgesamt 5,1 Millionen Euro und wurde durch das MLR Baden-Württemberg im Jahr 2002 mit Hilfe der Landesstiftung Baden-Württemberg GmbH aufgelegt. Das Programm umfasst insgesamt 16 Projekte, die sich mit der stofflichen und energetischen Nutzung nachwachsender Rohstoffe beschäftigen. In einer Presseerklärung hierzu heißt es: “An den Projekten sind Forschungseinrichtungen der Universitäten Stuttgart und Hohenheim, das Forschungszentrum in Karlsruhe sowie die Fachhochschulen Biberach, Konstanz und Reutlingen beteiligt. `Neben theoretischen Grundlagen werden insbesondere Ansätze für neue Nutzungs- und Verarbeitungsmöglichkeiten erforscht`, so der baden-württembergische Minister für Ernährung und Ländlichen Raum, Willi Stächele MdL. Daneben bilden Fragen der biochemischen Umwandlung und deren technische Umsetzung nachwachsender Rohstoffe einen Schwerpunkt.“ Schätzungen für Baden-Württemberg gehen von einer Steigerung der Bioenergie von derzeit 1,5 % auf rund 10 % des Primärenergieverbrauchs aus. In seinem Impulsvortrag wies Prof. Dr. Bastian Kaiser, Rektor der Fachhochschule Rottenburg, darauf hin, dass die Prognose für Baden-Württemberg auf einen Anteil von 11 % der Primärenergie durch regenerative Energie zielt. Bei Einbezug bestimmter Altholzanteile könne man für Baden-Württemberg davon ausgehen, dass alleine aus Holz mit einem nutzbaren Potenzial von ca. 16 bis 30 Mrd. kWh jährlich nutzbarer Energie gerechnet werden kann. Die Vortragsreihe konzentrierte sich auf drei thematisch zusammenhängende Blöcke. Im Block 1: Grundlagen und Rahmenbedingungen wurde zunächst anhand von drei Vorträgen ein Überblick präsentiert, der von Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ITAS-NEWS Perspektiven der Holzenergienutzung in Baden-Württemberg über die stoffliche Nutzung von Nachwachsenden Rohstoffen anhand der Nutzung von Fasern bis zur Energienutzung vom Grünland reichte. Die Potenziale und der Nutzen von Holz in Baden-Württemberg wurden wie folgt aufgezeigt: Die technischen Potenziale zur energetischen Nutzung naturbelassenen Holzes liegen mit 2,8 Mio. t/a (ca. 48 PJ/a) bei etwa 3 % des Primärenergiebedarfs von Baden-Württemberg. Hiervon werden etwa 48 % als freies Potenzial betrachtet. Die spezifischen Anwendungen, Einsatzgebiete und Produkteigenschaften von Naturfasern wurden in einem weiteren Vortrag ausgeführt. Das ITAS war in diesem Block mit dem Vortrag „Energie aus dem Grünland – eine nachhaltige Entwicklung“ vertreten. Konrad Raab und Volker Stelzer stellten die Chancen der Verwertung überschüssigen Grünlandes für energetische Zwecke heraus. Dabei wurden Flächen- und Energiepotenziale angeführt und Nachhaltigkeitsaspekte der Energiegewinnung aus dem Grünland – in Anlehnung an das integrative Konzept nachhaltiger Entwicklung der Helmholtz-Gemeinschaft (HGF) – bewertet (weitere Informationen zum ITAS-Projekt sind zu finden unter http://www.itas.fzk.de/deu/ projekt/roes0343.htm). Im Block 2: Bioenergie und rationelle Energienutzung wurden Vorträge präsentiert, die von der Verbrennung von Holz sowie von Heu und Getreide bis zur solargestützten Sägeholztrocknung reichten. Dabei befasste sich ein Vortrag mit Feuerungstechniken und den Emissionen bei der Verbrennung verschiedener Holzbrennstoffqualitäten, wobei das Ziel eine „saubere Holzverbrennung“ war. In einem weiteren Beitrag wurden Untersuchungsergebnisse zu Emissionen bei Verbrennungsversuchen in einer Biomassefeuerungsanlage (Heu, Getreide) präsentiert. Versuche zur Trocknung von Fichtenbohlen mittels Biomasseverfeuerung und Solarunterstützung waren ein weiteres Vortragsthema. Der Anteil der Solarenergie betrug im Jahresmittel 20 - 30 %. Abschätzungen zeigen, dass die Investitionskosten für einen konventionellen Hochtemperaturtrockner etwa 15 % höher liegen als für den Solartrockner. Im Block 3: Perspektiven für Biokraftstoffe wurden Möglichkeiten zur Gewinnung flüssiger Energieträger aus Biomasse aufgezeigt. Hierbei konzentrierte sich ein Vortrag auf die dezentrale Ethanolproduktion; hierzu wurden Abschätzungen zu Massen- und Energiebilanzen sowie Kosten vorgestellt. Zum Schluss dieses Blocks berichtete Lothar Malcher vom Forschungszentrum Karlsruhe über das FZK-BTL-Verfahren (BTL – Biomass To Liquid), dessen systemanalytischer Teil vom ITAS bearbeitet wird. Aufgezeigt wurde im Vortrag unter dem Titel „Slurry- und Synthesegaserzeugung aus trockener Biomasse – zentral oder dezentral?“ die gesamte Prozesskette von der Biomasseaufarbeitung über die Schnellpyrolyse zur Gewinnung von Slurries, deren Vergasung bis hin zur Kraftstoffsynthese. Erste Schätzungen zeigen, dass die Kosten pro Liter Kraftstoff bei 0,8-0,9 € liegen könnten. Zu diesem Themenkomplex war das ITAS außerdem noch mit einem Poster vertreten, das die systemanalytische Begleitforschung des ITAS zu dem Vorhaben der Gaserzeugung aus Biomasse erläuterte (weitere Informationen zu dem ITAS-Projekt sind zu finden unter http://www.itas.fzk.de/deu/projekt/leib0218.htm). Insgesamt gesehen wurde die Veranstaltung von den 160 Teilnehmern als gut gelungen betrachtet. Als Ausblick gab Minister Stächele an, dass geplant sei, die Vortragenden zu weiteren Gesprächen zur Abstimmung über das weitere Vorgehen einzuladen. Alle Referate und Poster sind abrufbar unter: http://www.laendlicher-raum.de/ (Peter Proplesch) « Neue Dissertationsprojekte „Zielkonflikte im integrativen Nachhaltigkeitskonzept der HGF – Auftreten und Lösungsmöglichkeiten am Beispiel der nationalen Bioenergieziele Deutschlands“ Dissertationsprojekt (2004-2007) von Marc Dusseldorp Der Begriff der Nachhaltigkeit spielt in der umwelt- und entwicklungspolitischen Diskussion eine herausragende Rolle. In den vergangenen Jahrzehnten entwickelte sich ein breiter Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 157 ITAS-NEWS gesellschaftlicher und politischer Konsens darüber, dass sich Politik am Leitbild einer nachhaltigen Entwicklung orientieren müsse. Dieser Konsens weicht jedoch einer kontroversen Diskussion, wenn es um die Beantwortung der Frage geht, was unter Nachhaltigkeit konkret zu verstehen und wie das Leitbild für politische Entscheidungen zu operationalisieren sei. So wurden in den vergangenen Jahren verschiedene Konzepte zur Konkretisierung des Leitbildes entwickelt, die sich bereits in ihrer Grundkonzeption unterscheiden, etwa hinsichtlich der „Dimensionen“, die zu einer Erfassung von Nachhaltigkeit einbezogen werden (z. B. Ökonomie, Ökologie, Soziales), sowie in Bezug auf das Verhältnis der Dimensionen untereinander. Im Mittelpunkt des vorliegenden Dissertationsvorhabens steht das für die Nachhaltigkeitsdebatte richtungsweisende integrative Nachhaltigkeitskonzept der Helmholtz-Gemeinschaft Deutscher Forschungszentren (HGF). Als besonders wichtig und zugleich schwierig wird im Zusammenhang mit der Integration der Dimensionen die Frage bezeichnet, wie mit Konfliktfällen umgegangen und welche Abwägungen vorgenommen werden sollen. Stellt sich nämlich in der Praxis heraus, dass nicht alle Forderungen gleichzeitig zu erfüllen sind, müssten entweder alle Zielkomponenten gleichermaßen Abstriche hinnehmen oder aber es müssten Prioritäten festgelegt werden, die klarstellen, welcher Aspekt von Nachhaltigkeit im Konfliktfall Vorrang haben soll. Dieses Problem des Umgangs mit Zielkonflikten ist in Nachhaltigkeitskonzepten generell nicht befriedigend gelöst. Ziel des Dissertationsvorhabens ist es daher, einen Beitrag zur Lösung von Zielkonflikten im Rahmen des integrativen Konzeptes der HGF zu erarbeiten. Dies soll beispielhaft für den Bereich der Bioenergienutzung geschehen. Energie spielt eine zentrale Rolle im Kontext einer nachhaltigen Entwicklung, da sich die Art ihrer Verfügbarkeit in den verschiedensten sozialen, ökonomischen und ökologischen Bereichen auswirkt. So hat auch die deutsche Bundesregierung in ihrer nationalen Nachhaltigkeitsstrategie von 2002 das Ziel formuliert, im Sinne einer nachhaltigen Energieversorgung den Anteil der erneuerbaren Energien künftig stark zu erhöhen. Der Energiegewinnung aus Biomasse wird dabei eine große Bedeutung zugemessen. Seite 158 Damit verbunden wäre nicht zuletzt eine starke Ausdehnung des Anbaus von Energiepflanzen. An dieser Stelle wird deutlich, dass die Ausdehnung der Bioenergienutzung Gefahr läuft, mit anderen Zielen der Nachhaltigkeit in Konflikt zu geraten. Neben den erwünschten Effekten – etwa einer Schonung nicht erneuerbarer Ressourcen und der Reduktion von CO2Emissionen – ist auch mit Entwicklungen zu rechnen, die der angestrebten Extensivierung und „Ökologisierung“ der Landwirtschaft und Naturschutzbelangen entgegenstehen. Zunächst soll untersucht werden, welche nachhaltigkeitsrelevanten Implikationen mit dem Ausbau der Bioenergienutzung zum Erreichen der nationalen Bioenergieziele verbunden sind. In einem nächsten Schritt sollen die Zielkonflikte, die dabei im Rahmen des integrativen Nachhaltigkeitskonzepts auftreten, ausgemacht und charakterisiert werden. Auf Grundlage von bestehenden Ansätzen zum Umgang mit Zielkonflikten sowie des gerechtigkeitstheoretischen Diskurses soll schließlich der Versuch unternommen werden, eine Methodik zur Lösung von Zielkonflikten im integrativen Nachhaltigkeitskonzept zu entwickeln. Betreuung am ITAS: Dr. Christine Rösch, Jürgen Kopfmüller Betreuung an der Universität Karlsruhe: Prof. Dr. Manfred Meurer, Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften, Institut für Geographie und Geoökologie (Marc Dusseldorp) « Identität und Gemeinschaft in der netzbasierten Kommunikation – Eine Vergleichsanalyse unter kulturellen Aspekten Dissertationsprojekt (2004-2007) von Robert Hauser Robert Hauser hat an der Universität Leipzig Kulturwissenschaften, Kommunikations- und Medienwissenschaften sowie Religionswissenschaften studiert. Abschluss mit Magister Artium (2003) Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 ITAS-NEWS Betreuung: Gotthard Bechmann (ITAS); Prof. Dr. Gerhard Banse, Fraunhofer-Anwendungszentrum Logistiksystemplanung und Informationssysteme. « Personalia Neuer Mitarbeiter Konrad Raab hat an der Universität Hohenheim Biologie (Diplom) studiert. Anschließend war er als freiberuflicher Wissenschaftler in den Bereichen Landwirtschaft, Naturschutz, Bodenschutz und Abfallwirtschaft tätig. Von 1999 bis August 2004 war er wissenschaftlicher Mitarbeiter am Institut für Energiewirtschaft und Rationelle Energieanwendung der Universität Stuttgart, Abteilung Systemanalyse und Erneuerbare Energien. Sein Arbeitsschwerpunkt war die energetische Nutzung von Biomasse, insbesondere in der mehrjährigen Mitarbeit im Biomasse Info-Zentrum. Am ITAS wird Herr Raab im Projekt „Energie aus dem Grünland – eine nachhaltige Entwicklung?“ mitarbeiten. In Baden-Württemberg sind 39 % der landwirtschaftlich genutzten Fläche als Dauergrünland ausgewiesen. Trotz der allgemein hohen Wertschätzung des Grünlands scheint jedoch insbesondere in benachteiligten Gebieten der Rückgang der traditionellen Grünlandnutzung unaufhaltsam. In einigen Regionen gibt es bereits heute Grünlandflächen, die nicht mehr für die Rindviehhaltung verwendet werden. Für die Zukunft wird angenommen, dass die „dauergrüne“ Futterflächennutzung weiter zurückgehen wird und Wiesen und Mähweiden mit erheblichem Flächenumfang aus der Nutzung genommen werden. Grund hierfür sind die fortschreitenden produktionstechnischen Entwicklungen und agrarstrukturellen Veränderungen. Für diese „überschüssigen“ Grünlandflächen könnte die Verwendung des Aufwuchses zur Energiegewinnung eine alternative Nutzungsoption darstellen. In dem im November 2003 begonnenen Projekt des ITAS wird analysiert, welche Ver- fahren zur energetischen Nutzung von Biomasse aus dem Grünland zur Verfügung stehen und wie nachhaltig diese Verfahren sind. Herr Raab wird sich v. a. mit der Ermittlung und Beschreibung der technischen, ökonomischen und ökologischen Kenngrößen dieser Verfahren beschäftigen. In Abhängigkeit von den Substrateigenschaften kommen die Verfeuerung, die Vergärung und die Vergasung in Frage. Für den Einsatz von Gras müssen diese Nutzungswege allerdings noch weiterentwickelt bzw. angepasst werden. Im weiteren Verlauf des Projektes sollen in zwei besonders von der „Grünlandfreisetzung“ betroffenen Gebieten Baden-Württembergs die erarbeiteten Ergebnisse abgesichert und Entscheidungswissen für eine nachhaltige Entwicklung des Grünlands erarbeitet werden. Das Projekt im Internet: http://www.itas.fzk.de/deu/projekt/roes0343.htm Kontakt Konrad Raab Forschungszentrum Karlsruhe Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) Postfach 36 40, 76021 Karlsruhe Tel.: +49 (0) 72 47 / 82 - 64 85 Fax: +49 (0) 72 47 / 82 - 48 06 E-Mail: raab@itas.fzk.de Internet: http://www.itas.fzk.de « Habilitation Dr. Rolf Meyer, Mitarbeiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und zurzeit beurlaubt zum Scientific and Technological Options Assessment (STOA) Programm des Europäischen Parlaments, hat sich am Fachbereich 09 – Agrarwissenschaften, Ökotrophologie und Umweltmanagement der Justus-Liebig-Universität Gießen für das Fachgebiet „Agrar- und Ressourcenökonomie“ habilitiert. Nach der Habilitationsschrift zum Thema „TechnikfolgenAbschätzung im Bereich Landwirtschaft und Ernährung“ und einem Vortrag mit anschlie- Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 159 ITAS-NEWS ßendem Kolloquium zum Thema „Nahrungsmittelqualität als Fragestellung der Technikfolgen-Abschätzung“ wurde sein Habilitationsverfahren am 19. November 2004 mit der Antrittsvorlesung zum Thema „Gentechnisch veränderte Nutzpflanzen – technische Entwicklungen, gesellschaftliche Kontroversen und politische Gestaltung“ abgeschlossen. » Bibliography Decker, Michael; Ladikas, Miltos (Eds.): Bridges between Science, Society and Policy. Technology Assessment – Methods and Impacts. Berlin, Heidelberg, New York: Springer 2004 (Wissenschaftsethik und Technikfolgenbeurteilung, Band 22) XIV, 250 S., Geb., ISBN 3-540-21283-3, Euro 53,45 [see also the article by Michael Decker, ITAS, and Miltos Ladikas, Europäische Akademie GmbH, in this journal, vol. 13, no. 1 (March), 2004, pp. 71-80; only in German; http://www.itas.fzk.de/tatup/041/dela04a.htm] Neue Veröffentlichung «» “Bridges between Science, Society and Policy” – TAMI results published This book summarises the results of the project TAMI (Technology Assessment in Europe – between Method and Impact). This was a twoyear thematic network, funded by the STRATA programme of the European Commission, that brought together the main institutes of technology assessment in Europe, both parliamentary and non-parliamentary. ITAS together with the Europäische Akademie Bad Neuenahr-Ahrweiler and POST – the Parliamentary Office of Science and Technology (UK) formed the core group of the network. TAMI created a structured dialogue between technology assessment experts and policymakers on current methodologies and their impact on policymaking. The TAMI team explored and assessed the whole spectrum of methodologies from the “classical” to the “interactive/participatory” and “communicative”, identified good practices in project implementation and set the stage for impact evaluation based on objective criteria. Finally this book offers a series of policy recommendations based on the findings of the project. Science, Society and Policy, are three areas that technology assessment functions within and works for; this book is an attempt to improve the interaction amongst them for a more socially and economically sustainable Science and Technology policy in Europe. Seite 160 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 TAB-NEWS TAB-NEWS TAB-Berichte im Deutschen Bundestag Sieben TAB-Berichte werden zurzeit in den Gremien des Deutschen Bundestages beraten: - Der Bericht des TAB zu Nanotechnologie (Drs. 15/2713) durchläuft augenblicklich in mehreren Fachausschüssen die Phase der so genannten „2. Lesung“ – beispielsweise im mitberatenden Gesundheitsausschuss. Im federführenden Ausschuss für Bildung, Forschung und Technikfolgenabschätzung (ABFTA) liegen bereits Anträge der Fraktionen im Zusammenhang mit dem TABBericht vor. - Die abschließende Beratung des TAB-Berichtes Kernfusion (Drs. 14/8959) ist verschoben worden. Nachdem die Fraktionen der Opposition ihre Anträge bereits vorgelegt haben, soll nun gewartet werden, bis die Koalitionsfraktionen ihren gemeinsamen Antrag abgestimmt haben. - Die drei Berichte des TAB zur Zukunft der Nahrungsmittel (Drs. 15/1673, 15/1674, 15/1675) sind zunächst im federführenden Verbraucherausschuss anberaten worden. - Der Bericht zur Präimplantationsdiagnostik (Drs. 15/3500) wird augenblicklich zur Überweisung vorbereitet, ebenso der 2. Sachstandsbericht „Biometrie und Ausweisdokumente“, der zusammen mit dem 1. Sachstandsbericht (Drs. 14/1005) beraten werden soll. Der TAB-Bericht „Maßnahmen für eine nachhaltige Energieversorgung im Bereich Mobilität“ (Drs. 15/851) ist noch in der Warteschleife. «» Neue TAB-Themen Seit September dieses Jahres ist ein neues Themenfindungsverfahren eingeleitet worden. Aus insgesamt siebzehn Vorschlägen aus der Mitte des Deutschen Bundestages ist zunächst das Thema „Pharmakogenetik“ gewählt und bereits vom zuständigen Ausschuss für Bildung, Forschung und Technikfolgenabschätzung beschlossen worden. Nach intensiver Diskussion zwischen Berichterstattern und TAB sind zudem drei weitere Themen bestimmt worden, die dem Ausschuss zur Beschlussfassung vorgelegt werden sollen: - Biobanken - Perspektiven eines CO2- und emissionsarmen Verkehrs – Kraftstoffe und Antriebe im Überblick - Individuelle Medizin und Gesundheitssystem (Zukunftsreport) «» Neue Veröffentlichungen TAB-Hintergrundpapier Nr. 10 „Instrumente zur Steuerung der Flächennutzung – Auswertung einer Befragung der interessierten und betroffenen Akteure“ (Verfasser: Juliane Jörissen, Reinhard Coenen), April 2004 Im Rahmen seines Projektes „Reduzierung der Flächeninanspruchnahme – Ziele, Maßnahmen, Wirkungen“ hat das TAB eine schriftliche Befragung von ausgewählten interessierten und betroffenen Akteuren durchgeführt. Zweck der Befragung war es, die Vor- und Nachteile der verschiedenen Instrumente zur Steuerung der Flächennutzung aus der Sicht unterschiedlicher Interessenstandpunkte zu beleuchten und wichtige Konfliktlinien aufzuzeigen. Die Auswertung von Stellungnahmen und Positionspapieren ergab ein aktuelles Meinungsbild der zentralen Interessengruppen und Verbände zu den Zielen und Instrumenten einer nachhaltigen Flächennutzungspolitik in Deutschland. „Begrenzte Auswahl? Praxis und Regulierung der Präimplantationsdiagnostik im Ländervergleich“ (Autoren: Leonhard Hennen, Arnold Sauter), edition sigma, Berlin, 176 S., € 18,90, Studien des Büros für TechnikfolgenAbschätzung, Bd. 17, ISBN 3-89404-826-3 Die Präimplantationsdiagnostik (PID) ist ein höchst umstrittenes Verfahren. Nach augenblicklicher Rechtslage ist es in Deutschland Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004 Seite 161 TAB-NEWS verboten. Bei der PID werden menschliche Embryonen auf Anlagen für eine genetisch bedingte Erkrankung im Rahmen der künstlichen Befruchtung daraufhin untersucht, ob sie für eine Einpflanzung in die Gebärmutter geeignet sind. Ihre Nutzung hat in den vergangenen Jahren zu intensiven Diskussionen in Öffentlichkeit und Politik geführt, ohne dass bisher eine Entscheidung des Gesetzgebers über die Zulässigkeit des Verfahrens getroffenen worden ist. Zu der zentralen Frage, ob durch geeignete rechtliche Maßnahmen die Anwendung der PID wirksam auf ein eng definiertes Spektrum von Fällen (z.B. besonders schwere erbliche Erkrankungen) eingeschränkt werden kann, stehen mit dem Bericht des TAB erstmals umfassende und belastbare Informationen zur Verfügung. Das TAB hat die unterschiedlichen Formen der Regulierung des Einsatzes der PID sowie die Entwicklung der jeweiligen medizinischen Praxis in sieben ausgewählten Ländern untersucht. Das Buch zeigt die Reichweite und Grenzen verschiedener Regulierungsmodelle auf (Selbstregulierung von Angebot und Nachfrage, gesetzliche Einschränkung der Nutzung, Steuerung durch eine Kontrollbehörde, gesetzliches Verbot). Dabei werden die Schwierigkeiten einer Eingrenzung der Praxis der PID angesichts der Nutzungsansprüche von Betroffenen und den sich ständig weiter entwickelnden gendiagnostischen Möglichkeiten deutlich. Die Veröffentlichungen des TAB können schriftlich per E-Mail oder Fax beim Sekretariat des TAB bestellt werden: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, Neue Schönhauser Straße 10, 10178 Berlin, E-Mail: buero@tab.fzk.de, Fax: +49 (0) 30 / 28 49 11 19. (Thomas Petermann) «» Seite 162 Technikfolgenabschätzung – Theorie und Praxis Nr. 3, 13. Jg., Dezember 2004