Risiko in der Wissenschaft – Wie sollen wir damit umgehen? | Sternstunde Philosophie | SRF Kultur

Risiko in der Wissenschaft – Wie sollen wir damit umgehen? | Sternstunde Philosophie | SRF Kultur

Show Video

. Mit Untertiteln von SWISS TXT Herzlich willkommen. Genau zehn Jahre ist es her seit der Nuklearkatastrophe von Fukushima. Wie riskant ist die Kernenergie heute? Und wie steht es um die Alternativen? Wie sollen wir vernünftig mit Risiken umgehen - als Einzelne, aber auch aus Gesellschaft? Etwa im Umgang mit COVID-19 und der Frage, ob wir uns impfen lassen sollen oder nicht. Darüber rede ich jetzt mit der promovierten Physikerin und Philosophin Rafaela Hillerbrand. Sie ist Professorin für Technikethik und Wissenschaftstheorie am Karlsruher Institut für Technologie. Herzlich willkommen, Frau Hillerbrand. - Hallo.

Welche Risiken haben Sie in Kauf genommen, um in diese Sendung zu kommen? Vielleicht ein erhöhtes Infektionsrisiko, da ich mit den öffentlichen Verkehrsmitteln angereist bin. Das hielt sich in Grenzen, denn die Bahn ist noch relativ leer. Ich bin relativ früh losgefahren, da merkte man, dass die Strassenbahnen doch sehr voll sind. Da merkt man auch, dass das COVID-19-Infektionsrisiko auch eine Sache von sozialem Status ist. Denn jene, die vor 6 Uhr in die Strassenbahn steigen, sind wahrscheinlich eher am unteren Ende des Lohnspektrums. Sie setzen sich damit grösseren Risiken aus als Leute wie ich, die ganz einfach im Homeoffice sitzen können.

Sie beschäftigen sich schon seit vielen Jahren intensiv mit Fragen des Risikos, mit der Ethik des Risikos im Umgang. Hat Sie das eigentlich eher risi- koscheu oder risikofreudig gemacht? Das kann ich so nicht beantworten. Ich bin von Natur eher eine risikoaverse Person.

Also risikoscheu. - Genau. Es hat mir aber dabei geholfen, mit Unsicherheiten umzugehen. Ich informiere mich immer gerne sehr breit. Das ist mir zweimal bei Impfungen aufgefallen. Ich gehe lieber mit ungewissen Ausgängen um, als dass ich das Gefühl habe, mir wird Information verschwiegen.

Meine Tochter ist vier, sie ist komplett geimpft. Wir wohnen in den Niederlanden und in Deutschland. Wir liessen sie in den Niederlanden impfen - das war damals unser Hauptwohnsitz. Da wurde man bei der ersten Impfung wirklich abgefragt: "Kennen Sie die Impfnebenwirkungen?" Man bekam eine Telefonnummer: "Bei nicht aufgelisteten Impf- nebenwirkungen rufen Sie hier an." Wenn ich mich oder meine Tochter in Deutschland impfen lasse und ich nach möglichen Nebenwirkungen frage, heisst es: "Nein, nein, gibt es keine."

Das macht misstrauisch, wenn man nicht gut informiert ist. Ja. Wir wissen: Langzeitfolgen können wir nicht mit Sicherheit vorhersagen - damit können wir umgehen. Aber wenn man das ignoriert ...

Bezüglich COVID-19-Impfungen hörte man von vielen Lokalpolitikern: "Es gibt keine Nebenwirkungen." Natürlich wurden nach besten Wissen und Gewissen und heutigem Standard der Wissen- schaft klinische Tests gemacht. Aber die Langzeitfolgen kann man nicht vorhersagen.

Der Präsident des Weltärztebundes Montgomery sagte: "Alles über die Langzeitfolgen ist Spekulation." Das beruhigt mich dann wieder. Dann lasse ich mich impfen. Wenn man mit der Information oder dem Fehlen derselben umgeht. Also transparent mit Unsicherheit umgehen. Dann haben Sie auch den Mut, auf Ihr Bauchgefühl zu hören.

Wenn Sie sich gut informiert haben und um die Unsicherheit wissen, dann können Sie das Risiko eingehen. Beim Bauchgefühl wäre ich vorsichtig. Das Bauchgefühl ist wichtig als Indikator, ob was schiefgehen kann. Aber wenn man Zeit für eine Entscheidung hat, ist das Bauchgefühl ein erster Indikator, sollte aber nicht der Grund für eine Entscheidung sein. Nur der Ausgangspunkt.

Wenn man sich weiter informiert, sollte man sich in bestimmten Fällen auch gegen das Bauchgefühl entscheiden. - Genau. Es sind immer Abwägungen. Ich habe den Eindruck, wir blenden im Alltag viele Risiken aus. Wenn wir mit dem Auto auf der Strasse fahren oder uns auf eine bestimmte Weise ernähren.

Ist es gut, bestimmte Risiken auszublenden, oder ist es naiv? Sollte man sich immer so gut wie möglich informieren? Da gibt es pragmatische Grenzen, wenn man sich so gut wie möglich informieren sollte. Aber man sollte eine gewisse Art von Rationalität in seiner Risikoherangehensweise haben. Z.B. von staatlicher Ebene. Es gab Szenarien für eine SARS-CoV-2-Erkrankung aus dem Jahre 2012 - eine Studie, beauftragt von der deutschen Bundesregierung.

Dort ist beinahe die Blaupause für 2020 zu lesen. Was 2020 passiert, mit der Ausbreitung des Virus. Es nimmt auch seinen Ausgangspunkt in China, vielleicht eineinhalb bis zwei Monaten versetzt, deutlich später.

Es wird angegeben, dass das mit einer Wahrscheinlichkeit von einem im Jahrhundert bis einmal im Jahrtausend auftritt, also relativ oft. Wenn man das dem gegenüberstellt, dass ein nukleares Endlager 1 Mio. Jahre sicher sein muss, dann ist da zumindest mit Vorsicht zu walten.

Eines ist - zwar nicht ganz - ein Naturereignis, da auch die Ausbreitung des Virus menschengemacht ist, durch die Zoonosen. Technische Risiken müssen anders behandelt werden. Aber gleichzeitig stimmt da etwas nicht, wie wir unsere Risiken ... Wir wussten also quasi schon acht Jahre lang, dass die Wahrscheinlichkeit für so etwas ziemlich hoch ist.

Einmal in 100 Jahren oder einmal in 1'000 Jahren. Das ist relativ häufig. Das wäre ein guter Grund gewesen, bessere Vorkehrungen zu treffen.

Jetzt hört man aber auch oft eine Zeitdiagnose über unsere Gesellschaft: eine Null-Risiko-Gesellschaft. Auf den Skipisten in der Schweiz tragen alle Helme. Die Kinder sind im Kindersitz im Auto angeschnallt.

Man spricht von einer Vollkasko-Mentalität. Würden Sie dem zustimmen, dass die Risikoscheu, das Sicherheitsbedürfnis zugenommen hat in der Gesamtgesellschaft? Ich denke schon. Das ist auch ein Ausdruck von Wohlstand. Das assoziieren wir mit Fortschritt. Die Kinder haben vor 20 oder 40 Jahren keine Helme getragen und sind auch gross geworden, aber die Kindersterblichkeit war deutlich höher. Das Gleiche gilt für COVID-19. Es betrifft v.a. die Menschen über 70.

Aber wir assoziieren das mit Fortschritt: dass wir bei Gesundheit länger leben können. Man darf nicht das Kind mit dem Bade ausschütten. Ich hatte einen Kollegen, John Adams in England, der es wunderschön illustrierte. England ist in vieler Hinsicht und in kleinen Dingen sehr risikoavers. Er nannte das Beispiel Kinderspielplatz.

Da wurde der Sand entfernt und mit Plastik ersetzt, da der besser nachgibt. Die Schaukeln wurden ersetzt. Man könnte sich darin verheddern. Und: Es waren keine Kinder mehr auf dem Spielplatz, was ihn super sicher machte - und auch nutzlos. Wenn man die Sicherheit stark steigert, wird es lebensfeindlich und die Leute können oder wollen sich nicht mehr dort aufhalten. Sie haben es schon gesagt: Sie sind mit dem Zug aus Karlsruhe angereist. Dort arbeiten Sie als Professorin am Karlsruher Institut für Technologie.

Dieser Zug, diese Fahrt braucht natürlich Strom. Ein Grossteil des Stroms stammt sowohl in der Schweiz als auch in Deutschland immer noch aus Kernkraftwerken. Die sind unfallanfällig. Vor zehn Jahren ereignete sich die Katastrophe in Fukushima.

Am 11. März 2011 erschütterte ein Seebeben der Stärke 9 Japan und löste an der Ostküste bis zu 15 m hohe Tsunamiwellen aus, die weite Landstriche zerstörten. 20'000 Menschen starben dabei.

Im Kernkraftwerk Fukushima kam es zu einer nuklearen Katastrophe, zu einer Kernschmelze in den Reaktoren. Es trat Radioaktivität aus, die die ganze Umgebung verstrahlte. Rund 160 Personen mussten die Gegend verlassen. Was hat die Welt aus diesem schrecklichen Ereignis gelernt? Ähm ... Es ist viel passiert nach Fukushima.

Wenn man die letzten zehn Jahre Revue passieren lässt, ist es gut, sich auf die konkreten Folgen zu besinnen. Sie hatten es schon angesprochen. In Fukushima kam es zur Kernschmelze in den drei laufenden Reaktoren. Infolgedessen wurde viel Radioaktivität frei.

Sie wurde auch über den Pazifik getragen, hat sich weltweit verteilt - in Deutschland oberhalb der Nachweisgrenze, aber nicht gesundheitsschädlich. Vor Ort war das anders. Es kam in der Folge der Evakuierung der Gebiete zu über 2'000 Todesfällen - v.a. unter älteren und kranken Menschen. Es war nicht nur eine nukleare Katastrophe.

Es war eine nukleare Katastrophe in einem Erdbebengebiet. Man hat bei der Evakuierung sehr viele Fehler gemacht. Es war ganz dramatisch. Ein Bus mit älteren Leuten wurde einfach irgendwo ausserhalb der Strahlengefahr hingeschoben, wurde dann aber vergessen.

Es starben über 2'000 Leute - das waren deutlich mehr als die Toten durch den Tsunami und das Erdbeben im Gebiet. Es gibt nur einen unmittelbaren Strahlentoten - einen Arbeiter. Es gab auch eine Entschädigung. Er verstarb an Lungenkrebs, die Familie bekam eine Entschädigung durch den japanischen Staat. Bei den Schätzungen sind wir im Bereich Risiken, Unsicherheiten. Zu 100 % kann man solche Strahlentote nicht nachvollziehen - immer nur mit bestimmten Plausibilitäten.

Momentan gehen die Schätzungen der Wissenschaft sehr auseinander, was ein Strahlentoter ist. Das geht von sehr wenigen bis einige Hunderte. In Deutschland war eine grosse Folge der Ausstieg aus der Kernenergie. Ich hoffe nicht, dass die gelernte Lektion war, dass die Kernenergie riskant ist - das wussten alle vorher. Man ist ausgestiegen.

Bis 2023 gehen bei uns auch noch die verbleibenden drei Meiler vom Netz. Weltweit sieht der Trend anders aus. Man hat immer noch über 400 laufende Kernkraftwerke, 200 in Planung, ungefähr 50 im Bau. Was sich sicher geändert hat, sind die ökonomischen Kosten für die Kernenergie - nicht nur durch Fukushima, aber auch. Die Sicherheitskonzepte sind anders. England war in der Planungsphase für ein Kraftwerk.

Das wird wahrscheinlich gestoppt - aufgrund der ökonomischen Kosten. Mühleberg ging 2019 auch vom Netz - aus ökonomischen Gründen. Was sich auch geändert hat, ist die ganze Haltung zur Energiepolitik. Man hat Energieethik als Fach und als Notwendigkeit entdeckt. Es war nicht nur Fukushima, sondern auch die Folgen der Klimaerwärmung. Aber Fukushima hat viel dazu beigetragen.

Wenn es etwas Gutes aus diesem Unglück gibt, dann vielleicht, dass Energietechniken oder vielleicht jede komplexe Technik nicht einfach schwarz-weiss ist. Wir befinden uns in einer moralischen oder ethischen Bewertung in Graubereichen. Wir können schlecht abschliessend sagen, dass Kernenergie zu den bösen Techniken und immer verboten gehört. Neben diesem Unfallrisiko besteht das Problem der Endlagerung, das immer wieder betont wird. Wie steht man denn aus risiko- ethischer Sicht zu diesem Problem. Sie haben gesagt, 1 Mio. Jahre liegen diese Brennstäbe da.

Ein schönes Beispiel. Ein Teil der Risikoethik kommt v.a. aus der Entscheidungstheorie und der Frage, wie man mit Unsicherheiten umgeht. Bei der Wahrscheinlichkeit eines Unfalls können wir gut sagen, dass wir eine Entscheidung unter Risiko haben. Wir können mit Wahrscheinlichkeiten im Sinne von relativen Häufigkeiten, z.B. Materialtests, angeben, wie häufig mein Ventil in den nächsten zehn Jahren bricht.

Ich kann relative Häufigkeiten und Wahrscheinlichkeiten angeben. Wenn es darum geht, ob diese ökologische Gesteinsformation die nächste 1 Mio. Jahre hält, wie sie die deutsche Bundesregierung für die Stabilität einer Gesteinsformationen für ein Endlager fordert, oder nur 24'000 Jahre, die Halbwertszeit von Plutonium, stabil ist - da können wir keine relativen Häufigkeiten angeben. Weil die Erfahrung für so grosse Zeiträume fehlt. Genau. Wir können das nicht messen. Man kann Schätzungen machen. Man kann vielleicht sagen:

"Ich glaube, das ist stabil mit einer bestimmten Wahrscheinlichkeit." Damit muss man anders umgehen. Mit diesen Risiken im engeren Sinn. "Ich weiss, mit welcher Wahrscheinlichkeit was auftritt." Oder mit den Unsicherheiten, wo ich ungefähr weiss, was passieren kann. Wir haben ein gutes Verständnis dafür, was passiert, wenn viel radioaktive Strahlung frei wird - wir haben es schon gesehen.

In Fukushima, Tschernobyl usw. Aber man muss die ganz unterschiedlich angehen. Dann gibt es den anderen Fall, den wir auch oft in der Technik haben: dass war gar nicht wissen, was alles passieren könnte. Das sind im Deutschen Entscheidung und Ungewissheit.

Im Englischen Ignorance - das bildet es ein bisschen besser ab. Donald Rumsfeld hat vor ein paar Jahren den Begriff der Unknown Unknowns geprägt. Dieses ... Es passiert etwas, was wir überhaupt nicht auf dem Schirm hatten. Das erkennt man natürlich erst im Nachhinein. Gibt es ein konkretes Beispiel aus der Geschichte? Es gibt ein paar Beispiele.

Eines davon ist die Markteinführung von FCKW. Die wurden in den 70er-Jahren v.a. als exzellente Kühlmittel gebraucht und waren inerte Gase, also Gase, die erst mal nicht reagieren. Abzusehen, dass sie in der Atmosphäre bei kühleren Temperaturen, wo man eigentlich erwartet, dass weniger Reaktion auftritt, ozonschädigende Wirkung entfalten, wird gerne als Beispiel gebracht für etwas, was sich im Nachhinein als eine Entscheidung unter Ignoranz herausgestellt hat. Es gibt nicht einfach Risiko.

Es gibt quasi drei Arten. Das Risiko im engeren Sinne. Da kennt man ungefähr die Wahrschein- lichkeiten, dass etwas passiert. Dann gibt es diese Ungewissheit oder Unsicherheit.

Da kann man nicht mal die Wahrscheinlichkeiten angeben, aber man weiss, was die Gefahr ist. Und dann dieses Dritte: Unknown Unknowns. Die komplette Unwissenheit, wo man nicht einmal angeben kann, was eigentlich das Schlechte oder das Gefahrenszenario ist.

Das Schlimme ist: Je weiter ich meinen Entscheidungshorizont wähle, je weiter ich mir anschaue, welche Folgen meine Handlung in der Zukunft hat, Stichwort nukleares Endlager - 1 Mio. Jahre oder 1'000 Jahre - und je globaler ich meine Entscheidungen betrachte, desto eher bin ich in einer Entscheidung unter Ignoranz, unter Ungewissheit. Was ich noch in meine Entscheidung mit rein rechne, ist eine genuin ethische Frage. Wir haben keine Hilfsmittel zur Verfügung. Das interessiert mich. Auf welche Prinzipien stützt man sich? Eine neue Technologie wird entwickelt.

Man kann im Voraus ein paar Risiken oder Wahrscheinlichkeiten für Gefahren berechnen. Aber vieles ist einfach noch offen. Ich denke zurück an die Handys, wo man sich um die Strahlung sorgte. An Gentechnik und solche Sachen.

Wie geht man risikoethisch damit um? Worauf stützt man sich? Gibt es Prinzipien, an die man sich halten kann? Ja. Das kann man mit zwei sehr diametral entgegengesetzten Prinzipien zeigen. Das eine ist Risikominimierung - das kennen wir aus dem Alltag. Ich mache die Handlung, die im Schnitt am wenigsten Risiko erwartet.

Da gehe ich davon aus, dass ich das Risiko kenne - im Sinne von Schaden mal Eintrittswahrscheinlichkeit. So kann ich Kernkraftwerke für ihren Gebrauch auslegen. Aber für all diese Entscheidungen unter Ungewissheit, wo ich keine Wahrscheinlichkeitsangaben habe - auch keine verlässlichen subjektiven Wahrscheinlichkeiten ... Man kann sagen: "Ich glaube, dass die Wahrscheinlichkeit 90 % ist." Aber das kann man nicht ordentlich epistemisch untermauern. Man kennt ein diametral entgegen- gesetztes Entscheidungskriterium, das Vorsorgeprinzip.

Risikominimierung ist im Endeffekt: Schau dir die Gefahren an ... Aber auch den Nutzen, das Gesamtpaket. Das wäre natürlich ideal. Bei der Auslegung von Technik und in der Medizin fokussiert man oft man nur auf den negativen Ausgang. Ideal wäre - und das wird der Technikethik oft vorgeworfen -, dass man den positiven Effekt nicht mit einbezieht. Das nennt man im Deutschen Erwartungs-Nutzen-Theorie.

Ganz klassisch utilitaristisch: Man maximiert nicht den Nutzen, sondern den erwarteten Nutzen, den im Mittel erwarteten Nutzen. Ab da brauche ich irgendwas, das mir das Mittel angibt - eine Wahrscheinlichkeit. Da die oft nicht vorhanden ist, rekurriert man gerne auf das Vorsorgeprinzip. Precautionary Principle. Das bestimmt sehr viel Gesetzgebung und Zulassung von Essen in der EU, Zulassung von Nahrungsmitteln, Umweltpolitik - auch international.

Und das Vorsorgeprinzip ist vielleicht begrifflich notorisch unterbestimmt. In einer starken Formulierung sagt es: Fokussiere auf den schlechtest möglichen Ausgang und versuche, diesem entgegenzu- wirken oder ihn zu vermeiden. In der Technikethik wurde diese letzte Formulierung stark gemacht. Z.B von Hans Jonas. Also das Vorsorgeprinzip als Vermeidung des Worst-Case-Szenario.

Da muss sich die Technikethik zu Recht vorwerfen lassen, dass man zum Nichtstun verpflichtet ist. Dieses Prinzip von Hans Jonas kann natürlich auch lähmen. Er spricht von einer Heuristik der Furcht. "Der schlechten Prognose den Vorrang zu geben gegenüber der guten." "Das ist verantwortungsbewusstes Handeln im Hinblick auf zukünftige Generationen." Aber dann kann man nur noch zu Hause bleiben und nichts tun, wenn man jegliches Risiko ausschliessen will. - Richtig.

Es gibt vielleicht Situationen, wo man genau das machen muss. Wenn z.B. gute Gründe vorliegen zu glauben, dass diese Technik zum Ende der Menschheit führen kann. Das Vorsorgeprinzip, wie es angewandt wird und wie es 1992 in der Rio Declaration formuliert wurde, ist auch deutlich schwächer. Man muss immer aufpassen, was man meint, wenn jemand vom Vorsorgeprinzip redet.

Das gibt nur an, dass auch unsichere Vorhersagen ernst genommen werden müssen. Nur weil ich nicht weiss, wie die kausalen Mechanismen sind, die zu einem bestimmten Handlungsausgang führen und nur weil ich mir unsicher über die Wahrscheinlichkeiten bin, heisst das nicht, dass ich diesen unsicheren Handlungsausgang nicht mit in die Erwägungen miteinbeziehen muss. Das ist sicherlich eine sehr rationale Art, mit wissenschaftlichen Prognosen umzugehen. Wissenschaftliche Prognosen sind unsicher. Ein Beispiel: Wenn heute Tiefsee-Mining bei den Fidschi-Inseln gestoppt wird, tut man das oft noch unter Rekurs auf diese Art des Vorsorgeprinzip.

Dieses Vorsorgeprinzip ist in der Politik fest verankert - in der Schweiz, Deutschland, der EU, sogar in der UNO. Etwawenn man einen begründeten Verdacht hat, um ein Produkt vom Markt zu nehmen, reicht das schon. Man muss keinen Nachweis führen. Das ist auch ein Beispiel dafür. Und trotzdem: Jetzt hat man diese zwei Prinzipien.

Das eine ist: Vermeide den Worst Case. Das andere ist, den Mittelwert zu nehmen und sich dann für die bestmögliche Option, die am wenigsten Risiko birgt, zu entscheiden. Man muss sich trotzdem überlegen, auf welches Prinzip man sich in der konkreten Situation stützt und wie man entscheidet.

Das braucht so etwas wie Urteilskraft. Wie macht man das? Gut zu erwähnen ist: Am Ende ist es ein ganzes Spektrum, das die beiden Extreme aufmachen. Es gibt mathematisch teils sehr aufwendige Verfeinerungen des Risikoprinzips und auch noch Verfeinerungen des Vorsorgeprinzips. Aber die grundsätzliche ethische Frage, die sich der entscheidende Ingenieur stellen muss, aber vielleicht auch in bestimmten Situationen der Politiker, ist: Bei welcher Art der vorhergesagten Folgen, bei welcher Art von Wissen muss ich welches Prinzip ergreifen? Da sagen diese Konzeptionen erst mal nichts dazu.

Die eher aus der Tugendethik kommende Urteilskraft ... Eine Verstandestugend, eine Haltung, die man trainieren kann, die erst mal eine Verstandestugend ist, eine intellektuelle Tugend, aber immer auf das moralisch Gute gerichtet, könnte dabei helfen. Wir kennen so was weniger aus der Moderne. Wir haben eine Art Revival der Tugendethik seit Mitte des 20. Jh. Es sind eher klassische Gedanken aus der Antike, die einem vielleicht helfen, mit diesen genuinen modernen Problemen im Umgang mit grosstechnischen Systemen und Risiken umzugehen.

Das Ganze geht zurück auf Aristoteles, der in seiner Schrift "Nikomachische Ethik" dafür plädiert, dass eine Tugend eine Haltung ist. Dass es nicht so sehr auf eine Handlung ankommt, sondern dass man ein guter Mensch wird und dann auch diese Urteilskraft hat, um im einzelnen Moment entscheiden zu können. Eine Ärztin kann dann z.B. entscheiden, welche Therapie und welcher Eingriff richtig ist. Das Handbuch würde das noch offenlassen.

Es braucht viel Erfahrung, um konkret zu entscheiden. Interessant finde ich bei Ihnen: Sie unterrichten in Karlsruhe auch Ingenieure. Sie leiten derzeit eine Akademie für verantwortungsvolle Forschung, Lehre und Innovation. Sie sind quasi für die ethische Ausbildung der Ingenieure zuständig. Was bringen Sie denen bei? Welches Selbstverständnis als Ingenieure haben die? Die meisten jungen Leute, dazu gehören auch die Ingenieur-Studierenden, sind heute ganz anders für ethische Themen sensibilisiert - auch in der eigenen Arbeit - als noch vor 20, 30 Jahren. Uns ist wichtig, den Ingenieuren nicht einfach ethische Theorie beizubringen.

Die meisten Leute, die heute die Tugendethik stark machen in der angewandten Ethik, verstehen die Tugendethik entweder als Ergänzung oder auch als instrumentell wertvoll zur Umsetzung von utilitaristischen Konzeptionen, Nutzen-Ethik-Konzeptionen. So sehen wir das auch. Im ethischen Sinn gute Technik bedarf natürlich bestimmter rechtlicher Rahmenbedingungen, bestimmte Regularien - das darf man nicht vergessen. In Deutschland macht das z.B. der Verein für deutsche Ingenieure.

Gleichzeitig lässt sich gute Technik nicht an einem Kriterienkatalog abarbeiten, auch nicht an ethischen Theorien. Denn zum einen ist es ja Forschung. Es gibt prospektiv neue Dinge, die man nicht von vornherein regeln kann. Wir sind in einer Zeit von CRISPR/Cas.

Wir wollen ja angewandte Wissenschaftler, die sensibilisiert sind, dass so eine Genschere vielleicht ethische Probleme haben könnte, die sie vielleicht nicht bis ins letzte Detail durchdenken müssen, aber ein moralischer Kompass ... Das könnte diese Urteilsfähigkeit leisten: einen moralischen Kompass. Können Sie noch zwei Sätze zu dieser Genschere, zu CRISPR/Cas sagen. Es ist eine Möglichkeit, relativ gezielt in das Erbgut einzugreifen und damit für mehrere Generationen das Erbgut zu verändern - auch von lebenden Organismen. Letztes Jahr gab es den Chemie-Nobelpreis dafür.

Ein sehr versatiles Werkzeug mit unglaublichem Potenzial für die medizinische Forschung, aber natürlich auch mit Problemen. Philosophisch interessant ist natürlich die Frage, ob es irgendwelche Stopps geben muss für die Forschung. Denken wir an Einstein zurück - mit der Atombombe.

Er hat mit seiner Relativitätstheorie die Grundlagen für Kernkraft, aber auch für die Atombombe gelegt. Das zeigt die Ambivalenz der Technik, aber auch die Verantwortung, die mit Wissen einhergeht, und die Macht, die man mit Wissen hat. Gibt es gute Gründe, um zu sagen: "Da sollte man die Forschung stoppen." Die liegen vielleicht anders als der Fall von CRISPR/Cas.

Es gibt bestimmte Fragen, die wir uns aus der Überlegung heraus, wie wir unsere Gesellschaft leben wollen, nicht stellen sollten. Das betrifft Fragen zu Unterschieden zwischen Menschen. Das ist eher der Fall, als dass wir nicht in bestimmte Wissensbereiche vordringen können.

Dass man sich bestimmte Fragen gar nicht stellen soll? Ja. Wenn bestimmte Fragen im Widerspruch sind zu dem, wie wir unsere demokratische Gesellschaftsordnung leben wollen. Wir gehen von der Gleichheit aller Menschen aus.

Dann ist natürlich problematisch, das in Studien zu hinterfragen. Sie werden aber gemacht. Was wäre konkret so eine Frage? Ob es Unterschiede zwischen Menschen unterschiedlicher Hautfarbe in Bezug auf relevante Eigenschaften unserer Gesellschaft gibt - Intelligenz usw. Ich sehe so was sehr kritisch. Dazu sollte man eigentlich gar kein Forschungsprojekt lancieren? Ich würde mir wünschen, dass eine Ethikkommission genau hinschaut. Gerade die Forschungsfrage, die ich als Beispiel formuliert habe, ist mit grossen Unsicherheiten verbunden.

Wenn man es durchexerziert ... Intelligenz ist ein schwer messbares Konzept. Die Operationalisierung ist schwierig. Man hat immer bloss eine kleine Auswahl der Bevölkerungsgruppe.

Wenn ich weisse Menschen aus einer sozial benachteiligten Schicht nehme und die dunkelhäutigen Nobelpreisträger, ist das Ergebnis anders als andersrum. Da wünsche ich mir, dass eine Ethik- kommission sehr genau hinschaut. Oder dass wir als Gesellschaft solche Fragen gar nicht stellen wollen. Bei Dingen wie CRISPR/Cas verstehe ich den Wissenstrieb der Naturwissenschaftler, und dieser Fokus darauf, dass etwas Gutes herauskommen könnte. Die Dual-Use-Problematik besteht immer. Das heisst also ...

Ich habe einen Hammer dabei. Das ist ein Werkzeug. Den kann man dazu verwenden, einen Nagel einzuschlagen. Aber ich kann auch jemandem den Kopf damit einschlagen. Eine These ist: Technik ist immer neutral.

Es kommt darauf an, was man damit macht - auf die Anwendung. Aber so leicht ist wohl nicht. Die Dual-Use-Problematik gibt es nicht nur bei klassischen Dingen wie Atomenergie oder grossen Rechenzentren. Es gibt einen Atomwaffentest-Sperrvertrag.

Aber natürlich werden Atomwaffen getestet - auf Computermodellen, in grossen Rechenzentren. Auch bei Rechenzentren hat man eine Dual-Use-Problematik. Aber der Grossteil der Technikethik war im 20. Jh. stark mit der Umweltethik verbunden. Sie befasst sich gar nicht damit, neutrale Technik für ein verwerfliches Ziel zu gebrauchen, sondern eher mit den Nebenwirkungen des guten oder zumindest ethisch neutralen Gebrauchs. Beispiel: Fukushima. Risiko-Störfälle. Aber auch Beispiele wie kontinuierliche Nebenwirkungen, z.B. CO2-Emissionen bei der Verbrennung fossiler Energieträger.

Dann gibt es noch das Phänomen, dass Technik eine Eigendynamik an- nehmen kann und es nicht mehr so ist, dass wir die Technik als Mittel zum Zweck benutzen, sondern die Technik uns benutzt, uns verändert - unser Erleben, unser Zeitgefühl. Z.B. macht ein Handy viel mit uns. Es macht uns natürlich auch abhängig. Es verändert unsere Routinen, unsere Lebensgewohnheiten, unsere Art, wie wir die Welt sehen. Das haben auch die Eisenbahn und das Flugzeug - die Distanzen.

Es gibt diese lange, technikkritische Tradition in der Philosophie - von Rousseau bis zu Heidegger. Von Entfremdung - z.B. bei Marx. Dass die Technik uns von der Natur, aber auch von uns selbst entfremdet.

Ist das in der modernen Technikphilosophie noch ein Thema? Gibt es noch die Optimisten und die Pessimisten? Ich glaube nicht. Ich glaube, die Technikphilosophie, ähnlich wie die Wissenschafts- philosophie hat im 20. Jh. ... Diese moderne Art der Technikethik begann in den 60er-Jahren mit der Umweltethik. Das waren Bücher wie "Silent Spring" von Rachel Carson, also ein klassisches umwelt- ethisches Buch, sehr einschlägig. In der Zwischenzeit hat die Technikethik zwei Praxiswenden gemacht und versucht sich heute ... Die erste Praxiswende war, zu erkennen, dass das Handeln des Ingenieurs oder des Technikers im Detail wert ist, sozialwissenschaftlich-philosophisch untersucht zu werden.

Daraus ist eine ganz neue Disziplin entsprungen: STS - Social Studies of Technology. Science and Technology Studies. Dann gab es innerhalb der Philosophie der Technik noch die zweite Praxiswende, dass man versucht, sich frühzeitig in den Technik- entwicklungsdiskurs einzuschalten. Dass man nicht versucht, im Nachhinein zu sagen: "Das war eine blöde Idee." Das wurde der Technikphilosophie lange Zeit vorgeworfen.

Eine Verbotsethik. Das Positive des technischen Handelns wird überhaupt nicht gewürdigt. Und gleichzeitig rückwärtsgewandt. - Immer zu spät. Wenn die Eule nur am Abend fliegt, wenn der Tag schon gelaufen ist. Ein klassisches philosophisches Problem.

Das versucht man heutzutage zu vermeiden. Man versucht sich auf verschiedenste Art, frühzeitig in die Technikentwicklung einzuschalten - zu Zeitpunkten im technologischen Designprozess, wo noch verschiedene Weichen gestellt werden können. Wie machen Sie das ganz konkret? Vielleicht an einem Beispiel in Karlsruhe. Eine neue Technologie, wo Sie sagen: Jetzt müssen wir in die Startlöcher. Jetzt braucht es Ethiker/-innen. Ich nehme ein negatives Beispiel aus der Vergangenheit, weil das gut deutlich macht, was man anders hätte machen können.

Es gibt viele Konzepte. Ein Konzept ist sehr bekannt. Es nennt sich wertesensibles Design, Value Sensitive Design. Die grundlegende Idee dahinter ist, sich in frühen Entwicklungsphasen bewusst zu werden, welche ethischen Werte vertreten werden, welche Stakeholder da sind, sie in den Diskurs miteinzubeziehen und das Ganze dann in technische Produkte umzusetzen. Das Ganze ist nicht iterativ, sondern wirklich ineinander verzahnt.

Man springt wieder zurück von der empirischen zur konzeptionellen Ebene. Beim Produktionsprozess, bei der Innovation hat man also schon die ethischen Werte im Blick, und auch die Betroffenen von dieser Technik. - Genau. In enger Verzahnung mit den Technikentwicklern. Und das Negativbeispiel ...

Ich habe das nicht aus Karlsruhe, sondern von der TU Delft. Da wurde das im Design Department eingeführt. Sie hatten ganz kurz davor eine Entwicklung gemacht: solarbetriebene Nähmaschinen für die Näherinnen in Bangladesch und in Indien, im Niedriglohnbereich, damit sie flexibler sind und nicht unter schlechten baulichen Bedingungen arbeiten müssen. Also wirklich ein sehr gutes Ziel.

Das Resultat dieser Innovation war, dass die Frauen zu Hause arbeiten mussten, weil ihre Männer sie nicht mehr in die Öffentlichkeit gelassen haben, denn sie konnten jetzt von zu Hause aus arbeiten. Ein sehr negativer Effekt für die beteiligten Frauen. Hätte man das Konzept des Value Sensitive Designs angewandt, wäre schnell klar geworden, dass die relevanten Stakeholder ... In diesem negativen Beispiel sind die Stakeholder klar abgegrenzt.

Die Stakeholder sind ganz klar die Frauen, die diese Technologie benutzen. Hätte man sie irgendwie involviert, wäre es nicht zu dieser Fehlentwicklung gekommen. Lassen Sie uns zurückkommen zur Energie und zur Zukunft der Energieversorgung. Wir hatten Fukushima erwähnt. Es stellt sich die Frage, wie wir in die Zukunft gehen und ob wir auf die Risiken der Kernenergie verzichten können. Es gibt eine moderne Technikphilosophie: den Ökomodernismus.

Der sagt Nein. Wir brauchen diese Kernenergie - auch angesichts des Klimawandels. Von Bill Gates ist gerade ein neues Buch erschienen, das auch in diese Richtung geht.

Die Kernenergie ist nicht klimaschädlich. Was halten Sie von dieser Haltung oder von dieser Einschätzung bezüglich Kernkraft? Ich muss ehrlich sagen: Ich teile sie relativ uneingeschränkt. Ich habe momentan das Gefühl, wir haben mit dem Treibhauseffekt und der globalen Erwärmung ein vor uns liegendes Problem. Wir laufen auf den Abgrund zu und hoffen, dass mit erneuerbaren Energien irgendwann mal ein Netz auftaucht. Gleichzeitig haben wir eine verlotterte Brücke, bei der wir, wenn wir drüber gehen, auch noch jemandem Geld geben müssen, dem wir kein Geld geben wollen, aber wir haben diese Brücke. Das ist für mich die Kernenergie.

Ich glaube, dass gut daran getan ist, viel in die Entwicklung von Erneuerbaren zu stecken. Ich sehe aber nicht, dass das unser Problem löst. Unabhängig davon glaube ich, ist der Elefant im Raum, wenn wir über die Energieeinsparung reden - gerade im Westen in entwickelten Ländern. Im Rest der Welt sieht das anders aus. Wir haben den Elefanten im Raum. Und darüber redet niemand.

Dass wir weniger Energie brauchen sollten. - Ja. Was ich über die Kernenergie gesagt habe und diesen Abgrund, auf den wir zulaufen, in freudiger Erwartung, dass sich alle Übertragungs- und alle Speicherprobleme gelöst haben, betrifft natürlich nur den Fall, dass der Energieverbrauch so steigt, wie er gerade zu steigen scheint. Sie haben zwei Bilder. Wir haben einen Abgrund. Wir rennen darauf zu. Es gibt ein schlechtes Netz, das uns nicht tragen wird - die Erneuerbaren. Es gibt daneben eine riskante Brücke, die uns trägt: die Atomkraft.

Solange die Erneuerbaren nicht weiter sind und wir noch so viel Energie verbrauchen, sollten wir über diese Brücke gehen. Vielleicht hält uns dieses Netz. Aber da, wo wir stehen, sehen wir kein Netz. Das ist Fantasie. Natürlich ist viel getan. Und viel an Primärenergieleistung ist gestiegen, was die Erneuerbaren angeht.

Aber das Speicherproblem wird uns auf absehbare Zeit begleiten. Was die Ökomodernisten deutlich machen, ist, dass eine sichere und preiswerte Energieversorgung viele andere ökologische Probleme lösen könnte. Wir haben genug Wasser auf dem Planeten - nur leider in der Form von Salzwasser. Das lässt sich in Trinkwasser umwandeln.

Es ist bloss sehr energieintensiv. Auch Recycling ist ein sehr energieaufwendiger Prozess. Wenn die Energiefrage mal beantwortet ist ...

Man kann jetzt noch nicht absehen, ob das wirklich realistisch ist. Und sicher nicht auf die Zeitspanne, die die deutsche Bundesregierung bis Mitte des Jahrhunderts anlegt. Die Machbarkeitsstudien sind auch ökonomische Machbarkeitsstudien, keine technischen. Ähm ...

Wenn Energie vorhanden ist, mit Erneuerbaren oder mit Kernenergie, lassen sich viele andere ökologische Probleme lösen oder erscheinen nicht mehr so gravierend. Bleiben wir bei dem Problem der Erneuerbaren. Sie haben die Speicherung angesprochen.

Es scheint eines der Hauptprobleme zu sein. Ein Beispiel: Sonnenenergie gibt es Winter weniger. Es gibt quasi ein Loch. Dann hätten wir keine Energie im Winter. Oder das Risiko wäre da. Die Atomkraft wäre so etwas wie eine Rückfalloption in diesen Löchern, wo wir zu wenig Erneuerbare hätten. Das wäre ein Vorschlag, wie wir für die nächsten Jahre ...

Das wäre eine Option - Back-up-Kraftwerke. Das machen wir gerade bei der fossilen Energie. Das könnte man auch mit Kernenergie.

In der Schweiz sieht der Diskus sicherlich anders aus. In Deutschland kommt dieser Diskurs zu spät. Da ist wird alles rückgebaut. Die ökonomischen Kosten ... Ich fokussiere mich auch bloss auf einen Teil der Debatte, auf die ökologischen Aspekte.

Und da muss man auch immer sagen: Auch grüne Technologien haben Probleme. Man kann jetzt beliebige plakative Beispiele nennen: Die Onshore-Windanlagen, die an Land stehen, sind in Deutschland den konservativsten Schätzungen nach für 25'000 tote Fledermäuse pro Jahr verantwortlich. Die fliegen durch. Es sind Säugetiere. Es zerreisst ihnen die Lungen aufgrund des Unterdrucks bei den Rotorblättern. Man nennt das gerne auch Green Green Conflicts.

Andere Konflikte kennt man bei der Batterieentwicklung. Konflikte zwischen Grün und Grün. Ökologie gegen Ökologie. Genau. Wir haben das Problem mit den Stauseen in der Schweiz. Wie hoch dürfen die sein? Und dann gibt es das Akzeptanzproblem bei den Windrädern.

Die Bevölkerung möchte das in der Regel nicht. Ja. Dazu könnte man auch noch interessante Dinge sagen. Ich kenne den deutschen Diskurs vielleicht besser, aber gerade in Deutschland wird von Politikerseite, aber auch von denjenigen, die die Technik umsetzen wollen, gerne auf das Nimby-Phänomen rekurriert - not in my backyard.

Ich bin für grüne Technologie, für Windenergie, aber bitte nicht bei mir, nicht in einem Hinterhof - not in my backyard. Das wird seit den 80er-Jahren als Demonstranz vor sich hergetragen, warum die Umsetzung bestimmter Technologien, die eigentlich als gut erkannt werden, schwierig ist. Es gibt seit 15, 20 Jahren sozialwissenschaftliche Studien zu solchen Standortfragen, die eigentlich alle unisono zeigen, dass es nicht so ist, wie das Nimby-Phänomen nahelegt, dass die Leute, die im Widerstand aktiv sind, egoistisch und uninformiert sind.

Sondern eher im Gegenteil: Sie mahnen an, dass relevante Werte nicht berücksichtigt wurden. Ganz oft geht es hier auch um prozedurale Werte: Die Transparenz der Entscheidungsfindung wird bemängelt, dass die Leute nicht eingebunden werden. Bei den Erneuerbaren stellt sich das Problem: Wie gross macht man das? Im Norden gibt es mehr Wind und im Süden mehr Sonne. Man müsste das Problem eher europäisch statt national denken.

Auf alle Fälle. Man hat vor einigen Wochen in den Medien gesehen, wie in Texas viel von der Strom- versorgung zusammengebrochen ist. Das war ja auch ein Resultat von einem Staat, der sich autark aufstellen wollte. Jetzt haben wir über die Energiewende im Schnelldurchlauf gesprochen.

Vielleicht können Sie noch mal sagen, wo sie die grossen Hürden sehen, warum es so langsam geht. Auch wenn wir noch mal an dieses Vorsorgeprinzip zurückdenken. Sie sagten, wir brauchen die Kernkraft als Rückfalloption. Das ist diese Brücke - mehr haben wir im Moment nicht.

Aber man könnte auch sagen, wenn wir Hans Jonas ernst nehmen, dieses Vorsorgeprinzip, die schlechten Folgen - da haben wir die Unfallrisiken der AKW, das Endlagerungsproblem - müssen wir da so schnell wie möglich raus. Und mehr verzichten usw., egal, was es kostet. Einfach einen anderen Weg wählen. Aber gleichzeitig muss man auch fragen: Wann verwende ich das Vorsorgeprinzip, wann ein Risiko? Wie weit wähle ich meinen Entscheidungshorizont? Und wenn ich bei der Entscheidung gegen die Kernenergie auch die negativen Effekte der al- ternativen Stromerzeugungsmethoden, sprich der Fossile, berücksichtige, dann ist das mit dem Vorsorgeprinzip nicht mehr ganz so klar. Dann haben wir den Klimawandel. - Genau. Der ist mit seinen negativen Effekten vielleicht vergleichbar mit einem nuklearen Endlager.

Ich vermute, dass die Probleme da deutlich grösser sind. Und wenn wir noch mehr Geld und Energie in die Erneuerbaren, in die Forschung stecken würden? Sicherlich eine gute Idee, mehr Geld in Forschung und Entwicklung zu stecken. Aber ich glaube, das grundlegende Problem ist kein technisches. Das bringt uns wieder zum Punkt des Energiesparens. Den Lebensstandard, den wir auch von energetischer Seite im Westen - auch in Europa, nicht nur in Amerika - haben, kann man weltweit nicht halten.

Es führt also kein Weg am Energiesparen und am Überdenken unseres Lebensstils vorbei. Um den Verzicht kommen wir nicht herum. Ich würde es nicht mal unbedingt Verzicht nennen.

Man kann ja auch einen Schritt zurücktreten und sich zu fragen, worin Lebensqualität und Wohlergehen eigentlich bestehen. Brauchen wir dazu überhaupt all diese Optionen? Es gibt ja meist verschiedene Wege, das Gleiche zu erreichen. Natürlich, die Energiewende ist momentan v.a. eine Stromwende, in geringerem Umfang eine Mobilitätswende. Wir haben auch noch den Wärmesektor, wo die Wende noch gar nicht so angekommen ist.

Wenn man all diese Sektoren noch stärker koppelt - gerade auch mit der Digitalisierung des Stromnetzes - kann man hoffen, dass da Synergien erreicht werden. Aber am Strom ... Global zumindest basieren alle Studien, die davon ausgehen, dass wir die Weltbevölkerung oder Teile derselben komplett durch Erneuerbare versorgen können, auf einem stark geringeren Pro-Kopf-Energieverbrauch. Schauen wir uns den heutigen Stand in der Schweiz an. Ich habe zwei Grafiken vorberietet.

Die eine zeigt den Endverbrauch nach Energieträgern. Da sehen wir, dass nur knapp ein Viertel des Energieendverbrauchs aus Erneuerbaren kommt. Und der Rest, also drei Viertel, aus nicht erneuerbaren Quellen. Bei der Produktion sieht es etwas anders aus. Die Schweiz profitiert stark von Wasserkraft.

Aber auch hier ist es mit 40 % im Wesentlichen Atomkraft. Und nur 6 % Erneuerbare. Da muss noch sehr viel passieren. Sie sagen aber auch, die Politik treffe derzeit auch krasse Fehlentscheide. Es werden Dinge gefördert, die einfach nicht gefördert werden sollen.

Z.B. der Individualverkehr. Also dass man da auf Elektroautos umstellt. Warum ist das aus Ihrer Sicht Unsinn? Ich war vorhin sehr vorsichtig und sagte, bei der Energieversorgung ist alles sehr komplex. Wir sind im ethischen Graubereich unterwegs. Aber gerade der Individualverkehr ist eines der wenigen Dinge, die in einer nachhaltigen Energiezu- kunft wirklich keinen Platz haben.

Weil es einfach zu energieintensiv ist. Es wird immer Randgruppen geben, die auf den Individualverkehr angewiesen sind. Behinderte etwa. Aber der Grossteil der Bevölkerung muss sich nicht technisierten Fortbewegungsmitteln zuwenden oder dem öffentlichen Nahverkehr - da ist die Lösung nicht hightech und auch nur bedingt technisch. Ich glaube nicht, dass die Elektromobilität überhaupt keinen Platz mehr hat.

Aber Autos, die für mich oder meine Familie sind, werden verschwinden müssen, wenn ich Sie richtig verstehe. Egal, ob benzin- oder strombetrieben. - Genau. Wir haben ja den Strommix gesehen. Auch wenn die Verbrennung woanders stattfindet und Innenstädte sauber bleiben, der Energieverbrauch bleibt der gleiche.

Wir haben beim Auto, egal, wie es aussieht, immer das Problem, dass wir ein mobiles Speichermedium brauchen. Sei es eine Batterie mit all ihren Problemen, mit sehr energieintensiver Herstellung, sei es Wasserstoff - wir werden immer energieintensive Speichermedien brauchen. Aber wie bringt man die Bevölkerung dazu, sich gegen Autos zu entscheiden? Das ist eine gute Frage, da zieht sich der Philosoph immer gerne zurück und überlässt es den Politikern oder Soziologen. Es ist eine langsame Entscheidung.

Gerade in Deutschland ist die Förderung des Elektroverkehrs gar nicht mal einer Liebe zum Auto geschuldet, sondern der Liebe zu den Arbeitsplätzen. Wenn man die Dinge beim Namen nennen würde, dass es um Arbeitsplätze geht und nicht um die Förderung der Automobilindustrie mit ihren Zulieferern, wäre Potenzial gegeben, um Probleme anzugehen. Auch da: Transparenz. Aber das wäre eine Revolution. Das würde schon viel bedeuten, die ganze Autoindustrie in den nächsten Jahrzehnten abzuschaffen.

Ja, es ist ein langer Prozess. Mir ist auch erst vor Kurzem klar geworden, dass diese Transformationsprozesse - man spricht ja nicht umsonst immer häufiger von Transformationen, auch in der sozialwissenschaftlichen Reflexion auf Technik - die können oder müssen vielleicht anderen Kriterien genügen als das Endziel, wo man hin will. Die Transparenz ist vielleicht nicht nur in der Kommunikation nötig, sondern man sollte sich selbst auch bewusst werden, warum man etwas fördert oder dafür einsteht. Sie selbst haben kein Auto, nehme ich an. Nein, tatsächlich nicht.

Schauen wir gegen Ende des Gesprächs noch in die Zukunft. Welche neuen Technologien stehen aus Ihrer Sicht am Horizont? Und welche Gefahren sind damit verbunden? Vielleicht mögen sie einige Themen aufgreifen, die in den nächsten Jahrzehnten auf uns zukommen. Wenn wir beim Energiebereich bleiben, sind Technologien - die auch in anderen Bereichen - wichtig werden sind KI und, noch allgemeiner, die Digitalisierung. Diese ist natürlich auch ethisch herausfordernd. Sie bringt natürlich eine ganz andere Dynamik in den Sektor.

Das ist für die beteiligten Industrien eine Herausforderung, aber auch für die ethische Bewertung. Im Energiesektor stellte man ein Kraftwerk für mind. 25 Jahre hin. Die Schweizer Kernkraftwerke laufen 50 Jahre oder länger. Man installierte Netzwerke für grosse Zeiträume. Digitalisierung bringt einfach eine ganz andere Dynamik und auch ganz andere ethische Herausforderungen. Hier geht es v.a. - auch beim auto- nomen Fahren - um Datensicherheit.

Man kann sehr viele Informationen über das Individuum ablesen. Und das andere ist Geoengineering. Wir werden Probleme haben mit dem Klimawandel.

Das sehen wir jetzt schon deutlich - nicht mehr am Horizont, sondern relativ deutlich, vor Ort und in anderen Ländern. Gerade in Monsunregionen ist das Ganze noch viel schlimmer. Wir haben ... Sie sprachen Geoengineering an. Was ist ein Beispiel dafür? Das plakativste, aber auch umstrittenste Beispiel ist das Einbringen von Sulfataerosolen in die Atmosphäre.

Das ist jetzt sehr plakativ und sehr verkürzt dargestellt: Man versucht eine Kühlung der Atmosphäre zu erreichen, so ähnlich wie man das bei einem Vulkanausbruch hat. Gerade im Februar wurde ein Experiment genehmigt: Wissenschaftler der Harvard-Universität starten im Juni dieses Jahres damit in Schweden. Momentan ist es nicht ganz klar, ob das durchgehen wird, weil viele Umweltverbände - sicher auch aus guten Gründen, es spricht viel dafür und viel dagegen - momentan dagegen demonstrieren.

Weil sie es als Dammbruch empfinden. Also man pumpt da etwas in die Atmosphäre, diese Sulfataerosole? - Genau, einfach Aerosole. Die sollen das irgendwie kühlen und dann langfristig den Klimawandel ... De facto ... Historisch gesehen gab es ja Kühlungen der Atmosphäre durch starke Vulkanausbrüche, weil dann die Sonne nicht gut durchkommt. So ähnlich kann man sich das vorstellen.

Und ich glaube ... Man könnte viel gewinnen, wenn man solche Experimente macht, solche Techniken entwickelt, ohne dass gleich klar ist: Es wurde viel Geld reingesteckt und deswegen wenden wir sie an. Dass man im Voraus Stopppunkte definiert. Sie erwähnten zuvor etwas in diese Richtung.

Stopppunkte, bei denen man nicht unbedingt sagt: "Jetzt nicht weiter." Aber zumindest: "Das ist ein kritischer Punkt, wir müssen das als realweltliches Experiment anschauen, und schauen, ob wir das Ganze noch einmal überdenken müssen." Ja, das ist ja dieses realweltliche Experiment. Bei all diesen grossen Technologien wird die ganze Gesellschaft irgendwie zu einem Labor und wäre bei einem Fall auch betroffen. Bei Fukushima hat man so was gesehen. Bei diesem neuen Geoengineering z.B. auch.

Da stellt sich natürlich auch die Frage, wie man eine demokratische Legitimierung hinkriegt, wie man die Bevölkerung mit ins Boot nimmt, ob die ein Vetorecht haben, zustimmen müssen bei solchen Dingen. Gibt es dazu eine Antwort? Das ist wohl sehr schwierig. Man kommt natürlich immer gerne zum Schluss, dass es zu schwierig ist, diese Abschätzung der Allgemeinheit zu überlassen. Aber der Weg, den ich aus meiner persönlichen Erfahrung sehe, ist tatsächlich, dass man stärker darauf hinzielt, die Bevölkerung partizipativ mitzunehmen. Wie würde das konkret aussehen? Transparenz.

In diesem Fall auch gute Methoden der Wissenschaftskommunikation, dass die relevanten Fakten auch ohne Studium der Klimawissenschaft verständlich sind. Forschung in Richtung mögliche Folgen. Man entscheidet ja nicht aus dem Bauch heraus, in welche Richtung das gehen kann - und das dann gut kommunizieren. Wer dann die relevanten Stakeholder sind - ist das eine nationale Entscheidung von Schweden oder müssen die Harvard-Wissenschaftler, weil sie die Experten sind, z.B. fünfmal gewichtet werden pro Person

in ihren Entscheidungen. Es ist schwierig zu sagen, aber ich glaube, Transparenz ist wichtig. Ganz am Anfang sprachen wir noch über diese Tugendethik. Wenn es darum geht, wie man konkret in einer Situation entscheidet, wenn bei allen möglichen Optionen Risiken bestehen. Können Sie zum Schluss der Sendung vielleicht eine Faustregeln nennen, für uns als Individuen? Egal, ob das grosse politische Entscheide sind, die mit Risiken verbunden sind, ob wir neue Technologien oder Gentechnik fördern sollen oder nicht.

Auch im Alltag: wie wir mit Risiken umgehen sollten. Wie gehen Sie durchs Leben - mit welcher Faustregel? Es ist wohl nicht eine Faustregel, es sind eher drei. (Lachend) Dann kurz: drei. Es gibt Untersuchungen dazu, welchen Wahrnehmungsverzerrungen Menschen obliegen, gerade bei Entscheidungen unter Unsicherheit. Das kennt ja jeder: Wenn gerade ein Flugzeug abgestürzt ist und man fliegt, hat man mehr Angst als sonst. Diese heuristic and biases literature.

Dass man sich diesen Heuristiken und Vorurteilen bewusst wird. Das zweite ist, auf das Bauchgefühl zu hören. Nicht handlungsleitend, sondern: Wenn mein Bauchgefühl bei etwas Unbehagen aufweist, dem nachzugehen - mit wissenschaftlichen Informationen. Ist das haltbar oder ist es das nicht? Das Bauchgefühl als handlungsleitend zu sehen, ist problematisch. Ausser man hat keinen anderen Anhaltspunkt.

Wir Menschen können ja gut mit Unsicherheiten umgehen. Wir hätten als Spezies nicht über- lebt, wenn wir das nicht könnten. Diese Engführung: Rationales Entscheiden ist immer das, was den erwarteten Nutzen maximiert, ist nicht sehr hilfreich. Meistens stehen die Wahrschein- lichkeiten nicht zur Verfügung, aber wir können irgendwie damit umgehen. Das ist auch ein Auftrag an die Forschung, das besser abzubilden. Sodass wir es dann auch besser in die politischen Entscheidungs- findungsprozesse kopieren können.

Einerseits auf das Bauchgefühl vertrauen, aber auch zulassen, dass möglichst viel Empirie und Rationalität in diese Intuition einfliessen. Gerade wenn es um die Natur, um den Umweltschutz geht, wenn es um die Technik geht, dann ist naturwissenschaftliche Forschung die Informationsquelle der Wahl. Das Gleiche gilt für medizinische Forschung.

Frau Hillerbrand, wir sind schon am Ende des Gesprächs. Vielen herzlichen Dank. - Gerne, danke Ihnen. Danke auch Ihnen fürs Mitdenken. Nächste Woche spricht Wolfram Eilenberger mit dem deutschen Schauspielstar Lars Eidinger über die Welt als grosse Bühne und die Schauspielerei als Form der Selbsterkenntnis.

Gleich folgt das "Abstimmungsstudio" - bleiben Sie dran und einen schönen Sonntag. SWISS TXT / Access Services D. Zacheo, R. Kolb, L. Thomann - 2021

2021-03-10 12:47

Show Video

Other news