"An der Grenze der technischen Sicherheit"

Risikoforscher Ortwin Renn über Kernkraft, Komplexität und die Grenzen von Statistik und Wahrscheinlichkeitsrechnung.

vorlesen Druckansicht
Lesezeit: 4 Min.

Am 25. Juli legte ein Kurzschluss im Stromnetz die Kühlpumpen des schwedischen Atomkraftwerks Forsmark lahm. Nur weil ein Arbeiter gegen Vorschriften handelte, konnten zwei Notstromgeneratoren nach rund 20 Minuten zum Laufen gebracht werden. Der Vorfall hat eine neue Debatte um die Sicherheit von Kernkraftwerken ausgelöst.

Der Soziologe und Volkswirtschaftler Ortwin Renn gilt als einer der profiliertesten Risiko-Forscher Deutschlands. Seit 2003 ist Renn Direktor des Zentrums für Interdisziplinäre Risikoforschung und nachhaltige Technikentwicklung. Technology Review sprach mit Ortwin Renn über mögliche Konsequenzen aus dem schwedischen Beinahe-Unfall.

TR: Kurz nach dem Störfall im schwedischen Forsmark hat sich Umweltminister Gabriel mit der beruhigenden Auskunft an die Öffentlichkeit gewandt, ein solcher Fehler könnte in Deutschland nicht passieren. Lässt sich das aus Ihrer Sicht als Risikoforscher bestätigen?

Ortwin Renn: Ja, da hat er Recht. Wir verwenden in Deutschland eine ganz andere Technologie. Genau der gleiche Störfall würde in deutschen Kernkraftwerken nicht passieren.

TR: Das klingt so, als wĂĽrden Sie gern noch ein "aber" dazusetzen.

Renn: Es ist natürlich absolut selten, dass ein Störfallverlauf sich genau gleich an anderer Stelle wiederholt. Das ist eigentlich auch nicht das, was einem Risikoforscher Sorgen machen sollte. Sondern eher, dass bestimmte Abläufe, von denen man gedacht hat, dass sie – auch in Schweden – gut getestet sind, offensichtlich nicht genügend untersucht worden sind.

TR: Wie kann man bei einem Atomkraftwerk das Risiko eines Störfalls bewerten?

Renn: Es gibt zwei Methoden: Die Fehlerbaum- und die Ereignisbaumanalyse. Bei der Fehlerbaumanalyse geht man davon aus, diesesTeil geht kaputt – und dann schaut man, was passiert. Wenn nichts passiert, lässt man ein weiteres Teil ausfallen – bis man einen Störfall hat. Bei der Ereignisbaumanalyse gibt man ein Ereignis wie eine Kernschmelze vor und verfolgt dann zurück, was passieren muss, damit dieses Ereignis wirklich eintritt. Beide Methoden haben den systematischen Nachteil, dass man Verläufe, die man nicht angenommen hat, auch nicht erfassen kann.

Das klassische Beispiel ist das Peach-Bottom-AKW in den USA: Drei Techniker sollten ein Kabel reparieren, hatten kein Licht mit und haben eine Kerze angezĂĽndet. Dann haben sie vergessen, die Kerze wieder mit rauszunehmen, und die Kerze hat eine Isolierung in Brand gesetzt. Das konnte natĂĽrlich keine Risikoanalyse vorhersehen.

TR: Kann man die Wahrscheinlichkeit solcher Ereignisse abschätzen?

Renn: Man kann natürlich eine Restgröße einsetzen, aber die ist in der Regel schwer wissenschaftlich begründbar. Wenn man bei einer Wahrscheinlichkeit von zehn hoch minus sechs angelangt ist, und das ist man in der Kerntechnik, werden Versuche, das noch weiter zu reduzieren, fruchtlos. Ereignisse dieser geringen Wahrscheinlichkeit sind zu selten, als dass man sie gut modellieren könnte.

TR: Ist ein Kernkraftwerk als zu komplexes System prinzipiell nicht beherrschbar?

Renn: Das ist schwer zu sagen. Die grundsätzliche Struktur ist gar nicht so komplex: Sie haben die Kernspaltung, die setzt Wärme frei, daraus wird Dampf und damit eine Turbine angetrieben. Die Komplexität kommt dadurch herein, dass ich sicherstellen muss, dass die Wärme immer abgeführt wird. Dann baue ich redundante Systeme – die erhöhen die Komplexität, verbessern aber gleichzeitig die Sicherheit. Diese beiden Dinge sind also eng miteinander verbunden.

Es wird dann schwierig, wenn die Elemente eng miteinander verkoppelt sind, dass also, wenn irgendetwas kaputtgeht, dann gleich das nächste und übernächste Ding auch ausfällt. Das ist aber in der Kernkraft so gar nicht gegeben. Da können Dinge kaputtgehen, und es passiert gar nichts.

Es gibt aber tatsächlich ein Problem der Komplexität: Dass ich nie genau weiß, ob das, was die Armaturen anzeigen, tatsächlich auf einen echten Fehler des Systems hinweist, oder ob die Armaturen kaputt sind. Da kommen wir natürlich an die Grenze der technischen Sicherheit, denn wenn etwas interpretiert werden muss, gibt es auch immer die Möglichkeit der Fehlinterpretation. (wst)