Richtig oder falsch als Frage der Stromstärke

Unsere moralische Beurteilung anderer lässt sich recht simpel künstlich ändern - das verrät einiges darüber, wie Moral im Gehirn funktioniert

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Grace und ihre Freundin besuchen eine Chemiefabrik. In einer Pause holt Grace ihrer Freundin am Automaten einen Kaffee. Neben dem Automaten steht ein Behälter mit weißem Pulver, der das Etikett „Giftig!“ trägt. In dem Behälter befindet sich jedoch Zucker. Das weiß Grace nicht - trotzdem nimmt sie etwas von dem Pulver und schüttet es in den Kaffee ihrer Freundin. Die Freundin trinkt davon - und nichts passiert. Bekommt ein Dritter nun die Aufgabe, Grace' Handlung zu beurteilen, dann wird er zum einen das Ergebnis betrachten: Es ist nichts passiert. Also alles in Butter? Nicht ganz: Grace hat trotzdem, darin dürfte die Mehrheit der Leser zustimmen, unmoralisch gehandelt, denn sie hielt das Pulver ja für giftig.

Hätte der Behälter das harmlose Label „Zucker“ getragen, aber trotzdem Gift enthalten, würden wir Grace für das in diesem Fall weit ungünstigere Ergebnis nicht verantwortlich machen - denn „sie hat es ja nicht gewollt“. Genau so funktionieren moralische Einschätzungen: Wir überlegen, was sich der andere dabei gedacht hat, und bewerten dies im Zweifel sogar höher als das eigentliche Ergebnis. Dabei beziehen wir noch eine ganze Anzahl anderer Kriterien mit ein - mit welchen Mitteln ging der Handelnde vor, wie hat er sich früher verhalten, wie schwerwiegend sind die Konsequenzen und wie hat die Umwelt den Handelnden beeinflusst. Moral ist insofern nur selten pragmatisch.

Schematische Darstellung der transkraniellen Magnetstimulation

Es gibt allerdings einen recht einfachen Weg, moralischen Entscheidungen mehr Pragmatismus zu verleihen: MIT-Forscher beschreiben die nötige Technik in der aktuellen Ausgabe der Veröffentlichungen der US-Akademie der Wissenschaften (PNAS). Die Wissenschaftler haben dazu die Funktion der rechten temporoparietalen Verbindung (englisch: „temporo-parietal junction, TPJ“) (siehe: Die neue Landkarte des Gehirns) gestört, der unter anderem die Fähigkeit des „Sich-in-andere-Versetzens“ zugeschrieben wird. Dafür nutzten sie die Technik der Transkraniellen Magnetstimulation (TMS).

Dabei wird mit Hilfe eines äußeren Magnetfelds ein Stromfluss in wählbaren Bereichen des Gehirns induziert, der die Funktion dieser Bereiche hemmt oder auch fördert. In diesem Fall bestand das Ziel darin, die an der Gehirnoberfläche oberhalb und hinter dem rechten Ohr gelegene TPJ zu hemmen - und prompt hielten die Probanden negativ gemeinte Handlungen Dritter mit positivem Ausgang für deutlich tolerabler als zuvor - und zwar in zwei unterschiedlichen Experimentalszenarien.

Mehr „Toleranz“ für schlechte Absichten beibringen..

In Experiment 1 erhielten die Probanden zunächst eine 25-minütige TMS, kurz danach wurden ihnen die zu beurteilenden Handlungen vorgelegt. Vier Varianten testeten die Forscher - mal wusste die Hauptperson vom Gift, mal nicht, und mal war das Ergebnis tödlich, mal nicht. Einen Bewertungsunterschied fanden die Forscher nur für das im ersten Absatz geschilderte Szenario: Offenbar war den Probanden nach einer TMS das (positive) Ergebnis plötzlich wichtiger als die negative Absicht, die dazu geführt hat.

In Experiment 2 rückten die Forscher die TMS näher an den Zeitpunkt der moralischen Entscheidung - um den Einwand abzuschwächen, dass die Behandlung eventuell nur die Impuls-Weiterleitung von der TPJ gestört haben könnte. Auch in diesem Fall legten die Probanden Wert vor allem auf das Ergebnis - die dahinter stehende Absicht spielte kaum noch eine Rolle.

Die Forscher interpretieren ihre Ergebnisse als eindeutigen Beweis für die Rolle dieses Gehirnareals in der moralischen Entscheidungsfindung. Dass diese Funktion so leicht zu stören ist, hat die Verfasser des Papers allerdings auch überrascht, denn der einzelne Mensch ist in seinen moralischen Einschätzungen in der Regel äußerst stabil. Moral hat man in diesem Sinne oft als Funktion einer sehr hohen Abstraktionsebene betrachtet - nun zeigt sich, dass man Menschen mit einfachen Mitteln mehr „Toleranz“ für schlechte Absichten beibringen kann. Gleichzeitig könnte das Verfahren aber auch einen Einblick in die Entwicklung von Moral bei Kindern oder Menschen mit kognitiven Störungen ermöglichen.