Blindes Vertrauen in Computer begĂĽnstigt Fehlentscheidungen

Neuen Untersuchungen zu Folge fördern Überwachungssysteme und computergestützte Entscheidungshilfen menschliches Versagen.

vorlesen Druckansicht 53 Kommentare lesen
Lesezeit: 1 Min.
Von
  • Christian Rabanus

Ăśberwachungssysteme und computergestĂĽtzte Entscheidungshilfen begĂĽnstigen menschliches Versagen. Zu diesem Ergebnis kommt die Studie "Does automation bias decision making?", die eine Forschergruppe unter Leitung von Linda Skitka an der University of Illinois at Chicago durchgefĂĽhrt hat.

Die Forscher untersuchten das Entscheidungsverhalten von zwei Referenzgruppen bei gleicher Aufgabenstellung. Dabei wurde eine lebensgefährliche Situation simuliert. Eine Studentengruppe sollte ihre Entscheidungen ohne, eine zweite mit Hilfe des Computers treffen. Obwohl die Mitglieder der zweiten Gruppe darauf hingewiesen wurden, dass die Hilfe des Computers fehlerhaft sein könnte, verliessen sie sich überwiegend auf die Computerangaben und trafen in nahezu jedem zweiten Fall eine falsche Entscheidung. Dagegen entschieden sich die Studenten der ersten Gruppe in 97 Prozent der Fälle situationsangemessen.

Das schlechte Abschneiden der zweiten Gruppe fĂĽhrt Skitka auf zu groĂźes Vertrauen in die Angemessenheit von Computerhilfen zurĂĽck. Diese Gruppe entschied immer dann falsch, wenn der Computer auf bestimmte Vorkommnisse nicht explizit hinwies ("errors of omission") oder unangemessene Entscheidungshilfen gab ("errors of commission").

Dem lasse sich, so die Forscherin, nur mit einer "adaptiven Automation" entgegnen. Hierbei schaltet sich ein Computer nur dann in die Steuerung eines Systems ein, wenn der Bediener stark belastet ist. In Standardsituationen dagegen überlässt er alle Überwachungs- und Regelungsaufgaben dem Operator. Eine adaptive Automation würde die Vorteile der Automation nutzen und zugleich die "errors of commission" reduzieren. (chr)