Grenzschutz: Alles Lüge?
Lügendetektoren sind notorisch unzuverlässig. Nun soll künstliche Intelligenz den Durchbruch bringen. Sowohl die EU als auch die USA wollen das.
(Bild: Shutterstock)
- Jake Bittle
Von 1975 bis 1981 trieb ein Serienmörder mit dem Spitznamen „Yorkshire Ripper“ im Norden Englands sein Unwesen. Er tötete mindestens 13 junge Frauen und versuchte sieben weitere Frauen umzubringen. Sein letztes Opfer war Jacqueline Hill, eine 20-jährige Studentin der Universität Leeds, im November 1980.
Janet Rothwell wohnte im Wohnheim neben dem von Hill. Der Mord an ihrer Mitstudentin verstörte sie zutiefst. „Sie nahm den Bus von der Universitätsbibliothek etwa zur gleichen Zeit wie ich“, sagte Rothwell, „und wurde ermordet, nachdem sie aus dem Bus gestiegen war.“ Später erfuhr sie, wie lange es gedauert hatte, den Mörder zu fassen. Die Polizei hatte den Mann während der Ermittlungen neunmal befragt, ihn jedoch wieder freigelassen. Erst einige Monate nach dem Mord an Hill erwischte sie ihn, als er sich auf den Mord an einer Prostituierten im nahe gelegenen Sheffield vorbereitete. „Ich fragte mich“, erinnerte sich Rothwell, „ob ein Computer nicht so etwas wie Inkongruenzen im Verhalten anzeigen könnte, um die Polizei zu alarmieren?“
Ende der 1990er-Jahre wechselte Rothwell an die Graduiertenschule der Manchester Metropolitan University (MMU), wo sie Zuhair Bandar kennenlernte, einen irakisch-britischen Dozenten, der in der Informatikabteilung arbeitet. Bandar hatte kurz zuvor einen „Heureka-Moment“ erlebt, als eine Marketingfirma ihn gebeten hatte, ein Gerät zu bauen, mit dem man das Interesse eines Verbrauchers an Produkten messen könne, das diese auf einem Bildschirm sahen. „Sie wollten dem Kunden ein Handheld-Gerät geben“, sagte Bandar, „und wenn der Kunde mit dem Produkt einverstanden ist, drückt er die 1; wenn es ihm nicht gefällt, drückt er die 2. Ich dachte: Wozu brauchen wir Handheld-Geräte, wenn das bereits in ihren Gesichtern zu sehen ist?“
Bandar bat Rothwell, ihm im Rahmen einer Doktorarbeit bei der Entwicklung von Software zu helfen, mit der diese Informationen aus Gesichtern automatisch extrahiert werden könnten. Jeder Versuch, solch ein System zu täuschen, würde Verhaltensmuster erzeugen, verbal oder nonverbal, die ein Computer erkennen könnte.
Videos by heise
In den frühen 2000er-Jahren trainierte sie ein neuronales Netz darauf, kleine Veränderungen wie Blinzeln oder Erröten zu erkennen, und fütterte dann den Computer mit ein paar Dutzend Clips von Personen, die Fragen entweder ehrlich oder unehrlich beantworteten. Nachdem das System auf diese Weise „trainiert“ war, konnte es neue Subjekte als betrügerisch oder wahrheitsgetreu klassifizieren.
In einer Studie aus dem Jahr 2006 erreichte das System, das die Forscher Silent Talker nannten, eine Genauigkeit von rund 80 Prozent – ein Wert, den das System seither nicht übertroffen hat. Zudem scheiterte es, wenn ein Teilnehmer eine Brille trug oder die Lichtverhältnisse zu sehr von den Trainingsdaten abwichen. Aber schon damals, erinnert sich Rothwell, war Bandar „sehr daran interessiert, ein kommerzielles Produkt zu haben“. Er und ein Kollege präsentierten ihr einmal ein Video einer Frau, die im Verdacht stand, ihren Mann zu betrügen, und baten sie, es von Silent Talker analysieren zu lassen.
Rothwell hatte jedoch nicht nur wegen der mangelnden Zuverlässigkeit der Software Bedenken. „Ich glaube nicht, dass irgendein System jemals hundertprozentig sicher sein könnte, und bei einem Irrtum könnten die Konsequenzen, zum Beispiel für eine Beziehung, fatal sein.“ Nach ihrer Ausbildung zur Audiologin verließ sie die Universität 2006, um in einem Krankenhaus auf der Insel Jersey zu arbeiten, wo sie immer noch lebt.
Bandar versuchte währenddessen weiter, die Technologie zu kommerzialisieren. Zusammen mit zwei seiner Studenten, Jim O’Shea und Keeley Crockett, gründete er das gleichnamige Unternehmen Silent Talker Ltd. und begann, sowohl Polizeibehörden als auch private Unternehmen für seine Technologie des „psychologischen Profilings“ zu suchen. Silent Talker war einer der ersten KI-Lügendetektoren, die auf den Markt kamen.
2012 veröffentlichte das Entwicklungsteam von Silent Talker erstmals eine Studie, bei der das System außerhalb des Labors eingesetzt wurde. Dabei arbeitete das Team mit einer NGO aus dem Gesundheitsbereich in Tansania zusammen, um den Gesichtsausdruck von 80 Frauen zu analysieren, die an Online-Kursen über HIV-Behandlung und Kondomgebrauch teilnahmen. Die Idee war festzustellen, ob die Patientinnen die Informationen, die sie erhalten würden, auch wirklich verstanden. Als das Team die Vermutungen der KI darüber mit ihren Ergebnissen bei kurzen Prüfungen nach den Vorlesungen verglichen, stellte es fest, dass die KI zu 80 Prozent genau vorhersagte, wer bestehen und wer durchfallen würde.
Das Tansania-Experiment führte dazu, dass Silent Talker 2015 in iBorderCtrl aufgenommen wurde – einer von der Europäischen Union finanzierten Forschungsinitiative, die Technologien zur Automatisierung von Grenzkontrollen entwickelt. Als das Konsortium schließlich im Oktober 2018 ein öffentliches Pilotprojekt ankündigte, lobte die Europäische Kommission in einer Pressemitteilung die „Erfolgsgeschichte“ des „einzigartigen Ansatzes“ des Systems zur Täuschungsaufdeckung. Die Technologie, „die Mikrogesten von Reisenden analysiert, um herauszufinden, ob der Befragte lügt“, sollte „effizientere und sicherere Landgrenzübergänge ermöglichen“ und „zur Prävention von Kriminalität und Terrorismus beitragen“. Dabei wurde der KI-Lügendetektor auch an Freiwilligen an den Grenzen in Griechenland, Ungarn und Lettland getestet.
Silent Talker ist nur eines von mehreren Unternehmen oder Projekten, die eine angeblich objektive Methode zur Erkennung von anomalem oder betrügerischem Verhalten anbieten. Die Geschichte der KI-Lügendetektoren beginnt bereits in den 2000er-Jahren. Das US-amerikanische Heimatschutzministerium DHS hatte Millionen von Dollar für die Täuschungsforschung an Universitäten ausgegeben und versuchte anschließend, eine eigene Version einer Verhaltensanalyse-Technolo-gie zu entwickeln. Die sogenannte Future Attribute Screening Technology (Fast) zielte darauf ab, mithilfe der KI nach kriminellen Tendenzen in den Augen und Körperbewegungen eines Probanden zu suchen. (Eine frühe Version verlangte von den Befragten, auf einem Wii Fit Balance Board zu stehen, um Haltungsänderungen zu messen.) Drei Forscher, die inoffiziell über klassifizierte Projekte sprachen, sagten, dass das Programm nie in Gang gekommen sei – innerhalb der Abteilung gab es zu viele Meinungsverschiedenheiten darüber, ob Ekmans Mikro-Ausdrücke als Richtlinie für die Verhaltensanalyse verwendet werden sollten. Die Abteilung schloss das Programm 2011 ab.
Trotz des Scheiterns von Fast zeigt das DHS nach wie vor Interesse an Lügendetektionstechniken. Im vergangenen Jahr vergab es zum Beispiel einen 110000-Dollar-Auftrag an ein Personalunternehmen, das seine Beamten in der „Erkennung von Täuschung und dem Herauslocken von Reaktionen“ durch „Verhaltensanalyse“ ausbilden sollte. Andere Teile der US-Regierung setzen sich unterdessen immer noch für KI-Lösungen ein. Das Army Research Laboratory (ARL) hat derzeit einen Vertrag mit der Rutgers-Universität, um ein KI-Programm zur Aufdeckung von Lügen im Gesellschaftsspiel Mafia zu schaffen. Das Projekt ist Teil eines größeren Versuchs, „so etwas wie ein Google Glas zu schaffen, das uns vor ein paar Taschendieben auf dem überfüllten Basar warnt“, so Purush Iyer, der für das Projekt verantwortliche ARL-Abteilungsleiter. Und Nemesysco, ein israelisches Unternehmen, das KI-Sprachanalysesoftware verkauft, teilte mit, dass seine Technologie von Polizeibehörden in New York und Sheriffs im Mittleren Westen zur Befragung von Verdächtigen sowie von Inkasso-Callcentern verwendet wird, um die Emotionen von Schuldnern bei Telefongesprächen zu messen.
Nun will also die EU mit iBorderCtrl und Silent Talker nachziehen. Die Büros des Unternehmens liegen etwa eine Meile von der Manchester Metropolitan University entfernt, wo O’Shea jetzt als Dozent tätig ist. Er hat die alltägliche Entwicklung der Technologie von Bandar übernommen. Das Unternehmen hat seinen Sitz in einem Wohnviertel, in einer Straße mit Dönerrestaurant und Fußballplatz. Das Büro von Silent Talker selbst ist ein einziger Raum mit ein paar Computern, Schreibtischen mit Aktenkoffern darauf und Plakaten aus den frühen 2000er- Jahren, auf denen die Technologie erklärt ist.
O’Shea wirkt streng, aber leicht zerknittert, kahl bis auf ein paar Haarbüschel und einen Van-Dyke-Bart. Er beginnt das Gespräch, indem er darauf besteht, dass wir nicht über das iBorderCtrl-Projekt sprechen sollten, und nennt seine Kritiker später „falsch informiert“. Er spricht in langen, abschweifenden Tangenten und zitiert gelegentlich den Computerpionier Alan Turing oder den Sprachphilosophen John Searle.
O’Shea demonstriert das System, indem er ein Video analysieren lässt, auf dem ein Mann Fragen darüber beantwortet, ob er 50 Dollar aus einer Kiste gestohlen hat. Das Programm überlagert das Gesicht des Mannes mit einem großen gelben Quadrat und zwei kleineren Quadraten um seine Augen. Während er spricht, bewegt sich eine Nadel in der Ecke des Bildschirms von Grün zu Rot, wenn er falsche Antworten gibt, und zurück zu einem gemäßigten Orange, wenn er nicht spricht. Als das Interview beendet ist, erzeugt die Software ein Diagramm, in dem die Wahrscheinlichkeit der Täuschung gegen die Zeit aufgetragen wird. Theoretisch zeigt dies an, wann er zu lügen begann und wann er aufhörte.
Dabei geht es nicht um so einfache Dinge wie Augen, die zur Decke blicken. Laut O’Shea überwacht das System rund 40 physische „Kanäle“ – von der Geschwindigkeit, mit der man blinzelt, bis zum Winkel des Kopfes. Das System misst die Gesichtsbewegungen und Haltungsänderungen eines Probanden viele Male pro Sekunde und sucht nach Bewegungsmustern, die mit den von den Lügnern in den Trainingsdaten übereinstimmen. In einer 2018 erschienenen Abhandlung über Silent Talker sagen seine Schöpfer, dass ihre Software „darauf beruht, dass bestimmte psychische Zustände, die mit betrügerischem Verhalten verbunden sind, das [nonverbale Verhalten] eines Befragten steuern, wenn er versucht zu täuschen“. Zu diesen Verhaltensweisen gehören die „kognitive Belastung“ oder die zusätzliche mentale Energie, die es angeblich braucht, um zu lügen, und die „Täuschungsfreude“ oder das Vergnügen, das ein Individuum angeblich beim Erzählen einer erfolgreichen Lüge empfindet. Bei den Mustern handelt es sich also um vielschichtige Beziehungen zwischen verschiedenen Bewegungen, zu komplex, als dass ein Mensch sie verfolgen könnte. „Psychologen sagen oft, dass man eine Art Modell dafür haben sollte, wie ein System funktioniert“, sagte O’Shea, „aber wir haben kein funktionierendes Modell, und wir brauchen auch keins. Wir lassen es die KI herausfinden.“
Die Idee von verräterischen Verhaltens-„Lecks“ im Gesicht hat seine Wurzeln in der Arbeit von Paul Ekman, einem amerikanischen Psychologen. Er vertrat in den 1980er-Jahren eine inzwischen berühmte Theorie der „Mikroexpressionen“ oder unfreiwilligen Gesichtsbewegungen, die zu klein sind, um kontrolliert zu werden. Ekmans Forschungen machten ihn zu einem Bestsellerautor und inspirierten das Fernsehkrimi-Drama „Lie to Me“. Er war Berater für unzählige US-Regierungsbehörden, darunter das Ministerium für Innere Sicherheit der USA (DHS) und die Forschungsagentur des US-Militärs Darpa. Unter Berufung auf die nationale Sicherheit hat er seine Forschungsdaten jedoch geheim gehalten. Dies hat zu einer kontroversen Debatte darüber geführt, ob Mikro-Ausdrücke überhaupt eine Bedeutung haben.
Die KI von Silent Talker verfolgt jedoch nicht nur Ekman-spezifische Mikroausdrücke, sondern alle Arten von Gesichtsbewegungen. O’Shea sagt, dadurch sei das System in der Lage, trügerisches Verhalten auch dann zu erkennen, wenn ein Subjekt sich nur umschaut oder sich auf einem Stuhl bewegt.
Aber Ewout Meijer, Professor für Psychologie an der Universität Maastricht in den Niederlanden, hält die wissenschaftlichen Grundlagen des Systems für bestenfalls unsicher. „Ein KI-System kann Menschen bei der Erkennung von Gesichtsausdrücken übertreffen, aber selbst wenn das der Fall wäre, sagt das noch immer nicht aus, ob man aus ihnen schließen kann, ob jemand täuscht.“ Täuschung sei ein psychologisches Konstrukt. Es gebe nicht nur keinen Konsens darüber, welche Ausdrücke mit Täuschung korrelieren, fügt Meijer hinzu. Es herrsche nicht einmal Konsens darüber, ob sie es tun.
Darüber hinaus weist Meijer darauf hin, dass der Algorithmus nutzlos sein wird, wenn er nicht an einem Datensatz trainiert wurde, der so vielfältig ist wie der, den er im wirklichen Leben auswerten wird. Forschungsergebnisse zeigen, dass Algorithmen zur Gesichtserkennung Minderheiten schlechter erkennen, wenn sie an Datensätzen mit überwiegend weißen Gesichtern trainiert wurden. Ein Sprecher von Silent Talker schrieb dazu in einer E-Mail: „Wir führten mehrere Experimente mit kleineren, unterschiedlichen Gruppen durch. Diese summieren sich auf einige Hundert Personen. Einige Untersuchungen waren akademischer Natur und wurden veröffentlicht, andere sind kommerziell und vertraulich.“
Alle publizierten Forschungsergebnisse, die die Genauigkeit von Silent Talker belegen, stammen jedoch aus kleinen und unvollständigen Datensätzen: In einer Studie von 2018 zum Beispiel enthielt eine Trainingspopulation von 32 Personen doppelt so viele Männer wie Frauen und nur zehn Teilnehmer „asiatisch-arabischer“ Abstammung, ohne schwarze oder hispanische Probanden.
Nach der Ankündigung des Pilotprojekts von iBorderCtrl 2018 verurteilten Aktivisten und Politiker das Programm als eine orwellsche Erweiterung des Überwachungsstaates. Sophie in ’t Veld, ein niederländisches Mitglied des Europaparlaments und Vorsitzende der Mitte-Links-Demokraten 66, schrieb in einem Brief an die Europäische Kommission, dass Silent Talker „die Grundrechte vieler grenzüberschreitender Reisender“ verletzen könne und dass Organisationen wie Privacy International es als „Teil eines breiteren Trends zur Verwendung undurchsichtiger und oft mangelhafter automatisierter Systeme zur Beurteilung, Bewertung und Klassifizierung von Menschen“ verurteilten. Der Protest schien ins Schwarze zu treffen: Obwohl die Europäische Kommission ursprünglich behauptete, dass iBorderCtrl „ein System zur Beschleunigung von Grenzübertritten entwickeln“ würde, sagt ein Sprecher jetzt, dass das Programm ein rein theoretisches „Forschungsprojekt“ sei. Der Gründer des Konsortiums, Athos Antoniades, sagte Ende 2018 gegenüber einer niederländischen Zeitung, dass das Täuschungserkennungssystem „es letztendlich vielleicht nicht in den Entwurf schaffen wird“. Aber während dieser Artikel geschrieben wurde, wirbt Silent Talker noch immer auf seiner Website mit seiner Teilnahme an iBorderCtrl.
Silent Talker ist „eine neue Version eines alten Betrugs“, meint Vera Wilde, eine in Berlin lebende amerikanische Akademikerin und Bürgerrechtsaktivistin, die eine Kampagne gegen iBorderCtrl mit ins Leben gerufen hat. In einem klassischen Lügendetektor-Test sucht ein Prüfer nach physiologischen Ereignissen, von denen angenommen wird, dass sie mit Täuschung korrelieren; in einem KI-System lassen die Prüfer den Computer die Korrelationen selbst herausfinden. „Wenn O’Shea sagt, er habe keine Theorie, irrt er sich“, fährt sie fort. „Er hat eine Theorie. Es ist nur eine schlechte Theorie.“
Trotzdem besteht die Gefahr, dass der neue Glanz der KI auch die Lügendetektoren zurückbringt. Wenn es nicht im Dienst von Regierungen ist (zumindest in Demokratien müssen sich Politiker vor den Wählern verantworten, KI-Lügendetektoren können von der Verwendung vor Gericht ausgeschlossen werden), so droht eine Renaissance in der Privatwirtschaft. Denn private Unternehmen haben weniger Einschränkungen bei der Nutzung dieser Technologie.
Psychologen mögen zwar immer noch nicht wissen, ob sich Lügen wirklich mit den richtigen Mitteln aufdecken lassen. Aber der Glaube an ihre Gültigkeit könnte ausreichen, um Bewerber für Stellen und Kredite zu disqualifizieren und unschuldige Menschen daran zu hindern, Landesgrenzen zu überschreiten.
(bsc)