Die gute Nachricht (und die schlechte)

Computer erwecken immer überzeugender den Eindruck, sich so zu verhalten wie ein Mensch. Womöglich gibt es aber grundlegend unsimulierbare menschliche Eigenschaften.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 3 Min.
Von
  • Peter Glaser

Wenn jemand spricht, strömt Luft aus der Lunge, versetzt die Stimmbänder in Vibration und lässt so bestimmte akustische Wellenmuster entstehen. Ihre Eigenschaften hängen von der Anordnung vor allem der Zunge und der Lippen ab. Im Kehlkopf wird zunächst ein Grundton mit zahlreichen Obertönen erzeugt.

Auf dem Weg zur Mundöffnung wird ein Teil von ihnen gedämpft, ein anderer Teil durch Resonanz verstärkt. Vokale konzentrieren sich dabei in speziellen Frequenzbereichen, den sogenannten Formanten. Konsonanten sind schwieriger zu orten. So besteht etwa der Konsonant p im Wort "sprechen" quasi aus Stille und kann nur an den Übergängen zu den Nachbarvokalen dingfest gemacht werden.

Die kleinsten Einheiten, die über die Bedeutung eines gesprochenen Wortes bestimmen, sind die Phoneme. Notiert werden sie mit den Symbolen der internationalen Lautschrift. Leider werden Phoneme nicht schön nacheinander ausgesprochen, sondern sie kommen meist in einem konstanten Klangstrom daher, der es nicht leicht macht, zu bestimmen, wo ein Phonem anfängt und wo es aufhört. Stimmen unterscheiden sich dazu noch in ihren Klangfarben, Tonlagen, Dialekten oder Akzenten, und ein Gespräch hat eine weitaus weniger klare Struktur als ein dezidiertes Diktat.

Menschen unterbrechen sich, fangen Sätze neu an – vor allem aber erkennen sie nicht nur die Form von Worten und Sätzen, sondern verfügen über ein Hintergrundwissen dazu, das sich nur widerstrebend bis gar nicht auf automatisierbare Regeln reduzieren lässt, kurz: Die gesprochene Sprache macht es einem Computer alles andere als einfach, sie zu erfassen.

Die gute Nachricht: Der Mensch lernt viel über sich selbst bei dem Versuch, das Wunder der Sprache maschinell nachzuvollziehen. 1956 war anlässlich eines Workshops am Dartmouth College in New Hampshire erstmals der Begriff Künstliche Intelligenz (KI) aufgetaucht. Er euphorisierte Intellektuelle aller Coleur. "Binnen 10 Jahren wird ein Computer Schachweltmeister sein, einen bedeutenden mathematischen Lehrsatz entwickeln und Kompositionen von beachtlichem ästhetischen Wert verfassen", prognostizierte der Sozialwissenschaftler Herbert A. Simon.

Im selben Jahr, in dem die KI ihren ersten Auftritt hatte, wurde das Musical "My Fair Lady" in New York uraufgeführt, frei nach dem Theaterstück Pygmalion von George Bernard Shaw, das wiederum auf dem griechischen Mythos von Pygmalion beruht, in dem ein Bildhauer sich in eine von ihm selbst geschaffene Statue verliebt und die Götter bittet, sie zum Leben zu erwecken. Im Musical trifft der Sprachwissenschaftler Professor Higgins auf das Blumenmädchen Eliza Doolittle und versucht, sie von ihrem vulgären Dialekt abzubringen und ihr mit einer gehobene Sprache sozialen Aufstieg zu ermöglichen.

1966 borgte sich der Computerwissenschaftler Joseph Weizenbaum am Massachusetts Institute of Technology den Namen ELIZA für einen Algorithmus, der die Kommunikation eines Menschen mit einem Computer in natürlicher Sprache demonstrieren sollte. Bekannt wurde das Programm durch die scheinbare Simulation einer Psychotherapeutin, die eine derartige emotionale Wirkung entfaltete, dass Weizenbaums Sekretärin, die er zu einem solchen Dialog eingeladen hatte, ihn bereits nach kurzer Zeit bat, den Raum zu verlassen, da das Gespräch zu persönlich würde. Die schlechte Nachricht: Auch 53 Jahre später erkennt der Computer zwar Sprache immer zuverlässiger, versteht aber kein Wort.

(bsc)