Googles KI-Offensive
Künstliche Intelligenz rüstet etliche Google-Apps und Dienste mit neuen Funktionen aus
Mit künstlicher Intelligenz will Google das Leben seiner Nutzer massiv vereinfachen, bindet sie gleichzeitig aber auch noch enger an das eigene Ökosystem.
Fast schon mantramäßig haben die Präsentatoren während der Eröffnung der diesjährigen Entwicklerkonferenz Google I/O den Begriff KI verwendet. Bei der ungefähr vierzigsten Erwähnung haben wir schließlich aufgehört zu zählen. Hinter den Kulissen haben künstliche Intelligenz und Machine Learning bei Google schon länger einen hohen Stellenwert. Doch bislang haben die Nutzer davon eher wenig mitbekommen, sofern sie nicht den Google Assistant auf ihrem Handy oder einem smarten Lautsprecher nutzen.
Das dürfte sich nun ändern. KI soll etliche Google-Produkte nun „richtig smart“ machen. Immer und überall genau die richtigen Infos und Suchergebnisse – so lautet die Devise. Damit die Nutzer das annehmen, wird sich die Intelligenz in Form des Google Assistant in vielen Apps breit machen. Extra den Browser öffnen, um umständlich was ins Suchfeld zu tippen, scheint in Googles Vorstellung nicht mehr zeitgemäß. Interagiert wird stattdessen per Sprache oder in Augmented-Reality-Ansichten.
Die wohl beeindruckendste Demonstration lieferte Google Duplex – gleichzeitig aber auch die umstrittenste. Hinter Duplex steckt die bisher wohl bislang beste Sprach-KI, die es dem Google Assistant nun erlaubt, selbstständig einfache Telefongespräche zu führen. Die Idee: Wer einen Termin beim Friseur benötigt oder einen Tisch im Restaurant reservieren möchte, braucht bei Unternehmen, die solche Dienste nicht auf ihrer Webseite anbieten, nicht selbst anzurufen. Das übernimmt der Assistant.
Auf der I/O-Konferenz spielte Google den Mitschnitt eines solchen realen Telefonats vor. Die Demonstration beeindruckte so sehr, dass einige gar an ihrer Echtheit zweifeln: Duplex erkannte die Aussagen des Gesprächspartners kontextabhängig und antwortete passend darauf – und das so glaubhaft, dass man gar nicht auf die Idee kommen würde, es handele sich am anderen Ende um einen Computer. Um die Täuschung perfekt zu machen, hat Google dafür präzise am Timing der Antworten geschraubt und schob auch mal ein „Uhmm“ oder ein „Mhmm“ ein, um ein möglichst menschliches Sprachmuster zu erzeugen.
Doch hier liegt der Knackpunkt: Noch deutlicher kann man die Geringschätzung gegenüber Menschen in einfachen Dienstleistungsberufen kaum zur Schau stellen, als sie mit einem digitalen Assistenten sprechen zu lassen, weil einem die eigene Zeit dafür zu schade ist. Nach viel ähnlich klingender Kritik ruderte das Unternehmen zurück und verkündete, dass Duplex sich nach seiner Veröffentlichung selbstverständlich zu Beginn des Gespräches zu erkennen geben wird.
Das löst aber nicht alle Probleme. So könnte immer bessere Sprachsynthese in nicht allzu ferner Zukunft generell dazu führen, dass man auch einer bekannten Stimme mehr trauen kann, woraus sich etliche Missbrauchsszenarien ergeben. Spinnt man den Faden weiter, zeigt sich, dass die IT-Unternehmen neben der Forschung und Entwicklung von KI-System schleunigst auch einen ethischen Rahmen für den Umgang mit der Technik entwerfen sollten.
Doch auch ohne diesen soll Duplex im Sommer testweise in den Google Assistant integriert werden, wahrscheinlich zunächst nur in englischer Sprache und für eng begrenzte Einsatzgebiete. Driftet das Gespräch von diesen Parametern ab, zieht der Assistant die Notbremse und schaltet einen Menschen ein.
Über die Schulter geschaut
Bei den meisten Nutzern kommt der Assistant überwiegend daheim zum Einsatz; meist in Form eines smarten Lautsprechers, der Smart-Home-Komponenten wie vernetzte Glühlampen steuert. Unterwegs öffnen die Anwender jedoch häufiger Google Maps oder die Kamera-App, statt mit dem Assistant zu sprechen. Genau hier legt Google nun mit einem „KI-Update“ nach. So wird künftig die automatische Bildanalyse Google Lens eine größere Rolle spielen und direkt in die Google-Kamera-App integriert werden. Bislang analysiert Lens nur innerhalb der Fotogalerie bereits aufgenommene Bilder. Mit Lens als Live-Scanner im Kamerasucher wird das Smartphone quasi zum Browser für die Google-Suche in der realen Welt.
Das könnte so aussehen, dass die KI beim „Blick“ auf ein Konzertplakat die Band erkennt und deren Songs auf YouTube zur Wiedergabe vorschlägt. Zudem erkennt Lens Texte: Abfotografierte Dokumente werden als PDF-Dateien gespeichert und fremde Sprachen in Echtzeit übersetzt. Zu guter Letzt erkennt Lens Gegenstände und führt eine Suche danach aus. So findet man beispielsweise vergleichbare Produkte, die Öffnungszeiten von Geschäften, Preisvergleiche oder Hintergrundinformationen über Sehenswürdigkeiten.
Lens wird dafür in mehreren Google-Apps zugegen sein – unter anderem auch in Google Maps. Hier verschmilzt die KI die Kartenansicht mit dem Kamerabild, in das beispielsweise virtuelle Schilder oder Richtungspfeile eingeblendet werden.
Apropos Maps: Im Hintergrund wird Google-KI zukünftig eigene Interessen und Bewertungen mit denen der Millionen anderer Nutzer vergleichen und anhand dessen in Maps neue Orte vorschlagen, die einem wohl gefallen werden, man aber noch nie besucht hat. Die Idee klingt gut, könnte aber dazu führen, dass man dann nicht mehr nur in sozialen Medien in seiner eigenen Filterblase steckt, sondern auch im realen Leben.
Echte Hilfe
Eine andere Entwicklung zeigt, wie KI Menschen mit Behinderungen künftig das Leben erleichtern könnte. Eine neue App namens Lookout unterstützt beispielsweise Blinde dabei, den Alltag zu meistern. Die Entwickler planen, dass die Anwender ihr Handy in der Brusttasche oder in einem um den Hals gehängten Etui mit sich führen, Kamera voraus. Klopfen am Smartphone aktiviert die App, die dann Bild- und Texterkennung nutzt, um Objekte sowie Text in der unmittelbaren Umgebung zu erkennen und dem User in Echtzeit anzusagen. Auch die Richtung wird angegeben, beispielsweise „Die Kaffeetasse steht auf 3 Uhr“. Eine weitere Funktion ist das Vorlesen erkannter Texte. Lookout ist allerdings nicht dazu gedacht, Blinden die Navigation im Straßenraum zu erleichtern, da es keine Hinderniserkennung gibt.
Bislang ist Lookout noch in einer geschlossenen Betaphase. Wir konnten die App dennoch ausprobieren und waren erstaunt, wie zuverlässig das Handy damit beispielsweise die verschiedenen Gewürzdosen in einem Küchenregal unterschied. Im Sommer möchte Google die App schließlich freigeben, zunächst aber nur für US-User mit Pixel-Handy.
Apps mit KI-Unterstützung stellen aber nur die Spitze des Eisbergs dar. Google-Chef Sundar Pichai mutmaßte auf der Google I/O, dass KI und Deep-Learning vor allem die Medizin revolutionieren werde. Schon seit einem Jahr zeigen Googles Algorithmen anhand eines Netzhaut-Scans zuverlässig eine Diabetes-Erkrankung an. Auch Bluthochdruck lässt sich so feststellen. Darüber hinaus soll die KI Ärzten künftig helfen, Krankheitsverläufe vorherzusagen. Durch das Trainieren von Deep-Learning-Algorithmen auf Hunderttausende – hoffentlich anonymisierte – Krankenakten soll die KI mit einer hohen Wahrscheinlichkeit Komplikationen oder Verschlechterungen vorhersagen und Ärzten so mehr Zeit geben, rechtzeitig und richtig einzugreifen.
Wie ernst Google das Thema KI nimmt, zeigte auch ein sonst eher seltener Einblick in Googles Hardware: Nicht ohne Stolz präsentierte Pichai die neueste Version der Cloud Tensor Processing Units (TPUs), deren Leistungsfähigkeit im Vergleich zum Vorgänger um den Faktor acht gestiegen sein soll. Jede der nun erstmals flüssig gekühlten TPUs bietet eine Rechenleistung bis zu 180 Teraflops. (spo@ct.de)