Nie mehr anonym

Software zur Gesichtserkennung entwickelt sich zum preiswerten Service für Internet-Nutzer. Das jagt Datenschützern kalte Schauer über den Rücken, denn es gibt selbst für Passanten auf der Straße kein Entkommen und keine wirklichen Schutzvorkehrungen.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Lesezeit: 20 Min.
Von
  • Steffan Heuer
Inhaltsverzeichnis

Software zur Gesichtserkennung entwickelt sich zum preiswerten Service für Internet-Nutzer. Das jagt Datenschützern kalte Schauer über den Rücken, denn es gibt selbst für Passanten auf der Straße kein Entkommen und keine wirklichen Schutzvorkehrungen.

Das neue Feature kam, ganz nach Art des Hauses, durch die Hintertür. Im Firmenblog stellte Facebook-Ingenieur Justin Mitchell am 7. Juni 2011 eher beiläufig eine neue Funktion namens "Tag Suggestion" vor. Die meisten der über 500 Millionen Facebook-Nutzer dürften davon, wenn überhaupt, erst aus den Medien erfahren haben – eigens informiert wurden sie jedenfalls nicht. Dabei hatte Facebook einen weiteren kleinen, aber entscheidenden Schritt "Richtung Ende der Anonymität in der Öffentlichkeit" gemacht, wie der FDP-Politiker Jimmy Schulze gegenüber der "Financial Times Deutschland" sagte. Wer neue Bilder bei Facebook hochlädt, dem macht nun eine Gesichtserkennungs-Software automatisch Vorschläge, welcher der Facebook-Freunde darauf zu sehen sein könnte. Hat der Algorithmus tatsächlich die richtigen Personen erkannt, kann der Nutzer mit einem einzelnen Klick jedem Gesicht den entsprechenden Namen zuweisen ("taggen").

Bereits im Dezember 2010 wurde dieser Dienst US-Nutzern zugänglich gemacht, im Juni wurde er stillschweigend auch in Deutschland und anderen Ländern scharf geschaltet. Betroffen sind zunächst einmal sämtliche Facebook-Mitglieder. Wer sich nicht taggen lassen möchte, muss selbst aktiv werden und die Option in einem gut versteckten Untermenü deaktivieren – ansonsten darf er damit rechnen, künftig auf allen möglichen Fotos im Facebook-Universum identifiziert zu werden.

Doch auch für Menschen, die mit Facebook nichts am Hut haben, ist der Fall brisant: Er zeigt, dass die Gesichtserkennung den Sprung von der aufwendigen Spezialanwendung für Militär und Behörden zur preiswerten Massenanwendung für jedermann geschafft hat – zum Anlegen kompletter Personendossiers von Freund oder Feind, mit allen Fotos und Informationen, die über die jeweilige Person im Internet kursieren.

Die technische Grundlage dafür ist längst gelegt. Automatische Gesichtserkennung ist schon seit Jahren im Einsatz, zum Beispiel, um Spielern Zutritt zu Spielcasinos zu gewähren. Die Voraussetzungen dafür waren bisher allerdings gut ausgeleuchtete, frontale Aufnahmen sowie entsprechend hochwertige Vergleichsbilder in einer Referenz-Datenbank. Diese aufwendigen Verfahren kommen demnach also nur für einen klar definierten und kooperativen Kreis von Kunden infrage, die sich zur Identifizierung bewusst vor eine Kamera stellen. Doch dank leistungsfähiger Smartphones, schmerzfreier Nutzer sozialer Netze und weiterentwickelter Algorithmen können nun auch Schnappschüsse und Privatvideos verarbeitet werden. Verbreitet sich diese Technik, bedeutet das: Jeder, der sein Gesicht in der Öffentlichkeit zeigt, kann potenziell identifiziert werden – die attraktive Blondine am Nebentisch, der Passant im Hintergrund eines Touristenfotos, der Besoffene auf dem Rosenmontagszug.

Wie das konkret aussehen kann, demonstrierte die US-Firma Viewdle in diesem Januar auf der Technikmesse CES in Las Vegas: Eine Handykamera nimmt eine Gruppe junger Damen auf, die Viewdle-Software denkt ein paar Sekunden nach, und schließlich blendet sie zu jedem Gesicht auf dem Sucher den dazugehörigen Namen ein. Außerdem durchstöbert sie soziale Netze wie Facebook und Twitter nach den Profilen der Abgebildeten. Wird sie fündig, zeigt sie die letzten Updates in einer Sprechblase über den Köpfen an. In der freien Wildbahn funktioniert das allerdings noch nicht – die Vorführung in Las Vegas beruhte auf einer eigens für die Show gebauten Demo-Version. Aber Viewdle hat von großen Firmen wie Blackberry-Hersteller RIM, Chipentwickler Qualcomm und der Elektronikmarkt-Kette BestBuy schon zehn Millionen Dollar eingesammelt, um daraus ein fertiges Produkt zu entwickeln.

Vordergründig dienen solche Werkzeuge vor allem dazu, Fotos und Videos automatisch zu verschlagworten, um sie einfacher wiederfinden zu können. Doch sie bilden auch die Grundlage für ganz neue Anwendungen – etwa um Stammkunden in einem Geschäft mit maßgeschneiderter Werbung zu traktieren. Dieses wirtschaftliche Potenzial hat namhafte Unternehmen auf den Plan gerufen. So kaufte Apple im September 2010 die schwedische Firma Polar Rose für eine ungenannte Summe. Die russische Suchmaschine Yandex ist mit 4,3 Millionen Dollar der Hauptinvestor des Gesichtserkennungsspezialisten Face.com. Und Microsofts Innovationslabor in Israel stellte in diesem März gleich mehrere Prototypen zur Personenerkennung vor, die unter anderem Heimvideos nach Gesichtern durchsuchen und katalogisieren können.

Google arbeitet ebenfalls seit Jahren an Gesichtserkennung und hat dazu bereits 2006 mit dem Erwerb von Neven Vision einen der führenden Forscher auf dem Gebiet, den deutschen Computerwissenschaftler Hartmut Neven, eingekauft. Ein Interview, das Neven im März dem Nachrichtensender CNN gab, liefert einen kleinen Ausblick, wohin die Reise geht. Danach arbeitet sein Team an einer Handy-App, die – ähnlich wie Viewdle – den Schnappschuss einer Person mit persönlichen Informationen aus dem Web verknüpft.

Dazu passen zwei Google-Patente, die vor Kurzem erteilt beziehungsweise beantragt worden sind. Neven ist einer der Verfasser des ersten Patentes vom April 2010. Darin beschreibt er eine Methode zur automatischen Gesichtserkennung, bei der ein einziges Bild von mindestens fünf Megapixeln genügt, um eine Person nur anhand der Augen und Hautcharakteristika zu identifizieren. In einem Patentantrag vom Mai beschreibt der Suchriese eine Datenbank von Prominenten-Gesichtern, die sich bislang noch im Teststadium befindet. Einer der Mitverfasser dieses Patentes ist Nevens alter Mitarbeiter Hartwig Adam, der 2006 ebenfalls zu Google wechselte. Die Datenbank soll von anfangs 1000 Promi-Gesichtern auf mindestens 30000 ausgebaut werden, um das gesamte Web nach namhaften Persönlichkeiten durchsuchen zu können – selbst wenn die Bilder online nicht mit deren Namen versehen wurden.

Aus Datenschutzbedenken ist Googles Handy-App allerdings noch nicht scharf geschaltet. "Technisch können wir das alles leisten, aber als etabliertes Unternehmen muss Google sich viel konservativer verhalten als ein kleines Start-up, das nichts zu verlieren hat", sagte Neven zu CNN. Der ehemalige Google-Chef Eric Schmidt wird noch deutlicher: "Meines Wissens ist dies die einzige Technologie, die Google je entwickelt und nach einem genauen Blick darauf wieder gestoppt hat", zitiert ihn das "Wall Street Journal". "Menschen können diese Sachen auf sehr, sehr fiese Weise benutzen."

Facebook hat solche Skrupel in der Vergangenheit eher selten gezeigt. Und kein anderer Webdienst verfügt über ein derart umfangreiches Bildarchiv wie dieses Internet-Unternehmen. Insgesamt sitzt der Social-Networking-Riese auf geschätzten 30 bis 40 Milliarden Fotos, und Monat für Monat kommen weitere 2,5 Milliarden Schnappschüsse hinzu, die oft bereits manuell von den Nutzern getaggt werden. Diese Mitwirkung der Mitglieder ist auf zweierlei Weise entscheidend für das Fortschreiten der Gesichtserkennung: Jedes Mal, wenn ein Nutzer per Mausklick meldet, ob die Software die richtige Person erkannt hat, liefert er damit ein wichtiges Feedback für die Verfeinerung des Algorithmus. Zweitens helfen die Nutzer durch die manuelle Zuweisung von Gesichtern zu Personen dabei, dass Facebook eine gigantische Vergleichsdatenbank mit Gesichtsprofilen aufbauen kann, anhand derer neu hochgeladene Fotos identifiziert werden können.

Genau dies ist nämlich die Crux bei den bisherigen Ansätzen – sie funktionieren nur durch eine Mischung aus menschlicher und maschineller Arbeit. Die ersten Schritte geschehen noch rein maschinell: Zunächst werden Bilder in der Regel normalisiert und justiert – also entzerrt, begradigt und in der Beleuchtung korrigiert. Anschließend vermessen Algorithmen auf jedem Foto die darin enthaltenen Gesichter. "Die simpelste Variante besteht darin, nach markanten Einzelheiten wie den Augen zu suchen und ihren Abstand zueinander sowie zu Nase, Mund und Kinn in einer Formel auszudrücken", erklärt Eitan Sharon, Cheftechnologe der kalifornischen Firma VideoSurf, die sich auf Gesichtserkennung in Filmen spezialisiert hat. So lässt sich für jedes Gesicht ein grobes geometrisches Raster anlegen.

Modernere Algorithmen berücksichtigen nicht nur ein paar markante Punkte, sondern beziehen größere Gesichtspartien in die Analyse ein. Seit den neunziger Jahren hat sich die sogenannte "Eigengesichts-Methode" durchgesetzt, die maßgeblich von US-Forschern an der Brown University in Providence und am Massachussetts Institute of Technology entwickelt wurde. Dabei wird ein Gesicht als Ganzes ausgewertet und als abstraktes Vergleichsobjekt gespeichert. Die meisten Anbieter verwenden eine Kombination aus alten und neuen Methoden. So können sie unter anderem auch den Teint, Narben und Falten berücksichtigen. Selbst wenn die abgelichtete Person nicht direkt in die Kamera blickt, einen Bart trägt oder gealtert ist, lassen sich aktuelle Verfahren nicht verwirren. Bei Säuglingen und Kleinkindern sind allerdings auch sie überfordert – ebenso wie mit Aufnahmen im Profil.

Aus den so erstellten Merkmalen wird ein digitales Gesichtsprofil erzeugt und mit den Einträgen in einer Referenz-datenbank verglichen. An dieser Stelle kommt wieder der Mensch ins Spiel, denn für diese Datenbank musste ein menschlicher Bearbeiter zuvor Gesichter mit den dazugehörigen Namen und weiterführenden Informationen verknüpft haben – etwa indem ein Facebook-Mitglied die Bilder in seinem Album mit den Namen seiner Freunde versehen hat. Wer jemals seine Fotos bei Googles Picasa, iPhoto von Apple oder in Adobe Photoshop Elements getaggt hat, kennt den Prozess: Man muss dem Programm in ein, zwei Fotos explizit sagen, dass es sich um Tante Rosa oder den alten Schulfreund Michael handelt, damit die Software im verbleibenden Bilderwust nach derselben Person suchen kann.

Selbst große Datenbanken mit Millionen Einträgen können dank schnellerer Prozessoren und netzbasierter Rechenzentren zügig durchsucht werden. Der Abgleich eines Gesichts mit den gespeicherten Vergleichseinträgen kann je nach Verfahren wenige Sekundenbruchteile bis mehrere Sekunden dauern. Die Treffergenauigkeit lässt sich dabei wie mit einem Schieberegler einstellen: Wer als Verbraucherdienst auf Geschwindigkeit setzt, nimmt eine höhere Zahl falscher Zuweisungen in Kauf, wer – wie etwa Sicherheitsbehörden – höchste Genauigkeit anstrebt, muss längere Antwortzeiten in Kauf nehmen. Doch schon für mobile Geräte beziffern Experten die Trefferquote auf 96 bis 97 Prozent.

Damit die üblicherweise rechenintensive Gesichtserkennung auch auf Smartphones läuft, hat Viewdle großen Wert auf den sparsamen Umgang mit der Speicher- und Prozessorkapazität gelegt. Um ein vollständig neues Gesichtsprofil anzulegen, reichen bereits drei bis vier Bilder einer Person, sagt Viewdle-Manager Jason Mitura. Der Algorithmus seiner Firma baut daraus in weniger als fünf Sekunden ein Mustergesicht, das als maximal 500 Kilobyte große Datei direkt auf dem Smartphone gespeichert wird. "Das durchschnittliche Facebook-Mitglied hat nur acht Bekannte und Verwandte in seinen Alben markiert", sagt Mitura. "Wenn man rund 20 bis 30 Profile auf dem Handy speichert, sollte das im Alltag ausreichen, um seine Fotos direkt beim Knipsen zu taggen."

Das Unternehmen mit Sitz in Kalifornien hat seine Software zunächst nur für Android-Handys herausgebracht, da sich Gerätehersteller neue Funktionen wünschen, um sich vom Innovationsführer Apple abgrenzen zu können. "Für die ist unsere Technologie deshalb interessant, weil sich Gesichtserkennung direkt ins Adressbuch auf dem Smartphone integrieren lässt", erklärt Mitura. So kann man etwa mit einem Tipp auf einen Namen die dazugehörigen Fotos direkt – etwa über die Facebook- oder Twitter-App – ins Web hochladen.

Die israelische Firma Face.com, die ihre Dienste schon seit 2009 anbietet, ist demgegenüber komplett Cloud-basiert, da sie sich auf die automatische Auswertung von großen, bereits bestehenden Bildersammlungen konzentriert. Gesichtsprofile werden auf ihren Servern in Texas berechnet und bleiben dort gespeichert. Das funktioniert, ohne dass Face.com die eigentlichen Fotodateien speichern muss. Das Unternehmen hat nach Angaben seines Chefs Gil Hirsch inzwischen mehr als 24 Milliarden Fotos gescannt und auf ihnen rund 65 Millionen Einzelpersonen identifiziert – zu 80 Prozent in bei Facebook eingestellten Bildern.

Der enorme Umfang dieser Datenbank hat einen einfachen Grund: Face.com erlaubt externen Apps, auf seine Gesichtsdatenbank zuzugreifen. Externe Programmierer, die Anwendungen für die Mitglieder von sozialen Netzen wie Facebook schreiben, können pro Stunde bis zu 5000 Bilder kostenlos durch die Algorithmen von Face.com jagen, erst darüber hinaus müssen sie für den Service bezahlen. Bislang nutzen laut Hirsch rund 10.000 Programmierer diese offene Schnittstelle – und jede neue Fotosammlung und jedes neue daraus errechnete Gesichtsprofil bietet dem Unternehmen mit Sitz in Tel Aviv eine wertvolle Gelegenheit, seine Technologie zu verbessern.

An einem ähnlich großen Rad dreht die Dresdner Firma Cognitec, die Marktführerin in diesem Gebiet. Ihre Software ist bereits weltweit im alltäglichen Einsatz und wird überwiegend von Behörden verwendet. So lassen die Zulassungsstellen in 20 US-Bundesstaaten routinemäßig Millionen von Führerscheinbildern durch Cognitecs Software laufen, und die mexikanische Regierung managt mithilfe der deutschen Firma 80 Millionen Personalausweis-Fotos. "Unsere größte Installation ist ein Geheimprojekt für die US-Regierung mit 100 Millionen Fotos, von dem wir selber nicht wissen, was sie damit anstellen", sagt Verkaufs- und Marketingleiter Jürgen Pampus. Die so gewonnene Expertise hofft seine Firma künftig auch im Verbrauchermarkt einsetzen zu können. "Es ist nur die Frage, wo sich eine Anwendung lohnt und ob sie preiswert genug ist", sagt Pampus.

Während Fotos bereits erhebliche technische Herausforderungen stellen, ist die Auswertung bewegter Live-Aufnahmen noch schwieriger. VideoSurf mit Sitz im Silicon Valley arbeitet seit 2006 daran und wird dieses Jahr erstmals eine mobile Anwendung vorstellen, mit der ein Fernsehzuschauer sein Handy auf die Mattscheibe richten und die gezeigten Personen identifizieren kann. Die Software extrahiert Gesichter sogar, wenn der Film mit dem Zehnfachen der normalen Geschwindigkeit abläuft, und erstellt daraus einen Index, mit dessen Hilfe man zu jeder beliebigen Stelle des Films springen kann, an der die identifizierte Person auftaucht – egal ob die Person im Mittelpunkt oder am Rand einer Szene auftaucht und ob sie direkt in die Kamera schaut oder nicht. Dieses Produkt war Investoren bisher 21,5 Millionen Dollar wert.

Zur Identifizierung setzt VideoSurf neben der mathematischen Gesichtsauswertung mehrere Quellen ein: Angaben zu Ort, Zeit, Darstellern und andere Meta-Informationen aus dem Web sowie einen von Menschenhand angelegten Index der Gesichtsprofile von 60000 Prominenten. "Damit können wir mehr als 80 Prozent zweifelsfrei identifizieren", sagt Cheftechnologe Eitan Sharon. Nutzer müssen nur zwei bis vier Sekunden Film mit dem Handy mitschneiden und erhalten umgehend ein Ergebnis angezeigt, das laut Sharon in 97 Prozent der Fälle stimmt.

"Die Technologie funktioniert ebenso gut bei privaten Videos", sagt Eitan Sharon. "Es ist gut möglich, dass wir Nutzer in Zukunft bitten, Leute, die sie kennen, in Videos zu taggen." Alle diese Gesichtsprofile fließen ähnlich wie bei Face.com in eine zentrale Datenbank ein. Die Folgen wären brisant: Man filmt mit seinem Handy einen kurzen Clip auf einer Party und taggt die paar Personen, die man kennt. Sobald das Video hochgeladen wurde, verknüpft die Software bekannte Gesichter mit bestehenden Aufnahmen im Web oder errechnet neue Gesichtsprofile für bislang Unbekannte. So entsteht dank freiwilligem Nutzereinsatz der gläserne Alltag, bei dem Millionen kurzer Videoclips zu einer gewaltigen Datenbank verwoben werden.

Womit man bei einem der größten Probleme der allgegenwärtigen Gesichtserkennung wäre: Wer hat das Recht an der Meta-Information am eigenen Bild – etwa wer mit wem wann wo war und was getan hat? Bisherige Rechtsprechung befasst sich nur mit konkreten Abbildungen einer Person, nicht aber den individuellen Datenprofilen, die daraus gewonnen werden konnten. Selbst wenn das Fotomaterial, auf dessen Basis ein Gesichtsmodell errechnet wurde, nicht mehr existiert, könnte irgendwo im Netz eine Datei bestehen bleiben, mit der jeder neue Schnappschuss einem Individuum zugeordnet werden kann. "Der Verbraucher ist aufgeschmissen. Wir sollten uns keine falschen Hoffnungen machen, Gesichtserkennung im Alltag aufhalten zu können", sagt Bruce Schneier, der als Chefsicherheitsbeauftragter für British Telecom arbeitet und den angesehenen Blog Crypto-Gram verfasst.

Anbieter wie Facebook, Face.com und Viewdle verteidigen ihre Software damit, dass jede Sammlung von Gesichtsprofilen nur eine in sich geschlossene Privatkollektion eines Nutzers sei, eine Art Dateninsel, zu der nur eine Person Zugang besitzt. "Unsere Technologie erlaubt einem Mitglied nur, seine Freunde zu taggen, nicht irgendwelche Leute auf der Straße", sagt Viewdle-Manager Mitura. Dass es bei solchen Dateninseln bleiben wird, glaubt Sicherheitsexperte Schneier allerdings nicht: "Der Wert liegt auf lange Sicht darin, diese isolierten Datensätze zu verknüpfen und zu Geld zu machen, und das wird auch passieren." Ein Geschäft könnte etwa dank Gesichtserkennung herausfinden, welcher Kunde wann die Filiale betritt und vor welchem Regal wie lange stehen bleibt. "Die wirtschaftlichen Interessen sind so stark, dass ich mir kaum vorstellen kann, dass effektive Riegel vorgeschoben werden", befürchtet Schneier.

Die Idee der Stück für Stück ausgebauten Mega-Datenbank für Gesichter ist keine Paranoia von Schneier. Das Argument, jeder Nutzer könne nur auf seine eigene Profilsammlung zugreifen, ist nämlich löchrig. Noch arbeitet zwar jeder Anbieter mit eigenen geheimen, nicht miteinander kompatiblen Datenformaten. Das erschwert zwar den Austausch von Gesichtsprofilen, verhindert ihn aber nicht zwangsläufig. Wer nur auf einen einheitlichen Standard starre, sagt VideoSurf-Technologe Eitan Sharon, übersehe das Potenzial der Technologie. Ein Standard sei gar nicht nötig, denn die Identifizierung eines Gesichts könne auch per Web-Schnittstelle funktionieren, über die Bilder hochgeladen, im Hintergrund verarbeitet und mit Metadaten zu den abgebildeten Personen wieder ausgespuckt werden. "Es wird mehrere Standards geben, auf die viele andere Dienste mittels Schnittstellen zugreifen", prophezeit Sharon.

Schon jetzt denkt Viewdle in der Tat darüber nach, seinen Nutzern den Austausch von Gesichtsprofilen zu erlauben, so wie man sich heute eine Adresskartei im vCard-Format weiterleitet. Und das hat gravierende Konsequenzen: Ist das Gesichtsprofil erst einmal vom Handy ins Web gelangt, lässt es sich von dort genauso schlecht wieder zurückholen wie ein kompromittierendes Foto. Datenschützern jagen solche Szenarien aus gutem Grund Schauer über den Rücken. "Eine Debatte darüber, was da auf uns zukommt, findet einfach nicht statt", klagt Tien Lee von der Electronic Frontier Foundation. "Wenn die Polizei in großem Maßstab wahllos Nummernschilder scannt, begreifen wir das als Bedrohung der Privatsphäre. Wenn Bürger und Unternehmen dasselbe mit den Gesichtern irgendwelcher Passanten tun, fehlt das Verständnis für die damit verbundenen Gefahren."

Auch Datenschutzbeauftragte in Deutschland hegen wenig Hoffnung, die Technologie aufhalten zu können. "Elektronische Gesichtserkennung ist bisher nirgends geregelt, mit Ausnahme des Umgangs mit Fotos auf Ausweisen und in Registern zu Identifizierungszwecken", sagt Thilo Weichert, Leiter des Unabhängigen Zentrums für Datenschutz Schleswig-Holstein.

Noch komplizierter wird es, wenn die Dateien im Ausland gespeichert und bearbeitet werden. "Wir beobachten die schrittweise Aufweichung und Okkupation der Privatsphäre, bei der die Gesetzgeber der Technik hinterherhinken", sekundiert der Hamburger Datenschutzbeauftragte Johannes Caspar. "Wir tun so, als wäre es noch nicht so weit gekommen, aber diese Art Software ist bereits im Einsatz. Was technisch machbar ist, wird kommen."

Was kann der Einzelne tun, um der allgegenwärtigen Gesichtserkennung zu entfliehen? Caspar empfiehlt, sich die Geschäftsbedingungen eines Dienstes durchzulesen und im Zweifelsfall seine Einwilligung oder Teilnahme zu verweigern. Außerdem solle man sich von sozialen Netzen fernhalten, seine Fotoalben nicht allgemein zugänglich machen und seinen Namen von allen Bildern, die andere ins Netz stellen, umgehend entfernen lassen.

Das ist leicht gesagt, denn wie sollen Betroffene verlangen, ihr Gesichtsprofil von Servern löschen zu lassen, von deren Existenz sie unter Umständen gar nicht wissen? Selbst wer keine Fotos von sich hochlädt, ist nicht dagegen gefeit, von Dritten fotografiert und getaggt zu werden. "Da müsste ich mir schon einen falschen Bart ankleben, wenn ich das Haus verlasse", meint Sicherheitsexperte Schneier. "Es gibt kein Entrinnen."

Sharon, den israelischen Mathematiker, stört die Welt der automatischen Gesichtserkennung gar nicht. "Schon jetzt weiß ich, dass ich mich zum gläsernen Menschen mache, wenn ich irgendwo mit der Kreditkarte bezahle. Na und? Warum sollte ich mir Sorgen machen, wenn sich die Welt um mich herum mehr auf mich einstellt, weil sie mich erkennt und besser kennt? Dann weiß die Bedienung bei Starbucks wenigstens, was ich am liebsten trinke, sobald ich durch die Ladentür trete." (bsc)