Google-Intelligenz für Baidu

Der chinesische Suchmaschinenbetreiber eröffnet im Silicon Valley ein Labor für Deep Learning. Leiter wird Stanford-Koryphäe Andrew Ng.

vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Tom Simonite

Der chinesische Suchmaschinenbetreiber eröffnet im Silicon Valley ein Labor für Deep Learning. Leiter wird Stanford-Koryphäe Andrew Ng.

Baidu wird gerne das „Google von China“ genannt, weil es die Websuche im chinesischen Netz so dominiert wie der Datenriese aus Kalifornien den westlichen Suchmarkt. Nun wird der Vergleich noch passender: Für die Leitung seines neuen Künstliche-Intelligenz-Labors im Silicon Valley hat Baidu Andrew Ng engagiert – der Stanford-Forscher war eine der Schlüsselfiguren bei Google auf dem Gebiet des „Deep Learning“.

Um die Technologie ist zuletzt ein Wettrüsten zwischen den großen IT-Konzernen entbrannt. Google, Facebook und andere buhlen um die besten Köpfe der Forschung – und nun auch Baidu. Mittels Deep Learning verarbeiten Rechner riesige Datenmengen, indem sie diese durch neuronale Netze schicken. Das sind einfache Simulationen der Schaltungen von Neuronen, mit denen das Gehirn arbeitet.

Der Ansatz hat Sprach- und Bilderkennung in den letzten Jahren drastisch verbessert. Langfristig soll er helfen, dass Apps, Geräte und Online-Dienst Bilder und Texte so gut verstehen wie Menschen.

Einen Schub bekam das Gebiet, als Google-Forscher – in Zusammenarbeit mit Ng – 2012 das Projekt „Google Brain“ vorstellten. In dem hatten sie eine Software entwickelt, die zehn Millionen Bilder aus Youtube-Videos analysierte, um darin Objekte wie Gesichter oder Katzen zu erkennen. Ganz ohne menschliche Hilfe.

Seitdem hat sich einiges getan: Google und Microsoft nutzen die Technologie bereits, um ihre Spracherkennung und die Übersetzung von Texten zu verbessern. Facebook-Wissenschaftler zeigten kürzlich, wie Deep-Learning-Verfahren in der Gesichtserkennung fast so gute Ergebnisse erzielen wie Menschen.

Bevor man sich entschied, das KI-Lab zu eröffnen, habe man mit Deep Learning in verschiedenen Produkten bereits gute Erfahrungen gemacht, sagt Kai Yu, Leiter des Deep-Learning-Labors von Baidu in Peking. Das zeigt sich etwa in der Übersetzungsapp, die in Smartphone-Schnappschüssen Gegenstände mit ihren englischen und chinesischen Bezeichnungen identifiziert. Auch für die Platzierung von Anzeigen setzt Baidu die Technologie ein. „Der Einsatz von Deep Learning in unserem System hat sich sofort ausgezahlt“, sagt Yu. „Die Klickrate hat sich deutlich erhöht.“

Während das Labor in Peking Deep Learning auf bestehende Baidu-Produkte anwendet, soll das Labor in Sunnyvale eher Grundlagenforschung betreiben, so Yu. Er hofft, dass Baidus umfangreiche Datenbasis, Ngs guter Ruf und die Ausrichtung des Labs Talente anlockt. „Im Silicon Valley gibt es einen einzigartige Ansammlung von Talent“, freut sich Yu. „Wir wollen mit unserem Lab wirklich revolutionäre Arbeit leisten.“

Ng wird nun Leiter der Forschung bei Baidu, ihm unterstehen zwei Labore in Peking und das in Sunnyvale. In den Standort im Silicon Vally wird Baidu über die nächsten fünf Jahre 300 Millionen Dollar investieren.

Die dortigen Forschungsarbeiten koordiniert Adam Coates, ein Postdoc aus Ngs Stanford-Gruppe. Ein Schwerpunkt liege auf Software, die ohne menschlichen Input lerne, sagt Coates. Diesen Ansatz des „nicht-überwachten Lernens“ verfolgt auch das Projekt Google Brain.

Nicht-überwachte Systeme verringern den Programmier-Aufwand, erzielen aber bislang hinsichtlich Genauigkeit nicht annähernd so gute Ergebnisse wie Menschen. Das Katzen-Erkennungssystem von Google lag in 70 Prozent der Fälle richtig. „Die wichtigste offene Frage ist, wie man nicht-überwachtes Lernen so gut wie Menschen macht“, sagt Coates.

Doch selbst wenn es zunächst nur geringe Verbesserungen geben sollte, würde sich das schon auszahlen. „Viele Produkte sind Dinge, die wir gerne mit der Umwelt interagieren lassen würden“, sagt KI-Forscher. „Die Technik ist sich auf Roboter anwendbar, auf autonome Fahrzeuge und Apps.“

Für Eugenio Culurciello, der an der Purdue University mit neuronalen Netzwerken arbeitet, ist die Begeisterung fürs Deep Learning gerechtfertigt. Es habe die Benchmarks für Maschinenlernen-Software geknackt. „Üblicherweise verbessern sich die Ergebnisse um zwei Prozent gegenüber bisherigen Systemen“, sagt Culurciello. Die Deep-Learning-Forscher hätten 10 bis 20 Prozent geschafft.

Diese Entwicklung erklärt auch, warum überraschenderweise Facebook-CEO Zuckerberg auf einer Konferenz zu neuronalen Netzwerken wie der NIPS auftaucht. Die Algorithmen für neuronale Netzwerke seien jedoch im Kern dieselben wie in den späten 1980ern, sagt Informatik-Professor Michael Mozer, der auch im Vorstand der NIPS Foundation ist.

Die jüngsten Verbesserungen seien im Wesentlichen „Tricks“ zu verdanken, mit deren Hilfe die Algorithmen umfassender als zuvor eingesetzt werden könnten. „Diejenigen, die dabei geblieben sind, ernten jetzt verdientermaßen ihre Früchte“, sagt Mozer. Dennoch sei Deep Learning nicht der große Sprung nach vorne, als der es manchmal dargestellt wird.

Es gebe derzeit nur wenige Forscher, die versiert genug seien, um aus dem Deep Learning viel herauszuholen. „Wenn Sie die Konkurrenz jetzt schlagen wollen, müssen sie diese Leute kaufen, die sich mit dem Gebiet auskennen – sonst werden sie um Jahre zurückfallen“, ist sich Mozer sicher.

(nbo)