"Immer und ĂĽberall"

Andrew Chien, Direktor von Intel Research, über die Forschungsprojekte seines Unternehmens – und wie dank Mehrkern-Prozessoren ganz neue Anwendungen möglich werden sollen.

vorlesen Druckansicht
Lesezeit: 7 Min.
Von
  • Kate Greene

Vor kurzem zeigte der Chipkonzern Intel einen neuen, stromsparenden Hauptprozessor, der bis zu acht einzelne Prozessorkerne enthält – also praktisch acht Chips in einem. Die für das erste Halbjahr 2008 erwartete Technologie soll es Rechnern ermöglichen, noch mehr Daten gleichzeitig zu verarbeiten und somit noch wesentlich realistischere Multimedia-Darstellungen anzubieten.

Andrew Chien, Direktor der Intel-Forschungsabteilung Intel Research, denkt jedoch schon wesentlich weiter – "Terascale Computing" heißt für ihn die Zukunft, in der Maschinen nicht nur acht, sondern Dutzende bis Hunderte Prozessorkerne besitzen. Billionen Operationen pro Sekunde sollen so möglich werden. Gleichzeitig arbeiten Forscher bei Intel mit Wissenschaftlern an Universitäten in der ganzen Welt zusammen, um passende, interessante Anwendungen für solche Hochleistungssysteme zu finden.

Im Interview mit Technology Review spricht Chien über die Forschungsziele des Konzerns – und worin er selbst die Zukunft der IT sieht.

Technology Review: Herr Chien, was sind aktuell die wichtigsten Projekte bei Intel Research?

Andrew Chien: Ein Bereich, auf den wir uns sehr stark konzentrieren, ist die Idee, dass die IT ein eigenes Verständnis für die Welt des Nutzers entwickelt. Der Hauptpunkt dabei ist die Frage, ob Deduktionsalgorithmen, die Schlussfolgerungen aus Nutzerverhalten und Umwelt ziehen, zusammen mit Sensoren tatsächlich das fehlende Puzzleteil sind, um das Ubiquitous Computing, also die allgegenwärtige Rechentechnik, zur Reife zu bringen. Wir können heute kleine Geräte bauen, die in unsere Hosentasche passen, aber beim Thema Erfassung ihrer Umgebung, bei der Zusammenarbeit mit anderen Geräten und bei der natürlichen Interaktion der Geräte mit dem Menschen sind wir noch nicht weit genug gekommen.

Ein anderer Forschungsbereich ist für Intel natürlich das Terascale Computing. Da sehen wir gleich zwei Vorteile. Ein sehr wichtiger ist, dass wir hiermit eine Computertechnik schaffen, die aus heutiger Sicht noch kaum vorstellbare Anwendungen möglich machen wird – sowohl im Sinne virtueller Repräsentationen, wie man sie aus der klassischen Virtuellen Realität kennt, als auch bei der erwähnten Erfassung der Umwelt. Es ist enorm spannend, wenn Geräte die Welt um sie herum verstehen und erkennen, was ihren menschlichen Besitzern wichtig ist.

TR: Warum sollte ich denn tatsächlich wollen, dass ein Gadget Rückschlüsse aus meinem Verhalten ziehen kann? Können Sie ein Beispiel nennen?

Chien: Einer der ersten Schritte in diese Richtung ist der Bau von Systemen, die verstehen, was wir tun und denen die Wichtigkeit der verschiedenen Aktivitäten in unserem Leben bewusst ist. Wir sind ja heute mehr denn je ständig vernetzt. Stellen Sie sich ein Handy vor, das weiß, dass man gerade in einer Schlange am Flughafen steht. Da kann man untätig herumstehen oder voll mit dem Sicherheitscheck beschäftigt sein.

Wenn der Sensor nun die Bewegung und andere Informationen aus der Umwelt erkennt – etwa das Internet-Signal – und das Gerät aus vergangenen Verhaltensmustern gelernt hat, kann es selbständig festlegen, ob es nun wirklich notwendig ist, dass ein ankommender Anruf durchgelassen wird.

Wichtig ist auch der Kontext: Ist es Ihr fünfjähriger Sohn, der sie unbedingt erreichen muss, oder ein Freund, mit dem Sie dauernd reden? Muss man diesen Anruf tatsächlich sofort durchstellen? Ein intelligentes System könnte Sensoren nutzen, um die Sprache zu analysieren, die Stimmung des Benutzers daraus ableiten und die physische Umgebung erkennen. Dann könnte es abhängig davon entscheiden, ob und wie eine Benachrichtigung durchgelassen wird.

TR: Der Ansatz, dass Sensoren alle unsere Aktivitäten aufzeichnen, hätte schwerwiegende Auswirkungen auf unsere Privatsphäre. Wie geht Intel mit diesem Problemkomplex um?

Chien: Ein Bereich, mit dem wir uns sehr stark beschäftigen, ist die Frage, wie man Plattformen schafft, die über eine Integrität verfügen. Das bedeutet, dass sie abzusichern sind und nicht einfach jemand daherkommen kann und eine solche Maschine übernimmt. Dabei ergeben sich auch viele andere interessante Fragen – beispielsweise, wie viel der Daten lokal auf dem persönlichen Gerät gespeichert werden und wie viele im Netz. Oder welche Daten man später löschen will. Es geht dabei immer darum, festzustellen, mit welchem Ansatz sich die Leute am wohlsten fühlen.

TR: Warum wird das Ziehen von Rückschlüssen durch die IT gerade heute möglich?

Chien: Das liegt zum einen daran, dass Computersysteme heute auf die Daten zurückgreifen können, die im Internet verfügbar sind – und daraus dann lernen. Beispielsweise wird die Bilderkennung bei Rechnern auch deshalb immer besser, weil sie im Netz trainiert werden kann. Ähnliches gilt für Übersetzungssysteme, die dann beispielsweise die Dokumente der Vereinten Nationen auf Arabisch und Chinesisch nutzen, um ihren Wortschatz zu verbessern. Außerdem werden die Festplatten immer größer und billiger – und es gibt gerade einen großen Übergang zu nichtflüchtigem Speicher. Der RAM-Zugriff auf große Datenmengen bei sehr geringem Energieverbrauch wird revolutionäre Auswirkungen haben.

TR: Wie passt da das Terascale Computing hinein?

Chien: Um herauszufinden, was der Benutzer tut, muss ein Rechnersysteme ständig Daten von Sensoren lesen, sie analysieren und dauernd verarbeiten. Dies macht mehrere Prozessoren notwendig, auf denen gleichzeitig verschiedene komplexe Algorithmen laufen. Das Maschinenlernen, das für die Ableitungsprozesse notwendig ist, basiert auf einer breiten statistischen Analyse, die die Sensordaten korreliert – und daraus werden dann auch zunächst unbedeutend erscheinende Rückschlüsse gezogen. Aktuell laufen diese Algorithmen auf sehr großen Systemen, die immer für einen spezifischen Anwendungsbereich gebaut werden – und man muss schon einen Doktortitel haben, um sie zum Laufen zu bringen. Wir freuen uns schon darauf, diese Algorithmen in Programmierschnittstellen zu integrieren, auf die dann auch der Rest der Welt zurückgreifen kann – als eine Art Plattformdienst, der genauso verlässlich arbeitet wie der Zugriff auf ein heutiges Dateisystem. Auf diese Art wird es möglich, dass auch ein durchschnittlicher Programmierer diese fortschrittliche Technologie nutzen können wird.

TR: Wie weit sind wir noch davon entfernt, bis solche Ansätze tatsächlich in Consumer-Gadgets stecken?

Chien: Maschinenlernen und Deduktionsalgorithmen werden in der Forschungswelt schon länger bearbeitet, aber die daraus hervorgehende Qualität ist doch noch sehr mittelmäßig. Es ist nicht ungewöhnlich, dass diese Systeme nur eine Trefferquote von 80 Prozent haben. Die Wissenschaft hält so was bereits für toll. Aber es würde einem wohl kaum helfen, wenn man einen persönlichen Assistenten hätte, der nur in 80 Prozent der Fälle weiß, was man gerade tut. Genauso sähe es bei einem solchen Rechnersystem aus.

Letztlich geht es darum, wie gut diese Algorithmen arbeiten und wie die Leute darauf reagieren, wenn sie einmal daneben liegen. In den nächsten fünf Jahren werden wir bei ihrer Leistungsfähigkeit deutliche Fortschritte sehen. Die Forschung wird Demonstrationssysteme hervorbringen, die glaubwürdig sind. Im Mainstream könnte das dann drei Jahre später ankommen, aber so etwas ist heute nur schwer vorherzusehen. Die Vorläufertechnologien sind jedenfalls allesamt schon vorhanden. Ich sehe einen riesigen Bedarf dafür. (bsc)