Aus die Maus
Seite 3: Aus die Maus
Aber Probleme gibt es durchaus noch. Durch die begrenzte Bandbreite des USB-Anschlusses ist das Bild des Spielers unscharf, und es ist nicht möglich, EyeToy mit mehreren Spielern gleichzeitig zu benutzen. Außerdem schafft es die Software manchmal nicht, Bewegungen zu erkennen, wenn sie in einer hellen und von mehreren Personen besuchten Umgebung stattfinden - wie zum Beispiel in einem typischen Wohnzimmer. Laut Marks werden diese Probleme mit dem Erscheinen der Playstation 3, wahrscheinlich im Jahr 2006, gelöst sein. Sie wird mit einem USB-2.0-Anschluss kommen, der 40 Mal so viel Daten transportieren kann wie USB 1. Für eine genauere Erkennung können Spieler auch schreiend pinke Stifte in der Hand halten oder Handschuhe überziehen. Ziel ist es aber letztlich, ganz ohne Hilfsmittel auszukommen. "Das einzige, was Sie noch brauchen werden”, sagt Marks, "sind Ihre Hände.”
Ich habe unzählige Stunden meines Lebens auf Computer-Bildschirme gestarrt, aber heute, in den Büros von Cybernet, ist es irgendwie anders. Auf dem Monitor ist eine typische Anordnung von Dateien und Ordnern zu sehen. Doch als ich auf das Icon für den Internet Explorer in der linken oberen Ecke schaue, passiert etwas Seltsames: Der Cursor bewegt sich genau dorthin - keine Maus, keine Tastatur war im Spiel, meine Hände ruhten an meiner Seite. Gespenstisch. Was ich da ausprobiert habe, war Navigaze, eine neue Schnittstelle, die ausschließlich mit Augenbewegungen arbeitet. Statt zu doppelklicken, muss man dabei zum Beispiel doppelzwinkern - mit Navigaze könnte sogar der gelähmte Superman-Darsteller Christopher Reeve im Web surfen.
In den 80er Jahren hat sich Cybernet einen Namen mit "force feedback”-Technologie gemacht, mit der Nutzer zum Beispiel über einen Joystick haptische Informationen bekommen - etwa Rütteln beim Befahren einer schlechten Straße im Autorennen; inzwischen sind solche Systeme auch in der Auto- und der Medizinindustrie im Einsatz. Cohen sieht Gesten-Erkennung als das nächste wichtige Feld: "Sie ist heute so weit wie force feedback vor zehn Jahren.” Eines der ersten Projekte von Cybernet in diesem Bereich stammt aus dem Jahr 1998. Im Auftrag der US Army entwickelte das Unternehmen ein Trainingssystem, in dem ein Soldat eine Truppe virtueller Kämpfer mit Hilfe verschiedener Handbewegungen kommandieren konnte. Für die NASA sollte Cybernet außerdem einen Informationskiosk ebenfalls auf Gesten-Basis bauen, aber es wurde nicht viel daraus. "Ständig haben Studenten ihn mit Kaugummis kaputtgemacht”, sagt Cohen.
Einer echten Killerapplikation am nächsten gekommen sein dürfte Cybernet bislang mit einer Computer-Gefechtsfeldkarte, deren Anzeige sich mit Gesten beeinflussen lässt. Ein Fernsehsender erfuhr durch eine Pressemitteilung davon und bekundete Interesse daran, die Technologie für die Wetterpräsentation anzupassen. "Es war perfekt!”, erinnert sich Cohen, "warum sind wir darauf bloß nicht selbst gekommen?”
Die Anwendung in einem TV-Studio eignete sich vor allem deshalb so gut, weil dort nichts am Hintergrund geändert werden musste. EyeToy arbeitet nur dann vernünftig, wenn man an einem bestimmten Ort relativ zur Kamera steht - wenn jemand dazwischen läuft, kommt alles durcheinander. Aber weil Fernseh-Meteorologen ohnehin vor einem gleichmäßigen Hintergrund stehen, muss man sich hier nicht mit Störungen herumärgern.
Die Wolken haben sich aufgelöst, der Regen hört auf - zum Ende meiner Spielerei mit GestureStorm entscheide ich, Detroit wieder zu einem angenehmeren Ort zu machen. Beim anschließenden Essen in einem italienischen Restaurant in der Nähe erzählt Cohen, dass er Gesten-Erkennung nicht als Ablösung für Tastaturen und Mäuse sieht, sondern eher als Ergänzung.