W3C formatiert Daten für multimodale Anwendungen

Sprechen mit dem Webbrowser oder Web-Bedienung per Handschrift-Eingabe? Das World Wide Web Consortium wills mit EMMA als Datenformat für multimodale Web-Anwendungen möglich machen.

vorlesen Druckansicht 43 Kommentare lesen
Lesezeit: 1 Min.
Von
  • Oliver Lau

Das World Wide Web Consortium (W3C) hat in dieser Woche den ersten Entwurf eines Datenformats für multimodale Web-Anwendungen vorgelegt. Die auf XML aufsetzende Beschreibungssprache Extensible MultiModal Annotation (EMMA) soll die Weiterverarbeitung multimodaler Eingaben standardisieren.

So intuitiv der Mensch Sprache, Gestik und Mimik zur Kommunikation mit seinesgleichen verwendet, so umständlich ist die traditionelle Kommunikation mit dem Computer über Tastatur und Maus. Multimodalität, also die Nutzung verschiedener Kanäle zur Kommunikation mit einem Gegenüber, beschäftigt die Wissenschaftler daher schon länger, etwa bei der Mensch-Roboter-Interaktion oder beim sprachgesteuerten Web-Surfen per Handheld-Computer.

Es wäre schön, im Web zu surfen oder Web-Anwendungen bedienen zu können, indem man mit dem Browser spricht oder etwas handschriftlich notiert, hatten sich die W3C-Verantwortlichen offenbar gedacht, als sie Anfang des Jahres die Anforderungen an ein Datenformat zur Kommunikation zwischen Eingabegeräten und weiterverarbeitenden Komponenten (Interaktionsmanagern) formulierten. Dabei herausgekommen ist die bislang noch im Entwurfsstatium befindliche Spezifikation EMMA. Sie definiert das Format der zwischen den Eingabeeinheiten und den Interaktionsmanagern ausgetauschten Daten, und sorgt so dafür, dass die Weiterverarbeitung der Eingabe unabhängig vom Medium (beispielsweise Stifteingabegerät, Kamera oder Mikrofon) stattfinden kann. Die Implementierung von Apparaten und Anwendungen zur Interpretation der Nutzereingaben bleibt allerdings ebenso wie die Programmierung der weiterverarbeitenden Komponenten nach wie vor den Entwicklern überlassen. (ola)