Konferenz CHI: Mensch-Computer-Interaktion – mit Tangibles Displays durchbrechen

Interaktion verschiebt sich in virtuelle Realitäten – zu anfass- und greifbaren Benutzeroberflächen. Die physische Trennung wird Schritt für Schritt aufgehoben.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen

(Bild: agsandrew/Shutterstock.com)

Lesezeit: 8 Min.
Von
  • Karola Marky
Inhaltsverzeichnis

Am Donnerstag endete die CHI Conference on Human Factors in Computing Systems 2021 – die weltweit größte internationale Konferenz zur Mensch-Computer-Interaktion. Anschließend fanden noch konferenzbegleitende Workshops statt. Diese Artikelserie gibt einen Überblick über die Konferenz und aktuelle Forschungstrends und zeigt Möglichkeiten auf, wie man die Konferenzbeiträge nachträglich anschauen kann.

Seit 1982 findet die CHI-Konferenz (Ausprache "kai") im jährlichen Rhythmus an wechselnden Standorten weltweit statt. Für die HCI-Forscherszene (Human-Computer Interaction) ist die CHI eines der Highlights des Jahres, denn es handelt sich um die Top-Konferenz im HCI-Bereich. Einerseits bietet die CHI eine Plattform für Forschende, die ihre Ergebnisse einem internationalen Publikum zugänglich machen möchten, andererseits bekommt eben dieses Publikum einiges geboten.

Forschungsarbeiten auf der CHI/ Mensch-Computer-Interaktion

Die Forschungsarbeiten von Wissenschaftlern, die auf der CHI publizieren möchten, durchlaufen einen strengen Begutachtungsprozess, indem jeder Beitrag von mindestens vier Gutachtern in Augenschein genommen wird. In diesem Jahr gab es 2693 Einreichungen von denen 747 zur Veröffentlichung akzeptiert wurden. Dies bezieht sich jedoch nur auf das Format "Langbeitrag". Zusätzlich können Demonstrationen, Kurzbeiträge, Kurse und Workshops eingereicht werden.

Mensch-Computer-Interaktion (kurz: HCI vom englischen Human–Computer Interaction) erforscht die Schnittstelle zwischen Menschen und Computer-Technik. Hierbei wird ein besonderer Fokus auf den Menschen als Anwender gelegt und wie Menschen mit einer Computer-Technik interagieren. HCI ist daher ein interdisziplinäres Forschungsfeld, in dem Informatiker unter anderem mit Psychologen, Soziologen und weiteren Experten im entsprechenden Computer-Technik-Kontext eng zusammenarbeiten. Zur Erforschung der HCI werden verschiedene Methoden, die Anwender beinhalten, herangezogen. So wird eine Vielzahl von Studien beispielsweise im Labor oder auch im Feld durchgeführt.

Ein besonderer Fokus der CHI lag in diesem Jahr auf Gleichstellung und Barrierefreiheit. Im Eröffnungsvortrag von Chieko Asakawa zeigt die blinde Forscherin mehrere Möglichkeiten auf, wie Technologie den Alltag von Menschen mit Sehbeeinträchtigungen drastisch verbessern kann und mehr Selbstständigkeit ermöglicht. Dabei wies die Forscherin auch auf die Verantwortung der jeweiligen Entwickler hin, bereits vorhandene Mechanismen wie "Alt Text" (alternative Texte als Bildbeschreibung) wirklich umzusetzen, da diese sonst komplett wirkungslos seien. Als mehr zukunftsweisende Technologie für Menschen mit Sehbeeinträchtigungen stellte Chieko Asakawa ein Navigationsgerät vor, welches in einen Rollkoffer integriert ist. Die im Rollkoffer verbaute Sensorik – unter anderem ein Lidar – erkennt die Umgebung der Nutzenden und navigiert diese über eine Audioausgabe und hilft dabei Hindernissen auszuweichen. In ersten Studien des Rollkoffers nutzten blinde Anwender das Gerät und waren von dessen Leistung begeistert.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Auch in der zweiten Keynote der US-amerikanischen Forscherin Ruha Benjamin ging es um Gleichstellungsthemen, jedoch wurden hier keine konkreten Technologien vorgestellt.

Innerhalb der Konferenz gab es mehrere Sessions (mit thematisch zueinander passenden Vorträgen), die sich mit Barrierefreiheit und Gleichstellung befassten. Forschende von Apple stellen eine Möglichkeit vor, fehlende Alt-Texte und weitere Metadaten aus den Smartphone-Anzeigen zu generieren. Dadurch können Metadaten ohne eine Kooperation der Entwickler ermittelt werden.

(Bild: Martin Schmitz)

Wie bereits in den letzten Jahren entwickelt sich auch in diesem Jahr die Interaktion zunehmend weg von Desktop-Computern und mobilen Endgeräten und verschiebt sich in erweiterte oder virtuelle Realitäten sowie anfass- beziehungsweise greifbare Benutzeroberflächen und Barrierefreiheit. Dadurch wird die physische Trennung zwischen den Anwendern und deren Daten, die aktuell noch durch das Display des jeweiligen Gerätes gegeben ist, Schritt für Schritt aufgehoben.

Über 30 Konferenzbeiträge befassten sich mit der Interaktion mit digitalen Daten durch sogenannte "Tangibles". Das sind physische Objekte, die Anwender anfassen können. Im Alltag gibt es bereits digitale Stiftlösungen, die sich per Knopfdruck in einen Radiergummi umschalten lassen. Tangibles können jedoch für eine Vielzahl von Interaktionen zum Einsatz kommen, um digitale Interaktion den Prinzipien aus der analogen Welt folgen zu lassen. Dies beginnt beim Erstellen von Dokumenten, erlaubt jedoch auch eine Umsetzung in planerischen Tätigkeiten oder im Gaming.

Zunächst wurden allgemeine Prinzipien von Tangible Interaction vorgestellt. Britische Forscher untersuchten beispielsweise den Wahrnehmungszusammenhang zwischen verschiedenen haptisch erkannten Formen mit Farben und Emotionen. Sie baten Versuchspersonen, verschieden geformten Tangibles Farben und Emotionen zuzuordnen. Dabei nahmen die Versuchspersonen die Formen lediglich durch Anfassen wahr, wie es in einer virtuellen Realität der Fall wäre. Je komplexer die Objekte waren, desto dunkler war die Farbe, die die Versuchspersonen zuordneten. Solche Erkenntnisse können für das Design von Tangibles genutzt werden, die Anwender nicht visuell erfassen.

Je nach konkretem Interaktionskontext ergeben sich verschiedene Herausforderungen bei der Umsetzung von Tangibles. Bei großen Displaywänden beispielsweise kann es notwendig sein, das Tangible an einer Oberfläche zu befestigen. Diese Herausforderung wurde durch französische Forschende angegangen. In ihrem Konzept WallTokens stellen sie eine universelle Möglichkeit vor 3D-gedruckte Tangibles durch einen speziellen Saugnapf an der vertikalen Oberfläche präzise zu befestigen.