Neon: Mein digitaler Freund, der Avatar?
Neon hat mit seinen Avataren Großes vor: Sie sollen selbstständig reagieren, agieren und Gefühle zeigen. Was ist dran an den Neons?
Im Vorfeld der CES gab es einen regelrechten Hype um Neon, ein geheimnisvoller Avatar, entwickelt von einer gleichnamigen Firma Neon aka Star Labs. Die erhielt wohl auch deshalb so viel Aufmerksamkeit, weil sie zum Samsung-Konzern gehört.
Samsung selbst äußerte sich indes nicht zu Neon: Nicht einmal auf der Keynote des Samsung-CEO, wo Zukunftsszenarien entworfen wurden, wurde Neon erwähnt. Statt am Samsung-Stand hat die Firma einen eigenen kleinen Bereich in der zentralen Messehalle auf der CES.
Virtuelle Charaktere
Während einer eigenen Pressekonferenz am CES-Stand lüftete Neons Gründer Pranav Mistry das Geheimnis um Neon: Es handelt sich um virtuelle Figuren, die komplett am Computer erzeugt werden und quasi in Echtzeit autonom reagieren sollen; Mistry sprach von unter 20 Millisekunden Latenz.
Kontaktieren muss man die Avatare derzeit noch vom Tablet aus, künftig soll das aber per Sprache möglich sein. Einmal angesprochen sollen die Neon-Avatare in der ihnen jeweils eigenen Art reagieren.
Solche virtuellen Wesen sind nicht neu, man begegnet ihnen etwa in Science-Fiction oder Animationsfilmen. Dort beruhen sie aber meist auf realen Personen, deren Bewegungen erfasst und gerendert werden. Das war beispielsweise auch bei Gollum im Herrn der Ringe so: Seine Bewegungen wurden bei Schauspieler Andy Serkis abgeguckt.
Für Neon nutzt das Unternehmen zwar noch menschliche Vorbilder, diese werden aber nur einmal gescannt und alles weitere wird digital erschaffen. Insofern wären die Avatare eine echte Erleichterung für die Filmindustrie.
Lachen, weinen, Stirn runzeln
Neon soll aber noch viel mehr, nämlich Gefühle zeigen. Der KI-getriebene Charakter sei weder Sprachassistent a la Bixby noch eine Schnittstelle ins Internet. Es sei stattdessen ein Freund, der mehrere Sprachen spricht, neue Skills lernen und sich mit anderen Services verbinden kann, erklärte Mistry auf der CES.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Angesichts dieser anspruchsvollen Beschreibung war die Neon-Präsentation eher ernüchternd: Ja, die Figuren sehen sehr real aus, doch sie sind immer noch nur Szenen am großen Bildschirm – eine physische Existenz fehlt bislang. Außerdem blieb offen, ob es sich bei den auf der CES gezeigten Avataren überhaupt um rein digital generierte Charaktere handelt, oder ob sie doch auf bisherigen Digitalisierungsverfahren beruhen.
Auch die Reaktionen der Avatare in einer Demo während der Pressekonferenz war eher mäßig: Einer der Avatare konnte zwar (nacheinander) in mehreren Sprachen antworten, die Mimik und Gestik blieb dabei jedoch eher rudimentär. Auch die Kommunikation von einem Tablet aus wird den von Neon geschürten Erwartungen nicht gerecht.
Core 3 und Spectra
Grundlage der digitalen Charaktere ist laut Neon eine neue Software namens Core R3. Mit ihr werden die individuell gewünschten Eigenschaften der Avatare entwickelt – die drei Rs stehen für Reality, Realtime und Responsive, erklärte Mistry. Wie genau Core R3 funktioniert, sagte er indes nicht, es blieb bei blumigen Beschreibungen. Immerhin: Eine Betaversion von Core 3 soll Ende 2020 auf der Neonworld vorgestellt werden.
Zur gleichen Zeit soll auch das zweite Entwicklungswerkzeug namens Spectra erscheinen. Spectra ist für die Intelligenz, die Emotionen, die Erinnerung und das Lernen der Avatare zuständig. Das Tool richtet sich an Unternehmen, die im weitesten Sinne Avatare einsetzen wollen oder müssen.
Allerdings arbeiten auch andere Unternehmen an per KI geschaffener Wesen. Insgesamt blieb am Ende offen, ob die Avatare von Neon wirklich so groĂźartig sind und welchem Zweck sie eigentlich dienen sollen. (uk)