Adobe Max: Ausblick auf künftige generative KI

In seinen Sneak Peeks zeigt Adobe, wohin die Reise geht: Richtung generative KI. Bilder und Videos sollen sich künftig mit einem klick retuschieren lassen.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

Die Adobe Sneak Peaks zeigen auf der Max 2023, wie gnerative KI künftig die kreative Arbeit transformieren wird.

(Bild: Adobe)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Adobe gibt auf seiner Konferenz Max neben konkreten neuen Funktionen traditionell auch Ausblicke auf langfristige Entwicklungen preis. Üblicherweise ein Sammelsurium aktueller Forschungsprojekte, von ganz schön skurril bis durchaus praktisch, geht es 2023 nahezu vollständig um generative künstliche Intelligenz und vieles davon dürfte sich tatsächlich über kurz oder lang in Adobe Firefly niederschlagen.

So plant der Softwarehersteller neben den bestehenden Firefly-Modellen für Bilder, Vektorgrafik und Design konkret solche für Audio, Video und 3D. Die Sneak Peeks warfen ein Licht darauf, wie einiges davon aussehen könnte.

Eine eng umrissene, aber praxisbezogene Aufgabe erledigt „Project See Through“: Die Software retuschiert Reflexionen in Fotos, die entstehen, wenn man beispielsweise durch eine Fensterscheibe fotografiert. Mit „See Through“ genügt ein Klick, um die Reflexion nicht nur aus dem Foto zu retuschieren und damit mehr Details sichtbar zu machen. Die Software speichert die Reflexion außerdem als eigene Datei.

Adobe lässt sich nicht in die Karten schauen, wie die Technik arbeitet, aber vermutlich erstellt die Software im Hintergrund eine Tiefenmap, die die unscharfe Reflexion und das scharf gestellte Motiv separiert.

Project See Through separiert Motiv und Reflexion, um hässliche Spiegelungen ohne Handarbeit zu entfernen.

(Bild: Adobe)

Alles, was Adobe mit dem Beinamen „Project“ kennzeichnet, steht für experimentelle Software – nutzt generative KI für die Bildbearbeitung. Mit „Project Stardust“ sollen Nutzer künftig nur noch auf ein Motiv klicken müssen, um es auszuwählen, zu bearbeiten oder zu retuschieren.

Mit Stardust lassen sich Personen einfach auswählen – Ein-Klick-Motivauswahl ist bereits in Photoshop und Lightroom integriert – und an eine andere Stelle der Komposition bewegen. Den Hintergrund retuschiert ebenfalls bereits vorhandene Firefly-Technik wie „Generatives Füllen“. Außerdem können Nutzer die Farbe der Kleidung anpassen.

Was Project Stardust mit Bildern macht, soll künftig auch mit Videos funktionieren. So kann man mit „Project Fast Fill“ beispielsweise unliebsame Objekte im Hintergrund auswählen und über „Generatives Füllen“ wie in Photoshop retuschieren. Die Änderung bezieht die Software nicht nur auf ein einzelnes Frame, sondern setzt sie auf den gesamten Videoclip um.

Laut Adobe bietet „Fast Fill“ einen frühen Einblick, was künftig mit Premiere Pro und After Effects möglich sein wird. Eine spätere Integration ist also sehr wahrscheinlich.

Wie in Photoshop sollen sich künftig auch in Premiere Pro und After Effects Motivteile markieren lassen, um sie von künstlicher Intelligenz retuschieren zu lassen.

(Bild: Adobe)

Eines von drei neuen Fireflymodellen erzeugt aus Texteingaben Vektorgrafiken. „Project Draw & Delight“ zeigt eine durchaus plausible Ergänzung für dieses KI-Modell. So sollen wenige Pinselstriche genügen, um detaillierte Vektorgrafiken zu erzeugen: zwei graue Dreiecke für einen Berghang, ein stilisierter Baum, zwei Charaktere und ein Klick auf Generieren – fertig ist eine Illustration, die man in einem Kinderbuch drucken könnte. Die entstandene Vektorgrafik kann man umfärben, stilistisch verändern oder neu komponieren.

Project Draw & Delight kombiniert ein simples Zeichentool und das Vektormodell von Adobe Firefly, um Vektorgrafiken zu komponieren.

(Bild: Adobe)

Adobe arbeitet daran, kreative Arbeit effizienter zu gestalten. KI nimmt Kreativen laut Adobe dabei nicht die Arbeitsplätze weg. Die Nachfrage nach kreativen Inhalten habe sich von 2022 bis 2023 verdoppelt und wird sich in weiteren zwei Jahren verfünffachen.

Mit künstlicher Intelligenz arbeiten Adobe-Nutzer effizienter und können die Nachfrage bedienen, brauchen aber nach wie vor ein Auge für Komposition, Farben, Linienführung und dergleichen. Die gezeigten Forschungsprojekte könnten so manche Alltagsaufgabe beschleunigen – wenn sie sich tatsächlich in Adobe-Anwendungen materialisieren. (akr)