Sneak-Previews auf der Adobe Max

Die Sneaks sind die beliebteste Session während Adobes Weltkonferenz Max. Der Softwareriese erlaubt einen Blick hinter die Kulissen und zeigt mehr oder minder experimentelle Projekte, die nicht alle den Weg in kommerzielle Produkte finden.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 5 Min.
Von
  • Frank Puscher

Zwei der Trends, die Adobe vor 18 Monaten auf der letzten Max vorgestellt hat, haben inzwischen den Weg in die Stammsoftware gefunden. Muse, der visuelle Webseitengestalter, wurde zur eigenständigen Software weiterentwickelt und aus Deep Blur wurde der Shaker Remover, ein Photoshop-Filter, der Verwackler aus Kameraaufnahmen entfernt.

12 neue Experimente zeigte Adobe zum Abschluss der diesjährigen Max in Los Angeles. Weder die Code-Namen, noch die Form der Implementierung werden so bleiben, aber bei gut der Hälfte der Ansätze ist die Integration in die Creative Cloud mehr als wahrscheinlich.

Ein Malprogramm fürs Tablet darf in Adobes Vision nicht fehlen.

(Bild: Frank Puscher)

Design-Guru Eric Natzke zeigte ein vollwertiges Malprogramm fürs Tablet, das perfekt zu der Idee des intelligenten Malstiftes Mighty passt. Tatsächlich gibt sich Adobe alle Mühe, Tablets zu Kreativwerkzeugen zu machen. Realisationswahrscheinlichkeit: sehr hoch.

Flash-Experte und Programmierer Lee Brimelow demonstrierte einen Prototypen als Kombination aus Edge Reflow und Edge Code bzw. der Open-Source-Variante Brackets. Das Tool stellt eine Live-Verbindung zwischen Codekonsole und visueller Ansicht her und jedes Element, dass der Coder auswählt, hebt automatisch die passende Codezeile zur Bearbeitung hervor. Umgekehrt gehts auch. Eine markierte Codezeile verbindet sich zum real sichtbaren Seitenelement. Realisationswahrscheinlichkeit: mittel.

Designerin Julieanne Kost gab einen tieferen Einblick in das, was bereits auf den Keynotes angekündigt wurde: Adobe will offene APIs für bestimmte Funktionen anbieten. In diesem Fall ist es der Shaker Remover. Kost zeigte eine Implementierung in eine einfache Tablet-App. Da die Rechenleistung des Tablets nicht reicht, macht das der Cloud-Server und spielt fertige Varianten mit unterschiedlichen Effektstärken zurück. Realisationswahrscheinlichkeit: sehr hoch.

Sylvain Paris übertrug die Beleuchtung des unteren Motivs auf das große Bild, obwohl die Perspektive nicht stimmt.

(Bild: Frank Puscher)

Das Highlight des Abends präsentierte Sylvain Paris. Er sammelte eine Handvoll Bilder eines Fischerdorfs und war in der Lage, Lichteffekte und Farbkompositionen von einem Bild auf das andere zu übertragen. Und damit nicht genug: Der gezeigte Prototyp konnte sogar die Perspektiven der verschiedenen Bilder aufbrechen und zusammenführen. Paris hatte die Möglichkeit, seinen Kamerastandpunkt nachträglich zu ändern. Realisationswahrscheinlichkeit: Hoffentlich sehr hoch.

Noam Almosnino kam mit Erweiterungen für Adobe Muse um die Ecke. Dabei geht es um subtile Animations-Effekte wie Rotation, Parallaxe, dynamische Farbveränderung und 3D-Animationen, natürlich alles aus CSS und JavaScript. Die Effekte werden als Palette in Muse integriert. Realisationswahrscheinlichkeit: Sicher.

Ähnlich wie Brimelow fokussierte auch Joel Brandt auf die Live-Verbindung zwischen Brackets und dem Browser. Diesmal ging es um die Entwicklung eines Debuggers, die man gemeinsam mit dem MIT vorantreibt. Realisationswahrscheinlichkeit: mittel.

Die Chancen für die Realisation des aufgemotzten Klonstempels sind eher gering.

(Bild: Frank Puscher)

Holger Winnemöller präsentierte eine App, die im Wesentlichen das manuelle Nachzeichnen von Fotos in Form von Vektorgrafiken oder mit realitätsnahen Pinseleffekten ermöglicht. Eine Art aufgemotzter Klonstempel. Realisationswahrscheinlichkeit: gering.

Todd Burke widmete seine Aufmerksamkeit InDesign. Er präsentierte eine neue Palette für Spezialeffekte wie Schnee, Feuer, Funken oder den Parallaxen-Effekt. Alle Effekte lassen sich direkt in InDesign animieren und dann als App für zum Beispiel Tablets ausgeben. Realisationswahrscheinlichkeit: gering.

Nico Becherer zeigte eine spannende Technologie, die nicht wirklich gut ins Adobe-Portfolio passt, aber eventuell ebenfalls ein Kandidat für ein offenes API sein könnte. Mit dem aus Photoshop bekannten "Verflüssigen" lassen sich Objekte modifizieren und die neue Form ist dann die Grundlage einer Ähnlichkeitssuche im Onlineshop. Geneigte Shopperinnen wären also in der Lage, die Höhe ihrer Absätze ab sofort zu zeichnen, statt in Zentimetern anzugeben. Realisationswahrscheinlichkeit: mittel.

Ein Programmierer, der mit dem Kürzel NJ auf die Bühne kam, zeigte erstmals die PSD Lense. Mit ihr können Designer und Coder die Maus über ein beliebiges Element in einer Photoshop-Komposition halten und bekommen in Form eines Tooltips zum Beispiel Maße und Abstände angezeigt, die sie für die Erstellung der HTML-Seite benötigen. Realisationswahrscheinlichkeit: sehr hoch.

Nick Bryan war der einzige Präsentator, der sich dem Thema Audio widmete. Er zeigte eine Technologie, die Audiosamples in "Ähnlichkeitsebenen" zerlegt. Somit lassen sich Gitarre und Gesang trennen und mit unterschiedlichen Pegeln neu zusammensetzen oder man entfernt einfach den störenden Klingelton eines Handys. Realisationswahrscheinlichkeit: mittel.

Ein sicherer Kandidat für Photoshop ist die verbesserte Perspektiv-Korrektur.

(Bild: Frank Puscher)

Ein sicherer Kandidat für das nächste Photoshop-Update ist die Perspektivkorrektur, die Sarah Kong zeigte. Man legt eine virtuelle Ebene über ein Objekt im Bild und kann es perspektivisch modifizieren. Schatten und Umgebungslicht bleiben erhalten, aber wenn das Objekt verschoben wird, richet es sich an anderen, im Bild befindlichen Fluchtpunkten neu aus. Kong verschob einen Bus von einer Straßenseite auf die andere, mit gerade mal sieben Mausklicks. Realisationswahrscheinlichkeit: sehr hoch. (bo)