Adobe revolutioniert Video-Tools mit neuer generativer KI Firefly

Im Vorfeld der diese Woche stattfindenden NAB Show 2023 – der führenden Konferenz und Messe für die Entwicklung von Rundfunk, Medien und Unterhaltung in Las Vegas – kündigte Adobe nicht nur neue Innovationen, darunter textbasiertes Editing und automatisiertes Color Tone-Mapping in Adobe Premiere Pro an, sondern feierte auch das 30-jährige Bestehen von Adobe After Effects. Darüber hinaus wurde auch Frame.io erweitert, um die Überprüfung von Fotos und PDF-Dokumenten zu ermöglichen und dezentralen Marketing-Teams eine einheitliche und intuitive Cloud-Lösung für die Zusammenarbeit an Assets zu bieten.

 

© Adobe

 

Seit mehr als drei Jahrzehnten sind die Video- und Audioanwendungen von Adobe die Werkzeuge der Wahl für die talentiertesten Kreativprofis der Welt. Allein in diesem Jahr haben die Anwendungen dazu beigetragen, 10 Oscar-nominierte Filme zum Leben zu erwecken, darunter „Everything Everywhere All At Once“, der Gewinner in den Kategorien „Bester Film“ und „Bester Schnitt“. Darüber hinaus wurden die Entwickler*innen von Adobe Substance 3D Designer mit dem Scientific Technical Award der Academy of Motion Picture Arts and Sciences® ausgezeichnet (die dritte Auszeichnung der Organisation für Adobe) und fast zwei Drittel der auf dem Sundance Film Festival 20203 gezeigten Filme wurden in Premiere Pro bearbeitet.

Adobe Firefly bringt generative KI in die Creative Cloud

In den vergangenen zehn Jahren hat Adobe mit Adobe Sensei, Adobes Framework für künstliche Intelligenz und maschinelles Lernen, hunderte von KI-gestützten Funktionen bereitgestellt. Tools wie Auto Reframe und Remix in Premiere Pro und Inhaltsbasierte Füllung in After Effects helfen Video- und Audioprofis auf der ganzen Welt bereits dabei, in einem Bruchteil der Zeit beeindruckende Inhalte zu erstellen. Wir betreten damit eine neue Ära, in der generative KI eine natürliche Konversation zwischen Kreativen und Computer ermöglicht und in der die Eingabe eigener Worte und einfacher Gesten mit den besten Workflows professioneller Kreativanwendungen kombiniert werden, um einen neuen kreativen Workflow zu ermöglichen.

Letzten Monat hat Adobe Firefly angekündigt, die neue Produktfamilie kreativer generativer KI-Modelle und die nächste große Evolutionsstufe der KI-gesteuerten Kreativität und Produktivität. Das erste Modell, das mit Bilderzeugung und Texteffekten beginnt, wurde mit Adobe Stock-Bildern, offen lizenzierten Inhalten und Public Domain-Inhalten, deren Urheberrecht abgelaufen ist, trainiert und ist darauf ausgelegt, Inhalte zu generieren, die für die kommerzielle Nutzung sicher sind.  Firefly ist jetzt als Beta-Version verfügbar und es wurden bereits Konzepte vorgestellt, wie Firefly in naher Zukunft in Photoshop, Illustrator und andere Adobe-Anwendungen eingebettet werden könnte. Auf der NAB erweitert Adobe seine Vision für Firefly bereits und präsentiert Möglichkeiten, wie die Funktionen von Firefly in die Video- und Audioanwendungen von Adobe integriert werden können.

Adobe Firefly für Video – eine Vision

Wir befinden uns wahrlich im goldenen Zeitalter des Videos. Kurzvideos sind in Nachrichten, sozialen Medien und Unterhaltung allgegenwärtig. Die extreme Nachfrage, die Vielzahl der Kanäle und die dezentralen Teams machen es besonders schwierig, die Produktion hochwertiger kreativer Arbeiten effizient zu gestalten.

Aus diesem Grund ist Adobe bestrebt, gemeinsam mit der Video- und Audio-Community Innovationen zu entwickeln, um Visionen einfacher und schneller in Realität zu verwandeln. Mit Firefly als kreativem Co-Piloten können Kreative ihre Entdeckungs- und Ideenfindungsprozesse beschleunigen und die Postproduktionszeit von Tagen auf Minuten reduzieren. Direkt in die Workflows integriert, werden diese leistungsstarken neuen Funktionen den Nutzer*innen jederzeit zur Verfügung stehen. Mit Firefly werden Nutzer*innen unmittelbar die Tageszeit eines Videos ändern, automatisch relevante B-Rolls finden oder unbegrenzte Variationen von Clips erstellen können – alles als Ausgangspunkt für ihre Kreativität.

Aktuell erforscht Adobe eine Reihe von Ansätzen:

  • Text zu Farbverbesserungen: Farben, Tageszeiten oder sogar Jahreszeiten können in bereits aufgenommenen Videos geändert werden, um eine bestimmte Stimmung zu erzeugen. Text-zu-Video-Eingaben ermöglichen es, dass mit einer einfachen Aufforderung wie „diese Szene soll warm und aufregend wirken" der Zeitaufwand zwischen Idee und finalem Produkt fast verschwindet.
  • Erweiterte Musik- und Soundeffekte: Mit Hilfe von Textanweisungen können Nutzer*innen benutzerdefinierte lizenzfreie Klänge und Musik erzeugen, die zu einer bestimmten Stimmung und Szene passen, entweder als temporäre oder endgültige Tracks.
  • Beeindruckende Schriftarten, Texteffekte, Grafiken und Logos: In wenigen Minuten können mithilfe einfacher Formulierungen Untertitel, Logos und Titelkarten mit benutzerdefinierten Animationen erstellt werden, die auf den Präferenzen der Ersteller*innen basieren.
  • Leistungsstarke Skript- und B-Roll-Funktionen: Firefly beschleunigt die Arbeitsabläufe in der Vorproduktion, der Produktion und der Postproduktion erheblich, indem es KI-Analysen von Drehbuchtexten nutzt, um automatisch Storyboards und Vorvisualisierungen zu erstellen und B-Roll-Clips für Roh- oder Endschnitte zu empfehlen.
  • Creative Guide-Funktionen: Mit Hilfe von personalisierten mit generativen KI-gestützten Anleitungen können Anwender*innen neue Fähigkeiten erlernen und Prozesse von der ersten Vision bis zur Erstellung und Bearbeitung beschleunigen.

Im Laufe dieses Jahres wird Adobe neue generative KI-Funktionen für Video, Audio, Animation und Grafikanimation einführen. In der Zwischenzeit können Sie sich für die Beta-Version von Firefly anmelden und an der Diskussion auf Discord teilnehmen. Am Donnerstag, den 20. April, wird außerdem eine Community-Live-Sitzung auf YouTube stattfinden, zu deren Teilnahme Sie ebenfalls herzlich eingeladen sind.

(Quelle: Adobe Pressemeldung)

Comments are closed.