Norbert + HYPERBOWL = ❤️
und das kam so:
Ich wollte genauer wissen, wie die Technologie funktioniert, und hab gefragt, ob ich vorbei kommen kann, um mir das mal aus der Nähe anzuschauen… Die Kollegen meinten, na klar, aber bleib doch gleich ein bisschen länger und mach Business Development für uns!
Win Win würde ich sagen 👍
Aber noch wichtiger: das sind richtig gute Leute, die eine Vision haben und was auf die Beine stellen, und zwar zusätzlich zu den anderen unwesentlichen Dingern, die die noch so am Laufen haben:
👉 NSYNK Gesellschaft für Kunst und Technik mbH
👉 ACHT
👉 TFN GmbH & Co. KG
Macht zusammen halt einfach richtig Sinn 🤗
Das Prinzip ist schnell erklärt. Man stellt sich in das LED Volume, auf dem Hintergründe dargestellt werden, die nachher im Film zu sehen sind, und zwar live und in #realtime.
✅ Vorteil zu Grün: alle sehen, was gerade gedreht wird
✅ Vorteil zu Location: mehrere Drehorte an einem Tag
✅ Volume vs. LED Wand: der Himmel, der alles anständig beleuchtet
Wenn Ihr das genauer wissen wollt, wie das alles funktioniert, sagt Bescheid, dann machen wir einen Call mit den Kollegen, die das Ding gebaut haben und bedienen. Die haben inzwischen 150+ Projekte auf der Uhr und wissen wie es läuft.
Kann aber auch sein, dass hier noch mal was darüber erzähle, ab und zu 😅
Danke Eno Henze, Ralf Drechsler und Frank Foerster für das Vertrauen, let’s do this!
3. August 2023
Virtual Production zum Ausprobieren!
Hier ein paar Eindrücke von unserem Virtual Production Workshop letzte Woche mit SEHSUCHT & Holobay.
Es gab für die Teilnehmer:innen drei Stationen:
👉 Interactive VR Experience:
mit einer VR Brille einen virtuellen Raum erleben und Gegenstände anfassen und bewegen...
👉 Virtual Location Setup:
eine Location virtuell begehen, die mit Hilfe von Google Geodaten und Fotos gebaut wurde (ohne vorher dort gewesen zu sein)...
👉 Porsche X23 Case:
mit dem Kamera-Rig auf der Schulter in der Unreal Engine "herumlaufen" und sich den richtigen Bildausschnitt suchen...
On top gab's noch einen virtuellen Presenter, der mit Hilfe eines MoCap Suits und Facetracking erstellt wurde und eine AI Installation, in der die Teilnehmer:innen der virtuellen "May" Fragen stellen konnten, die dann live über Chat GPT beantwortet wurden. (teilweise auch sehr interessant 😅)
Da kommen verschiedene Technologien zusammen, die schon jetzt aber vor allem in Zukunft angewandt werden können. Von der Erstellung virtueller Locations über die Abstimmung mit den Gewerken und den Kunden in einer VR Umgebung bis zum den Einsatz von virtuellen Charakteren und KI...
Let's see where this will take us 🤗
Unser Anspruch war vor allem zu verdeutlichen, was VP kann und wann man sich im Produktionsprozess damit beschäftigen sollte, um die Möglichkeiten ausschöpfen zu können bzw. zu prüfen, ob VP bei einem Projekt Sinn macht.
Am Ende gab's natürlich noch ein paar Impulse von mir, wie sich die Medien weiterentwickeln, Virtual Production ist da ja nur der Anfang...
Die Kids, die heute mit einem Game Controller in der Hand aufwachsen, schauen ja jetzt schon kein TV mehr, mit Werbespots in Spielfilm- oder Gameshowpausen wird man also in absehbarer Zeit nicht mehr weit kommen.
Spoiler: gilt auch für YouTube, Twitch und jede andere Plattform, wo man den User:innen durch eine frontale Botschaft das Erlebnis vermiesen kann.
💡💡💡
Warum also mit der Unreal Engine TV Spots produzieren, wenn man auch Games daraus machen kann?
Do the math 🤷
Grosser Dank an alle Teilnehmer:innen für die angeregte Diskussion und besonders an Laura Albani und Markus Trautmann von Sehsucht und Dan Weigl und Simon Kebeiks von Holobay für den ganzen Aufwand und den inspirierenden Tag 🙏
Das Video ist übrigens ganz ohne VP entstanden 🤣🤣🤣
6. September 2023
Virtual Production, gekommen, um zu bleiben?
Das war eine der Fragen auf dem Podium der LEDCave Open 2.1 in Köln (ok, Erftstadt, aber gilt, gab ne S-Bahn und nen Shuttle Service 👍)
Ich will mich ja nicht selber loben 😎 aber ich finde, ich hab die Disruption der Werbefilmproduktion ganz gut zusammengefasst, denn da kommen ein paar Dinge zusammen:
👉 Virtual Production gibt's schon länger, das Thema nimmt aber gerade Fahrt auf, weil jetzt noch der KI-Hype dazu kommt
👉 Die Technik wird in den nächsten Jahren vermutlich erstmal dafür eingesetzt werden, die gleichen TV Spots zu produzieren wie immer 🤷
👉 Gen Z schaut aber kaum TV, das TV Publikum wird also langsam aber sicher aussterben (true story 😉)
👉 Die Zuschauer:innen werden zu User:innen, die am Content und seiner Erstellung teilhaben wollen: Co-Creation / Shared Experiences
💡💡💡
Langfristig kann man aber - wenn man eh in einer "Gaming Engine" unterwegs ist auch was produzieren? Richtig: ein Game!
Dann kann man dem Wagen im Film nicht nur zuschauen, wie er von links nach rechts fährt, sondern ihn konfigurieren, fahren, und am Ende bestellen! ✅
Danke Katja Köstler und Thilo Strack für die Einladung und die Einblicke hinter die Kulissen LEDCave Cologne, und meinen Mitstreitern auf dem Podium Sebastian Limprecht und Maximilian Weber für den tollen Austausch!
7. March 2024
KI und Bewegtbild, oder die zwei Seiten der Medaille
Die Entwicklung von KI ist schnell, sehr schnell. Zwischen den ersten Filmen die mit KI erstellt wurden, und in denen den Leuten noch die Pizza aus dem Gesicht fällt, und den ersten Tests von OpenAI’s Sora liegen gerade mal neun Monate.
Bewegtbildproduzent:innen sorgen sich um ihre Geschäftsmodelle, Schauspieler:innen und Sprecher:innen um ihre Persönlichkeitsrechte, und Agenturen und Unternehmen überlegen schon, wie sie mit der neuen Technologie Kreativität neu denken und unabhängiger werden.
Da wurde es Zeit, die Entwicklungen mal einzuordnen, so geschehen im Rahmen der Club-Lounge des Marketing Club Berlin.
Das Interesse war entsprechend groß, gut 50 Gäste kamen am Montag ins Berliner Treehouse auf dem RAW Gelände, um sich die Einordnungen von den Panelisten Kerstin Hagg, Elias Reiche und Markus Trautmann anzuhören. Ich hatte das Vergnügen, die Runde zu moderieren und ein paar allgemeine Beispiele zu zeigen.
Wir hatten die Inhalte des Panels extra so angelegt, dass sowohl Marketeers als auch Agenturen und Produzent:innen etwas mitnehmen konnten, und am meisten freut mich, dass uns das anscheinend gelungen ist!
Es ging um die Erstellung von Moodbildern für eine TV-Kampagne, die Umsetzung eines kompletten Kundenauftrags mit KI, die Synchronisation von Filmen, hyperpersonalisierten Content, die Rettung von defekten Tonspuren, Retuschen und Text based Editing, Persönlichkeitsrechte und die Frage, womit eine KI eigentlich trainiert werden darf, und ob an dem Ergebnis Urheberrechte entstehen.
KI ist wie so vieles ein zweischneidiges Schwert. Es ermöglicht neue Kreationen und ist ein Tool zur Unterstützung von vielen, nicht nur kreativen Prozessen.
Gleichzeitig wird KI allerdings auch ganze Teile der Contentproduktion pulverisieren: Fotografie, Tonstudios, Sprecheragenturen… und es wird eine allgemeine Kostendiskussion geben.
Einen ganzen Film kann man allerdings noch nicht prompten, es ist bisher immer noch eine Frickelei mit verschiedenen Tools, die von Leuten, die auch vorher schon Filme gemacht haben, kombiniert werden.
Mal sehen, was Sora dann kann, wenn wir es selber ausprobieren, aber ich denke, die Contenterstellung wird so oder so auf Links gedreht.
Die Entwicklungen sind rasant, und man muss sich aktiv damit beschäfitgen, andere tun das auch. Es werden einige Leute von der KI ersetzt werden, und andere von Leuten, die sie benutzen.
Großer Dank an alle Panelists für die Einblicke, Anja Urlichs für das Vertauen und Bettina Klein für die immer wieder neue Öffnung der eigentlich geschlossenen Anmeldeliste... Albert Tuemann und Fellin Tuemann für die wundervolle Location und allen Gäste für die angeregten Diskussionen.
Beschäftigt Euch damit, die Reise hat begonnen 🤗