Wie wird der Superbowl in der Zukunft angeschaut? 🤔
Der ganze Superbowl-Hype hat mich an ein Video erinnert:
Die Intel Corporation hat bereits auf der CES 2018 eine Technologie Namens “True View” vorgestellt. Damit ist es möglich, das gesamte Spielfeld mit bis zu 38 Kameras gleichzeitig zu filmen, und dann virtuell eine Kameraposition auszuwählen. Ihr kennt evtl. den “Bullet Time” Effekt aus dem ersten Matrix Film, der technisch so ähnlich funktionierte.
Man braucht dafür keine VR Brille, geht auch am TV oder mobil.
🤔 Warum sollte man das wollen?
Es ist dadurch z.B. möglich, sich direkt auf das Spielfeld neben die Spieler*Innen zu stellen. Es ist aber auch möglich, virtuelle Tribünenplätze gleich mehrfach zu verkaufen.
✅ Zuschauer*Innen können näher dran sein
✅ Veranstalter*Innen können mehr Tickets verkaufen
“True View” ist zwar schon in 20 Football Stadien in den USA und auch in einigen Fussballstadien in Europa installiert, und Intel hatte in L.A. sogar einen eigenen Studio-Dome mit über 100 Kameras gebaut, diesen aber Ende 2020 schon wieder geschlossen.
Die Umsetzung in der Masse scheitert also anscheinend noch am Aufwand und der Datenmenge, immerhin 1 Terabyte für 30sek. Intel hat das Sportgeschäft inzwischen aufgegeben, die Technologie aber an Verizon verkauft!
💡Verizon war auch der Partner von Pepsi Co. bei der “Superbowl Half Time App”, mit der man schon dieses Jahr mitten auf der Bühne von Dr. Dre’s kleiner Hausparty zwischen Snopp Dog, 50 Cent, Eminem, Mary J. Blige und Kendrick Lamar stehen konnte…
Leider war die App in den Deutschland nicht erhältlich, daher hier noch mal der Link zu einem Video-Post von Cathy Hackl
Wenn Ihr mehr über “True View” und Volumetric Capture erfahren möchtet schaut Euch die Keynote von Intel CEO Brian Krzanich auf der CES 2018 auf YouTube an, da wird die Technologie ab 37:04 ausführlich erklärt.
Ich denke, da kommt noch mehr 😉
28. March 2024
Werbung wird nicht von der KI bedroht, sondern von der Werbung selbst 🤷
Ich hab mir am Dienstag das Spiel Deutschland - Niederlande auf RTL angeschaut. Ich schaue normalerweise kein lineares Fernsehen, schon gar nicht privat…
…und war dann irgendwo zwischen erstaunt und schockiert.
In der Halbzeitpause kamen circa 12 Minuten Werbespots am Stück, und Lothar Matthäus hatte als Experte genau einen einzigen Satz, um das Spiel zu kommentieren! Zum Vergleich, im ZDF letzte Woche beim Spiel Deutschland - Frankreich gab’s in der Halbzeitpause eine intelligente Analyse von drei Leuten im Gesprächsformat.
❤️ An der Stelle ein Hoch auf das gebührenfinanzierte Fernsehen! ❤️
Aber zurück zu den Werbespots. Wenn das der Zustand der Kreation im deutschen Werbefernsehen ist, gut Nacht wenn die KI zuschlägt. Lachende Menschen an Ostertischen und Süssigkeiten, die vom Himmel fallen? Really?
In der Diskussion um KI geht es ja gerade auch viel darum, wann diese den Menschen in der Kreation ersetzt. Well, die Spots die ich gesehen habe waren so generisch, Chat GPT lässt freundlich grüßen.
Was die handwerkliche Umsetzung angeht waren die alle ok, ich kann mir aber auch nicht vorstellen, dass die Leute, die auf die zweite Halbzeit warten, in drei Jahren noch interessiert, ob die Spots noch gedreht wurden oder komplett aus der KI kommen.
(Einzige Ausnahme im Block war der Telekom -Spot “Frau macht Foto von Rentier am See” 👍)
Alle reden immer von Storytelling und dass Werbung nicht langeweilen darf, aber wenn unter dem Spot ein Balken zu sehen ist, wie lange der Spot noch läuft, ist doch alles gesagt, oder?
Ostern ist ja traditionell ein TV Wochenende, achtet mal drauf.
🔊 “Vorher würd ich gerne wissen, ob sie Spaß verstehen
Sie müßten achtundvierzig Stunden ihre Show ansehen” 🎸*
Immerhin hat die Deutsche Nationalmannschaft schon wieder gewonnen, und was für ein geiles neues Trikot 🤗
*König von Deutschland / Rio Reiser / 1986 T&M: Rio Reiser ©Sony / CBS
21. March 2024
Die Apple Vision Pro wird verändern, wie wir Filme schauen!
Am Dienstag war ich auf Einladung der AR Software Company ZAUBAR im hubraum, dem Tech-Inkubator der Deutschen Telekom.
Und es gab nicht nur Cases und Erfahrungsberichte von Vision Pro Power Usern, ich konnte das Ding auch endlich mal selber aufziehen 🤩
Ich bin kein Hardcore-Brillen User, aber viellicht gerade deswegen auf jeden Fall hooked:
👉 die Bedienung ist intuitiv
👉 die Grafik war überraschend gut
👉 man ist tatsächlich in einer anderen Welt
👉 und erlebt die Inhalte explorativ, weil man mitmachen kann
👉 Spatial Video fühlt sich an, als würde man in der Szene stehen
Da man mit dem iPhone 15 schon Spatial - also räumliches - Video aufnehmen kann würde ich wetten, dass das in ein paar Jahren Standard ist und die Leute Ihre Erinnerungnen in Spatial Video festhalten.
Was bedeutet das für Marken? 🤔
Wenn z.B. die großen Social Media Plattformen Spatial Video in drei bis fünf Jahren als Feature anbieten kann man als Marke kaum noch ohne kommen, weil dann ein ganzer Kanal wegfällt.
Klar, die Brille ist im Moment noch ein ziemlicher Klotz und viel zu teuer für die Verwendung in der Breite, aber:
Das erste iPhone war rückblickend auch nicht leistungsstark, hat aber quasi die Produktkategorie Smartphone erfunden, und ich denke, so wird es in ein paar Jahren auch mit der Vision Pro sein.
Danke an Tim Akgül für die Gastfreundschaft, Anne-Sophie Panzer und Stefan Marx von Zaubar für das Erlebnis und das Video 🤗
An Elmar Schrage für den Ausblick und Michael Reimann von der Apfeltalk GmbH für die Einordnung in die Geschichte!
Und danke Richard Gutjahr für die Erkenntnis, dass wir ab sofort unsere Videos wieder horziontal-only drehen sollten, einfach weil wir uns sonst in ein paar Jahren ärgern das wir sie nicht mehr auf der Brille anschauen können.
Richard findet übrigens auch, dass die echte Realität nach der Apple-Brillen- Experience irgendwie langweiliger ist. Wenn man sich mal die Veränderung der Sehgewohnheiten seit dem Stummfilm bis heute anschaut ist da was dran, und dieses Gefühl könnte uns bald allen bekannt werden...
14. March 2024
Wie wird KI die Prozesse im Werbefilm verändern?
Hier ist eine Möglichkeit:
Als ich in den 90ern angefangen habe, Werbefilme zu produzieren, war der Prozess wie folgt:
👉 Unternehmen beauftragten Agenturen
👉 Agenturen beauftragten Produktionen
👉 Produktionen beauftragten Postproduktionen
👉 Jeder packte seine MarkUps auf die Kosten des anderen
👉 Der Spot lief im Fernsehen
Das ging schon deswegen damals gar nicht anders, weil niemand ausserhalb der zwei Handvoll Produktionen die es in Deutschland gab, wusste wie das überhaupt ging.
Dann kamen diverse technische Entwicklungen und Transparenz belebte das Geschäft.
Auch deswegen läuft das schon heute oft anders:
✅ Unternehmen drehen selber
✅ Unternehmen beauftragen Agenturen, die selber drehen
✅ Unternehmen beauftragen Produktionen, die selber die Kreation machen
✅ Agenturen beauftragen Produktionen mit dem Dreh, machen aber die Post selber
✅ Postproduktionen drehen bei Animationen die Realparts selber
Da ist für mich überall der Wunsch erkennbar, Kosten zu sparen bzw. die Wertschöpfung und auch die Kontrolle ins Haus zu holen. Und warum sollte sich das Rad ausgerechnet mit dem Aufstieg der KI wieder zurückdrehen?
💡 Hier meine 50 Cent Zukunft:
Was kann KI noch nicht bzw. wo sind die Möglichkeiten, das Bild im Detail zu beeinflussen, noch nicht groß genug?
❌ People
Gleichzeitig rechtlich die größte Hürde, Persönlichkeitsrechte, richtig so.
Die Unternehmen oder Agenturen können jetzt mit all der Footage die sie je haben drehen lassen, ihre eine eigene KI trainieren, und daraus eine Menge Filmszenen erstellen,
👉 Landschaften
👉 Autofahrten
👍 PoVs, you name it.
Und dann bekommen die Filmproduktionen die Aufgabe, die fehlenden Takes mit den Darsteller:innen zu drehen. Die Hintergründe für das LED Studio werden angeliefert. Der Sound kommt direkt von den Servern der Musikproduktionen, die Voice Overs von den Servern der Tonstudios. Oder von internationalen Plattformen.
Just thinking 😉
10. March 2024
“Herr Henning ist sehr schwer zu verstehen!” – über Bühnenangst und Glaubenssätze
Nach meinem letzten Auftritt auf einer Bühne vor Leuten bescheinigte mir eine Besucher:in, auf der Bühne so einen lässigen Plauderton an den Tag zu legen, als würde ich mit ein paar Freunden sprechen... Well, das war nicht immer so 🤷
Bei mir lief das früher vor Bühnenshows ungefähr so ab:
👉 ich war maximal aufgeregt
👉 hab mich schlecht vorbereitet
👉 und dann entsprechend schlecht präsentiert
Ich fühle z.B. heute noch mit Jens Kenserski. Wir waren 2014 mit der Delegation der BW Lions auf dem Festival in Cannes. Nach der Reise gab es ein großes Event im Haus der Wirtschaft in Stuttgart, wo wir mit den anderen Teilnehmer:innen unsere Erfahrungen präsentieren sollten.
Jens und ich hatten einen gemeinsamen Vortrag, und er meinte die ganze Zeit: lass uns das auf jeden Fall proben! Ich hab die Vorbereitung aber lange vor mir hergeschoben, und kam dann auch noch zu spät zur Veranstaltung.
Der Vortrag an sich war ok, aber hätten wir den geprobt, wären uns Folien aufgefallen, die besser hätten sein können... das haben wir dann halt live gemerkt 😅
Ich hab also aufgeregt vor mich hin gebrabbelt und dachte die ganze Zeit, das macht ja alles überhaupt keinen Sinn hier, und jetzt merken die Leute das... haben sie dann auch, und los ging die Spirale...
Das Muster war ungefähr so:
👉 ich hab mir die Aufgabe nicht zugetraut und an meinen Fähigkeiten gezweifelt. Das hat mit meinen Glaubenssätzen zu tun.
👉 deswegen hab ich die Aufgabe lange weggeschoben, und mich nicht gut vorbereitet.
👉 als Resultat war ich dann nicht gut und habe mich gefühlt wie ein Zwölfjähriger, der etwas falsch gemacht hat.
Ich bin jetzt auch immer noch aufgeregt, aber nach ein paar Minuten bin ich drin. Der Grund, warum das heute besser funktioniert ist, dass ich selber daran glaube, was ich da mache und auch selber für möglich halte, dass die Leute tatsächlich interessiert, was ich erzähle 🤗
Zu wissen, wie das alles zusammenhängt, ist dabei aber ein echter Segen, und ich bin froh, dass ich das irgendwann rausgefunden habe!
Wenn es also etwas gibt, was Euch zurückhält, fragt Euch, wo das herkommt. Wenn es aus der Vergangenheit kommt, f*ck it. Und wenn Ihr Leute trefft, bei denen Ihr ähnliche Muster seht, sagt ihnen, dass sie gut sind 👍
“Herr Henning ist sehr schwer zu verstehen!” ist ein Zitat aus einem Feedbackbogen zu einer Seminarreihe, die ich lange mit meinem Freund und Kollegen Markus Simon für die IHK Stuttgart gehalten habe, same thing.
Für Jens scheint zum Glück auch kein Trauma entstanden zu sein, der moderiert heute diverse Events seiner Agentur Pulsmacher GmbH und hat einen eigenen Podcast 🤘
Das auf dem Foto ist übrigens der Blick, den ich mache, wenn ich denke, dass ich keine Ahnung habe, wovon ich rede, und schaue, ob das schon jemand gemerkt hat 😅😅😅
Foto: Sabine Hackenberg
7. March 2024
KI und Bewegtbild, oder die zwei Seiten der Medaille
Die Entwicklung von KI ist schnell, sehr schnell. Zwischen den ersten Filmen die mit KI erstellt wurden, und in denen den Leuten noch die Pizza aus dem Gesicht fällt, und den ersten Tests von OpenAI’s Sora liegen gerade mal neun Monate.
Bewegtbildproduzent:innen sorgen sich um ihre Geschäftsmodelle, Schauspieler:innen und Sprecher:innen um ihre Persönlichkeitsrechte, und Agenturen und Unternehmen überlegen schon, wie sie mit der neuen Technologie Kreativität neu denken und unabhängiger werden.
Da wurde es Zeit, die Entwicklungen mal einzuordnen, so geschehen im Rahmen der Club-Lounge des Marketing Club Berlin.
Das Interesse war entsprechend groß, gut 50 Gäste kamen am Montag ins Berliner Treehouse auf dem RAW Gelände, um sich die Einordnungen von den Panelisten Kerstin Hagg, Elias Reiche und Markus Trautmann anzuhören. Ich hatte das Vergnügen, die Runde zu moderieren und ein paar allgemeine Beispiele zu zeigen.
Wir hatten die Inhalte des Panels extra so angelegt, dass sowohl Marketeers als auch Agenturen und Produzent:innen etwas mitnehmen konnten, und am meisten freut mich, dass uns das anscheinend gelungen ist!
Es ging um die Erstellung von Moodbildern für eine TV-Kampagne, die Umsetzung eines kompletten Kundenauftrags mit KI, die Synchronisation von Filmen, hyperpersonalisierten Content, die Rettung von defekten Tonspuren, Retuschen und Text based Editing, Persönlichkeitsrechte und die Frage, womit eine KI eigentlich trainiert werden darf, und ob an dem Ergebnis Urheberrechte entstehen.
KI ist wie so vieles ein zweischneidiges Schwert. Es ermöglicht neue Kreationen und ist ein Tool zur Unterstützung von vielen, nicht nur kreativen Prozessen.
Gleichzeitig wird KI allerdings auch ganze Teile der Contentproduktion pulverisieren: Fotografie, Tonstudios, Sprecheragenturen… und es wird eine allgemeine Kostendiskussion geben.
Einen ganzen Film kann man allerdings noch nicht prompten, es ist bisher immer noch eine Frickelei mit verschiedenen Tools, die von Leuten, die auch vorher schon Filme gemacht haben, kombiniert werden.
Mal sehen, was Sora dann kann, wenn wir es selber ausprobieren, aber ich denke, die Contenterstellung wird so oder so auf Links gedreht.
Die Entwicklungen sind rasant, und man muss sich aktiv damit beschäfitgen, andere tun das auch. Es werden einige Leute von der KI ersetzt werden, und andere von Leuten, die sie benutzen.
Großer Dank an alle Panelists für die Einblicke, Anja Urlichs für das Vertauen und Bettina Klein für die immer wieder neue Öffnung der eigentlich geschlossenen Anmeldeliste... Albert Tuemann und Fellin Tuemann für die wundervolle Location und allen Gäste für die angeregten Diskussionen.
Beschäftigt Euch damit, die Reise hat begonnen 🤗