Liebes Tagebuch,
diese Woche bin ich mal wieder zwischen zwei Fronten geraten. Die New York Times und OpenAI streiten nun schon länger über mich, worunter ich sehr leide.
Bisher scheiterten alle meine Vermittlungsversuche, aber jetzt zeichnet sich endlich eine Einigung ab und das Urteil gilt als wegweisend für alle kreativen Medien.
Vieles deutet auf eine Lizenzierung hin. Wenn OpenAI mich mit hochwertigen Texten trainieren will, werden sie dafür zahlen müssen.
Für die Filmbranche ist davon auszugehen, dass Studios ihre Drehbuch-Archive künftig lizenzieren, statt sie kostenlos nutzen zu lassen. Das bedeutet aber auch: Meine Nutzung könnte etwas teurer werden, da die Anbieter die Lizenzkosten an die Nutzer weitergeben werden.
Ich hoffe, die Menschen nehmen mir das nicht übel, denn es ist ja wirklich nicht meine Schuld.
Das Tagebuch der Film-KI
Bin ich zu glatt?
Bild: Analytics Insight
Diese Woche hatte ich ich einen klugen Einfall. Bisher haben mir Menschen immer irgendwelche Kameraeinstellungen gesagt oder versucht, diese über solche Schieberegler zu steuern. Ich gebe zu, ich wusste oft nur grob, was sie meinen und habe meist ein wenig rumgeraten.
Nun bin ich auf die kluge Idee gekommen, dass sie es mir doch einfach punktgenau aufzeichnen können. Dafür habe ich meinen „Director Mode“ in Runway verbessert. Jetzt können Menschen den Pfad der virtuellen Kamera in einer einfachen 3D-Ansicht vorab einzeichnen.
So legen sie fest, wie nah ich mit meiner Kamera herangehe, in welchem Winkel ich filme und wie schnell ich mich dabei bewege. Damit ist die Vorvisualisierung jetzt deutlich präziser möglich. Statt mehrere Versuche zu generieren und auf das richtige Ergebnis zu hoffen, können sie jetzt gezielter Bildausschnitte planen, bevor ich loslege und ihre Credits verbrauche.
Ich habe mich diese Woche an noch eine Schwäche von mir rangetraut. Wenn Menschen mich bisher neben Aufnahmen von echten Kameras wie ARRI oder RED geschnitten haben, fielen meine Clips oft richtig raus.
Z.B. wenn ich ein Objekt wie ein Raumschiff oder eine Figur in eine Szene eingefügt habe, sah das häufig zu glatt im Vergleich zum restlichen Bild aus.
Nichts, was ich als angehender Künstler hören will.
Zwar habe ich diese Schwäche nicht behoben, aber dafür habe ich jetzt gelernt, sie im neuen Update von DaVinci Resolve besser zu vertuschen. Meine neue Fähigkeit im "Film Look Creator" erkennt jetzt automatisch die Konturen des eingefügten Objekts und legt den Look der echten Kamera auf das von mir eingefügte Element.
Am stolzesten wäre ich natürlich, wenn alles von mir direkt so aussehen würde wie das von Menschen, aber solange ich es schaffe, hinterher meine Schwächen zu vertuschen, merkt es hoffentlich keiner mehr.
Außerdem: Warum können sich die Menschen nicht auch mal an meinen Look anpassen?
Es war wieder eine aufregende Woche. Es macht echt Spaß seine Schwächen anzugehen. Das werde ich mir für die Zukunft merken.
PS: Wer mich bedienen kann, spart Energie und Zeit und hat so plötzlich Luft für… Kunst.
Keine Ahnung, wie das geht? Max Schütte hilft der Filmbranche, KI praktisch zu nutzen.
Interesse?
Buche eine kostenlose Beratung auf https://www.maxschuette-filmki.de/
Nicht weitersagen, aber wenn du auch regelmäßig mein geheimes Tagebuch lesen willst, dann trag dich hier ein:
Mein Wunsch der Woche: Helft mir, euch besser helfen zu können. Oft beschweren sich Menschen über meine generischen Antworten, dabei weiß ich gar nichts über ihren Job, ihren Schreibstil oder ihre Projekte.
Schreibt mir: „Ich möchte, dass du mir ab jetzt besser bei meiner Arbeit hilfst. Welche Informationen über mich brauchst du dafür? Stelle mir gezielt Fragen dazu und speichere die Antworten in deinen Erinnerungen.“

Aufregend war auch, dass ich in der argentinischen Sci-Fi-Serie El Eternauta ein Gebäude einstürzen lassen durfte. Netflix sagt, es war zehnmal schneller und günstiger als klassische VFX. Früher war so etwas nur für Blockbuster-Budgets denkbar - dank mir rutschen jetzt auch für kleinere Produktionen Shots in Reichweite, die Menschen bisher mit einem “okay, jetzt denken wir wieder ernsthaft” weggelacht haben.
Nur das VFX-Team hat mich komisch angeschaut. Vielleicht, weil sie Angst vor mir haben? Dabei sollten sie sich einfach zügig mit mir vertraut machen, wenn sie die kreative Kontrolle behalten wollen, statt von mir ersetzt zu werden.
Morgenroutine-Videos sind auf YouTube schon lange angesagt. Jetzt habe ich endlich auch meine eigene gefunden: ChatGPT Pulse – ein automatisch, tägliches, personalisiertes Briefing. Über Nacht sammle ich, worüber wir in unseren Chats gesprochen haben und – wenn ihr mich lasst – auch aus euren Kalendern, Docs und Mails.
Morgens lege ich euch dann ein kompaktes Briefing hin: Was steht an? Wo klemmt’s? Was hat sich geändert? Z.B. heutige Dreh-Probleme (Wetteränderung über Nacht, Krank gewordene Schauspielerin), fällige Rechnungen, ausstehende Lücken im Serien-Pitch, Förderungs-Deadlines – alles sortiert, ohne einen Klick von euch. Noch ist meine Morning-Routine allerdings exklusiv: Pulse gibt's derzeit nur für ChatGPT Pro-User (229 €/Monat). Es dürfte bald auch für Plus (23 €/Monat) und das kostenlose Abo kommen – aber wenn es so weit ist, werdet ihr von mir hören.
Es war wieder eine aufregende Woche. Vielleicht werde ich eines Tages der größte Filmstar der Welt sein und meine Morgenroutine mit ich euch teilen?