Frage von Matt89:Hi
ein Videograf erzählte mir, dass er sich die Nikon Z9 gekauft hat und nun in Zukunft seine Aufträge nur noch in 8K 50fps filmt. Dadurch kann er dem Auftraggeber einen professionellen Film schneiden aber hat zusätzlich auch eine riesige Auswahl an 8K Frames, um auch zusätzlich professionelle "Fotos" zu liefern. Er meinte, wenn er alles in RAW filmen würde, hätte er quasi keine Nachteile. Der Auftraggeber kann sich den Fotografen sparen, er kann mehr Kohle verlangen und alle sind glücklich.
Grundsätzlich finde ich das spannend, weil ich sowas noch nie gehört habe aber ich wollte euch Profis hier mal fragen:
1) Was haltet ihr grundsätzlich von der Aussage?
2) Ist ein 8K 50fps Videoframe (RAW) wirklich vergleichbar mit einem normalen Foto (RAW)?
3) Hat man mit 1/100 Belichtungszeit bei 50fps nicht nur leicht verwackelte Einzelframes?
4) Wie viel Speicher benötigt man, wenn man mit ca. 3 Stunden Videomaterial nach Hause geht?
Freue mich über ein paar Meinungen.
Herzlichen Dank
Antwort von pillepalle:
Ist natürlich Quatsch. Bei 750MB/s hast Du nach drei Stunden ca. 8TB Material.
VG
Antwort von DAF:
Ich mache das auch ab und zu, Stills fürs I-Net aus 4K-Material zu nehmen.
Das kommt halt auf die Anforderungen an die Set-Bilder, die Bildinhalte usw. an. Ich würde mich als Kameramann nicht "trauen" bei halbwegs qualitätsorientierten Produktionen den Part der/des SetfotografIn vollständig zu übernehmen. Unabhängig von der Bildqualität sind die Anforderungen ja deutlich umfangreicher
(z.B. Gruppenbilder, ggf. Schauspieler zusammen im Set die sonst nie zusammen auftreten und vieles mehr)
als nur Outtakes des Videomaterials.
Und jedes mal die Video-Cam abrüsten um damit Fotos zu machen, passt zur Videogruppe der 8. Klasse mit No-Budget.
Meine Meinung...
Antwort von cantsin:
Matt89 hat geschrieben:
ein Videograf erzählte mir, dass er sich die Nikon Z9 gekauft hat und nun in Zukunft seine Aufträge nur noch in 8K 50fps filmt. Dadurch kann er dem Auftraggeber einen professionellen Film schneiden aber hat zusätzlich auch eine riesige Auswahl an 8K Frames, um auch zusätzlich professionelle "Fotos" zu liefern. Er meinte, wenn er alles in RAW filmen würde, hätte er quasi keine Nachteile. Der Auftraggeber kann sich den Fotografen sparen, er kann mehr Kohle verlangen und alle sind glücklich.
Grundsätzlich finde ich das spannend, weil ich sowas noch nie gehört habe aber ich wollte euch Profis hier mal fragen:
1) Was haltet ihr grundsätzlich von der Aussage?
2) Ist ein 8K 50fps Videoframe (RAW) wirklich vergleichbar mit einem normalen Foto (RAW)?
3) Hat man mit 1/100 Belichtungszeit bei 50fps nicht nur leicht verwackelte Einzelframes?
4) Wie viel Speicher benötigt man, wenn man mit ca. 3 Stunden Videomaterial nach Hause geht?
Lustigerweise mache ich zur Zeit genau das, wenn auch extrem Lowtech mit eher subkulturellen Videos, die ich als Hochgeschwindigkeits-Raw-Still-Serien schieße und dann sowohl als Video in Resolve montiere, als auch Stills daraus extrahiere.
Hier ein aktuelles Beispiel - montiertes Video:
https://vimeo.com/815593261
Still-Foto aus demselben Material:
2023-04-06-de_aanschouw_abdul_reinaart-000272.jpg
Es gibt verschiedene Probleme bei diesem Ansatz:
- Datenmengen wurden schon geschildert.
- Verschlusszeiten hast Du schon angesprochen. Bei hochqualitativen Bildern und hohen Auflösungen wie den 8K/45 MP der Z9 spielen die noch eine größere Rolle, weil Du gerade bei dokumentarischen/journalistischen bzw. nicht gestellten Aufnahmen in kürzere Verschlusszeiten gehen musst, um diese hohe Auflösung auch faktisch zu erzielen (und nicht durch Bewegungsunschärfe zu verlieren). Also hast Du schon mal sich widersprechende Zielvorgaben für Foto und Video. Wobei 1/100 ja wiederum zu knapp für Video sei kann und in stroboskopartigen Bewegungen resultiert, wenn das Video als 25p rausgerendert bzw. gestreamt/abgespielt wird.
- Man nimmt Video anders auf als Stills, bzw. mit einem anderen Auge aufs Motiv. Bei Video geht es immer um die Bewegung, weswegen das Einzelbild nicht perfekt sein muss in Komposition und sonstigen technischen Parametern. (Es sei denn, man hat eine extrem stilisierte Studioästhetik und dreht so wie Wes Anderson oder Ulrich Seidl...) Deswegen funktionieren aber Framegrabs i.d.R. nicht gut als selbständige Fotos.
- Bei Stills wartet man hingegen den einen guten Moment ab und drückt dann den Auslöser, und hat dann eine ruhige Kamera und i.d.R. ein ruhiges Motiv.
- Und: Schon in dem Moment, in dem Du die Kamera schwenkst oder sonstwie bewegst, versemmelst Du Dir in der Regel Deine Stills, es sei denn, Du schwenkst mit dem Motiv mit.
- Zu guter letzt: Die Postproduktions-Workflows für Stills und Bewegtbild sind verschieden und haben verschiedene Ziele.
Wenn Du z.B. Deine Bilder in Resolve prozessierst, hast Du vergleichsweise simple Debayering-Algorithmen, keine Objektivkorrekturen und auch nur sehr grobe eingebaute Rauschfilter. Es ist auch praktisch unmöglich, Deine Bilder zu beschneiden (bzw. Horizontkorrektur zu machen) oder gemischt im Hoch- und Querformat zu bearbeiten und anschließend in 1:1/optimaler Pixelauflösung zu exportieren, weil bei Video eben alles auf dem Prinzip der Timeline und deren fester Auflösung beruht. Man müsste da in Resolve & Co. schon extreme Hacks anwenden (wie z.B. verschiedene Timelines in allen möglichen Auflösungen und Seitenverhältnissen innerhalb eines Projekts), um das Programm zu einem Foto-Rawentwickler zu machen.
Bei meinen obigen Bildern wurde das Bewegtbild in Resolve generiert und das Raw-Foto mit DxO Photolab (und allen seinen extrem avancierten Raw-Still-Entwicklungsmethoden inkl. Deep Learning-Entrauschung) prozessiert. Du hast bei Bewegt- und Standbild auch verschiedene Ziel-Ästhetiken: Bei Bewegtbild ein eher weiches Bild, bei dem die verschiedenen Einzelbilder gut aneinander anschließen, bei Standbild ein möglichst crispes Bild. In meinem obigen Fall habe ich mir das Standbild/Foto im Prinzip schon dadurch versaut, dass ich ein Diffusionsfilter vorm Objektiv hatte...
Wenn man jetzt einen hybriden Workflow probiert und die Videobilder mit Resolve bearbeitet, um auf der Grundlage des geschnittenen Video wieder Raw-Frames 'rauszupicken, die man dann mit Lightroom, DxO & Co. als Fotos entwickelt, gibt's andere praktische Probleme:
1) Mit der einzigen Ausnahme von CinemaDNG (dessen Einzelframes DNG-Dateien sind) kriegt man Video-Raw-Formate bisher nicht in Raw-Still-Formate konvertiert. Mir ist bisher keine Methode bekannt, wie man aus Nikons N-Raw-Videodateien einzelne NEFs oder DNGs extrahiert. Bei ProRes Raw geht das immerhin über den Umweg von CinemaDNG-Konvertern.
Das ist aber nur wahnsinnig umständlich, sondern verdoppelt die ohnehin schon großen Dateimenge. Denn:
2) Es gibt AFAIK bisher keine funktionierende Möglichkeit, in Resolve auf einen Einzelframe zu gehen und dann den korrespondierenden (CinemaDNG-) Raw-Einzelframe im Dateisystem zu matchen und ggfs. in einen neuen Ordner fürs anschließende Prozessiern in Lightroom & Co zu kopieren.
Kurz gesagt: In der Theorie keine schlechte Idee (und die gleichen Überlegungen gab's schon mal in der Vergangenheit mit RED-Kameras), in der Praxis nicht so dolle...
Antwort von iasi:
So ganz würde ich cantsin nicht zustimmen.
Auch beim Fotografieren nutzt man die Serienbildaufnahme, um den einen Moment, den einen Blick einzufangen.
Im Prinzip bietet die Z9 im Videomodus also mit 50 Einzelbilder pro Sekunde.
Aber es gibt 3 Punkte, die einen Unterschied ausmachen und die z.T. auch schon genannt wurden:
1. Die Belichtungszeit. Hier könnte man natürlich auch beim Filmen auf 1/500s gehen, aber was gute Einzelbilder liefert, hat als Filmmaterial seine eigene Wirkung ...
2. Blitzsteuerung.
3. Bildformat. Im Filmmodus liest die Z9 nur 16:9 aus.
Bedenkt man, dass auch bei Reihenbildaufnahmen komprimiertes Raw eingesetzt wird und z.B. auch Resolve reichlich Bildgestaltungswerkzeuge bietet, ...
Antwort von pillepalle:
Im Falle der Z9 auch eine geringere Farbtiefe (12 vs 14 Bit) und Dynamik als bei Stills. Von den ganzen anderen Pferdefüßen mal abgesehen. Auf so eine Idee kann nur kommen, wer noch nie als Fotograf gearbeitet hat. Die Herangehensweise ist eine völlig andere und man reagiert viel spontaner und mobiler, auch bezüglich der Möglichkeiten bei der Aufnahme und in der Post, die man bei Video überhaupt nicht nutzt. Bei Video kombiniert man kein Blitz- und Dauerlicht, macht keine Langzeitbelichtungen, Stitchings, Focus Stacks, oder friert Bewegungen ein, wechselt lansgamer und seltener die Perspektiven, die Belichtungszeit, den Fokus, die Blenden, auch zwischen Hoch- und Querformaten. Das sind jetzt nur mal spontan ein paar Dinge die mir einfallen.
VG
Antwort von Jott:
Wer sich so was antun möchte, bitte. Standbilder aus Videos nehmen ersetzt keinen Fotografen, das sind - nimmt man beides ernst - verschiedene Disziplinen wie schon beschrieben.
Was nur gerne passiert: hinterher, nach einem Industrie-Dreh oder so was, fragt der Kunde, ob er ein paar Fotos aus dem Material haben kann, für die Website bla bla. Bitte bitte. Das kann man schlecht ablehnen.
Die Lösung: Topas Photo AI. Frame aus 4K-Rohmaterial auswählen, rein damit, Auflösung/Schärfe hochnehmen, entrauschen, aber vor allem: Bewegungsunschärfe entfernen. Dafür gibt‘s einen Knopf. Funktioniert gut. Kunde freut sich, wir schreiben für den kleinen Gefallen eine schöne Schmerzensgeld-Rechnung, alle sind happy.
Als Normalzustand? Nein, bitte nicht. Wenn‘s für einen Fotografen nicht reicht, soll das Marketing gerne selber knipsen! :-)
Antwort von Darth Schneider:
Die Z9 schafft 20 vollaufgelöste Raw Fotos pro Sekunde, das sind nur 4 FpS weniger als Video/Film/Bewegtbilder.
Mit JPGs geht noch mehr…Bis zu 120…immer noch mit 11MP und mit Autofokus..
Also warum denn um Himmelswillen überhaupt noch mit Video Fotos machen wollen ?
Gruss Boris
Antwort von iasi:
pillepalle hat geschrieben:
Im Falle der Z9 auch eine geringere Farbtiefe (12 vs 14 Bit) und Dynamik als bei Stills. Von den ganzen anderen Pferdefüßen mal abgesehen. Auf so eine Idee kann nur kommen, wer noch nie als Fotograf gearbeitet hat. Die Herangehensweise ist eine völlig andere und man reagiert viel spontaner und mobiler, auch bezüglich der Möglichkeiten bei der Aufnahme und in der Post, die man bei Video überhaupt nicht nutzt. Bei Video kombiniert man kein Blitz- und Dauerlicht, macht keine Langzeitbelichtungen, Stitchings, Focus Stacks, oder friert Bewegungen ein, wechselt lansgamer und seltener die Perspektiven, die Belichtungszeit, den Fokus, die Blenden, auch zwischen Hoch- und Querformaten. Das sind jetzt nur mal spontan ein paar Dinge die mir einfallen.
VG
Bei Serienbildaufnahmen sind es meist auch nur 12 Bit.
Und wer als Fotograf gearbeitet hat, schätzt die Möglichkeit aus einer Reihe von Bildern den idealen Moment herauspicken zu können.
Nur wer noch immer im Hinterkopf hat, dass er bei 20fps seinen Kleinbildfilm schon nach knapp 2 Sekunden-Aufnahmezeit wechseln muss, kommt nicht auf die Idee. :)
Antwort von cantsin:
"Darth Schneider" hat geschrieben:
Die Z9 schafft 20 vollaufgelöste Raw Fotos pro Sekunde, das sind nur 4 FpS weniger als Video/Film/Bewegtbilder.
Mit JPGs geht noch mehr…Bis zu 120…immer noch mit 11MP und mit Autofokus..
Also warum denn um Himmelswillen überhaupt noch mit Video Fotos machen wollen ?
Die Idee ist hier wohl, in ein und demselben Aufwasch bzw. aus ein und demselben Kameramaterial sowohl Bewegt- als auch Standbilder zu erzeugen - also alle Fotos als Video-Framegrabs, und daneben noch ein geschnittenes Video.
Warum es für so einen Workflow sowohl bildgestalterische, als auch technische Grenzen gibt, hatte ich in meinem Posting weiter oben ausgeführt...
Antwort von iasi:
Jott hat geschrieben:
Wer sich so was antun möchte, bitte. Standbilder aus Videos nehmen ersetzt keinen Fotografen, das sind - nimmt man beides ernst - verschiedene Disziplinen wie schon beschrieben.
Was nur gerne passiert: hinterher, nach einem Industrie-Dreh oder so was, fragt der Kunde, ob er ein paar Fotos aus dem Material haben kann, für die Website bla bla. Bitte bitte. Das kann man schlecht ablehnen.
Die Lösung: Topas Photo AI. Frame aus 4K-Rohmaterial auswählen, rein damit, Auflösung/Schärfe hochnehmen, entrauschen, aber vor allem: Bewegungsunschärfe entfernen. Dafür gibt‘s einen Knopf. Funktioniert gut. Kunde freut sich, wir schreiben für den kleinen Gefallen eine schöne Schmerzensgeld-Rechnung, alle sind happy.
Als Normalzustand? Nein, bitte nicht. Wenn‘s für einen Fotografen nicht reicht, soll das Marketing gerne selber knipsen! :-)
In Resolve gradet man ebenso das Einzelbild, wie in jeder Fotosoftware.
Man muss auch keine Bewegungsunschärfe entfernen, wenn es keine schnellen Bewegungen in der Filmaufnahme gibt.
Man sollte die Kirche vielleicht auch mal im Dorf lassen.
Wer zudem einen bestimmten Moment in einer sehr schnelle Bewegungen erwischen möchte, kann die 50fps nutzen, indem er die Belichtungszeit entsprechend verkürzt und in Raw filmt.
Das ist dann keine schmerzhafte Sache sondern eine zusätzliche Option, die Kameras wie die Z9 bieten.
Antwort von iasi:
cantsin hat geschrieben:
"Darth Schneider" hat geschrieben:
Die Z9 schafft 20 vollaufgelöste Raw Fotos pro Sekunde, das sind nur 4 FpS weniger als Video/Film/Bewegtbilder.
Mit JPGs geht noch mehr…Bis zu 120…immer noch mit 11MP und mit Autofokus..
Also warum denn um Himmelswillen überhaupt noch mit Video Fotos machen wollen ?
Die Idee ist hier wohl, in ein und demselben Aufwasch bzw. aus ein und demselben Kameramaterial sowohl Bewegt- als auch Standbilder zu erzeugen - also alle Fotos als Video-Framegrabs, und daneben noch ein geschnittenes Video.
Warum es für so einen Workflow sowohl bildgestalterische, als auch technische Grenzen gibt, hatte ich in meinem Posting weiter oben ausgeführt...
Wenn es keine schnellen Bewegungen in der Aufnahme gibt und das 16:9-Format OK ist, kann man es machen.
Wer in Resolve gradet, blickt in der Vorschau immer auf ein Einzelbild.
Antwort von pillepalle:
iasi hat geschrieben:
Und wer als Fotograf gearbeitet hat, schätzt die Möglichkeit aus einer Reihe von Bildern den idealen Moment herauspicken zu können.
Nur wer noch immer im Hinterkopf hat, dass er bei 20fps seinen Kleinbildfilm schon nach knapp 2 Sekunden-Aufnahmezeit wechseln muss, kommt nicht auf die Idee. :)
Warum wundert es mich nicht, dass Du Dich mit Deinen Antworten immer als Noob outest? Ja iasi, nur die ganz guten Fotografen ballern die ganze Zeit mit hohen Bilderraten in der Gegend herum. Auch wenn es überhaupt nicht nötig ist :)
VG
Antwort von iasi:
pillepalle hat geschrieben:
iasi hat geschrieben:
Und wer als Fotograf gearbeitet hat, schätzt die Möglichkeit aus einer Reihe von Bildern den idealen Moment herauspicken zu können.
Nur wer noch immer im Hinterkopf hat, dass er bei 20fps seinen Kleinbildfilm schon nach knapp 2 Sekunden-Aufnahmezeit wechseln muss, kommt nicht auf die Idee. :)
Warum wundert es mich nicht, dass Du Dich mit Deinen Antworten immer als Noob outest? Ja iasi, nur die ganz guten Fotografen ballern die ganze Zeit mit hohen Bilderraten in der Gegend herum. Auch wenn es überhaupt nicht nötig ist :)
VG
Warum wundert es mich nichjt, dass Du in deinem in der Vergangenheit verfangenen Denken, nicht einfach mal die Möglichkeiten sehen willst, die technische Entwicklungen einem eröffnen.
Ein "guter Fotograf" verschließt sich nicht neuen Gestaltungsmöglichkeiten. Bei dynamischen Aufnahmesituationen nutzt ein "guter Fotograf" die Aufnahmegeschwindkeit seiner Kamera.
Einfach mal eine logische Überlegung:
Warum wohl bieten gerade die teuren Profikameras hohe Frameraten?
Aber vielleicht gehörst du ja zu denen, die versuchen den einen kurzen und richtigen Moment mit einem Druck auf den Auslöser zu erwischen. Nicht alle verlassen sich gerne auf so viel Glück.
Antwort von cantsin:
iasi hat geschrieben:
Warum wohl bieten gerade die teuren Profikameras hohe Frameraten?
Weil die primär für Sportfotografen und Fotojournalisten gebaut werden.
Antwort von iasi:
cantsin hat geschrieben:
iasi hat geschrieben:
Warum wohl bieten gerade die teuren Profikameras hohe Frameraten?
Weil die primär für Sportfotografen und Fotojournalisten gebaut werden.
Immer diese Verallgemeinerungen.
Wie schon pillepalle mit seinem "guten Fotografen". :)
Was ist denn mit Tierfotografen?
Was ist mit Modellshooting?
In einem Gesicht bewegen sich sehr viele Muskeln sehr schnell. Die Augen wechseln die Blickrichtung rasant.
Mit hohen Frameraten erhalte ich den Gesichtsausdruck, den ich bei einer Einzelbildaufnahme nur mit sehr viel Glück einfangen kann.
Pro Minute blinzelt ein Mensch etwa 10 bis 15 Mal, also alle 4 bis 6 Sekunden, wobei dies über eine Zeitspanne von durchschnittlich 300 bis 400 Millisekunden geschieht.
Wir sind heute nicht mehr auf 36 Bilder beschränkt.
Wie lange kann die Z9 mit 20fps aufnehmen?
Am Stück lange. (Wie lange genau weiß ich jetzt nicht.)
Mit Unterbrechungen bis die Speicherkarte voll ist.
Antwort von cantsin:
iasi hat geschrieben:
Am Stück lange. (Wie lange genau weiß ich jetzt nicht.)
Mit Unterbrechungen bis die Speicherkarte voll ist.
Hast Du schon mal bezahlte Fotografie gemacht? Dann wüsstest Du, dass zuviel Material Deine Arbeitszeit in der Nachbearbeitung explodieren lässt. Ein guter Fotograf schießt genug Material, aber hat eben auch ein gutes Auge, so dass da auf der Speicherkarte bereits brauchbares Material liegt und sich die anschließende Bildredaktion verkürzt.
Spray-and-pray ist Amateurmethode. Solange es keine KI gibt, die Dir aus zehn- oder hunderttausenden Frames automatisch eine gute Vorauswahl selektiert, kommst Du damit als Fotograf auf keinen grünen Zweig.
Antwort von pillepalle:
iasi hat geschrieben:
Warum wundert es mich nichjt, dass Du in deinem in der Vergangenheit verfangenen Denken, nicht einfach mal die Möglichkeiten sehen willst, die technische Entwicklungen einem eröffnen.
Ein "guter Fotograf" verschließt sich nicht neuen Gestaltungsmöglichkeiten. Bei dynamischen Aufnahmesituationen nutzt ein "guter Fotograf" die Aufnahmegeschwindkeit seiner Kamera.
Einfach mal eine logische Überlegung:
Warum wohl bieten gerade die teuren Profikameras hohe Frameraten?
Aber vielleicht gehörst du ja zu denen, die versuchen den einen kurzen und richtigen Moment mit einem Druck auf den Auslöser zu erwischen. Nicht alle verlassen sich gerne auf so viel Glück.
Cantsin hat ja schon gesagt für wen hohe Bildraten, unter anderem, nützlich sein können. Ja, auch im Wildlife Bereich kann das nützlich sein. Aber das macht nur einen geringen Teil der Anwender aus, die davon überhaupt profitieren. Auf's Glück verläßt man sich, wenn man mit hohen Bildraten arbeitet, nach dem Motto, da wird schon was dabei sein ;) Und das Du die hohen Bildraten für neue Gestaltungsmöglichkeiten hälst, zeigt auch eher das Du Fotografieren auf's reine Knipsen/Draufhalten reduziert. Deshalb hälst Du vermutlich auch die Extration von Stills aus einem Video für eine besonders fortschrittliche Art zu arbeiten. Zum Glück reicht es, wenn Du hier herumtheoretisierst denn niemand muss sich für die imaginären Datenberge die Du produzierst interessieren. Iasi der Baum, reichen da die 50fps überhaupt aus?
VG
Antwort von iasi:
pillepalle hat geschrieben:
iasi hat geschrieben:
Warum wundert es mich nichjt, dass Du in deinem in der Vergangenheit verfangenen Denken, nicht einfach mal die Möglichkeiten sehen willst, die technische Entwicklungen einem eröffnen.
Ein "guter Fotograf" verschließt sich nicht neuen Gestaltungsmöglichkeiten. Bei dynamischen Aufnahmesituationen nutzt ein "guter Fotograf" die Aufnahmegeschwindkeit seiner Kamera.
Einfach mal eine logische Überlegung:
Warum wohl bieten gerade die teuren Profikameras hohe Frameraten?
Aber vielleicht gehörst du ja zu denen, die versuchen den einen kurzen und richtigen Moment mit einem Druck auf den Auslöser zu erwischen. Nicht alle verlassen sich gerne auf so viel Glück.
Cantsin hat ja schon gesagt für wen hohe Bildraten, unter anderem, nützlich sein können. Ja, auch im Wildlife Bereich kann das nützlich sein. Aber das macht nur einen geringen Teil der Anwender aus, die davon überhaupt profitieren. Auf's Glück verläßt man sich, wenn man mit hohen Bildraten arbeitet, nach dem Motto, da wird schon was dabei sein ;) Und das Du die hohen Bildraten für neue Gestaltungsmöglichkeiten hälst, zeigt auch eher das Du Fotografieren auf's reine Knipsen/Draufhalten reduziert. Deshalb hälst Du vermutlich auch die Extration von Stills aus einem Video für eine besonders fortschrittliche Art zu arbeiten. Zum Glück reicht es, wenn Du hier herumtheoretisierst denn niemand muss sich für die imaginären Datenberge die Du produzierst interessieren. Iasi der Baum, reichen da die 50fps überhaupt aus?
VG
Film ist nichts anderes als Bildreihen. Es ist kein Unterschied, ob ich aus einem 35mm-Kinofilm oder einem KB-Film ein Einzelbild herausschneide.
Diesen Unterschied versuchst du nur ständig zu konstruieren.
Offensichtlich hast du auch noch nie die Serienbild-Möglichkeit genutzt, weil du zwar immer gern von Profis redest, aber Datenberge fürchtest.
Schon zu Negativzeiten ließen sich bei einem Shooting Fotografen eine Kamera nach der anderen von ihrem Assistenten reichen, weil sie eine KB-Patronen nach der anderen leerraterten.
Denkst du wirklich, du könntest von einer Film-Nahaufnahme ein beliebiges Bild herauspicken und schon hättest du das beste erwischt?
Statt von "guten Fotografen" zu reden, solltest du dir mal die Einzelbilder eine Nahaufnahme einer Person ansehen und diese vergleichen.
Antwort von pillepalle:
@ iasi
Doch, die Bildreihen sind komprimiert und haben eine geringere Farbtiefe. Du kannst nicht mal eben die Belichtungszeit, oder Blende, ändern und brauchst eine Form der Stabilisierung um Dich zu bewegen. Um nur mal ein paar Unterschiede zu nennen. Aber davon hast Du natürlich noch nie etwas gehört ;) Deshalb sind für Dich Foto und Film auch das gleiche. Im Gegensatz zu Dir, arbeite ich auch als Fotograf und ob Du's glaubst oder nicht, ich habe noch nie 20fps gebraucht. Nicht in der Mode, nicht in der Werbung und nicht in der Kunst. Und dann sollen die 50fps RAW Video jetzt der große Fortschritt sein der ganz neue Gestaltungsmöglichkeiten bringt? Das Du nicht selber darüber lachen musst. Viel hilft nicht immer viel und manchmal ist weniger mehr. Weniger Bilder in besserer Qualität sind meist sinnvoller als viele in geringer. Kannst Du mir glauben, oder auch nicht.
VG
Antwort von Jott:
Iasi plappert den guten alten Ketch Rossi aus reduser nach, der vor zehn Jahren oder so eine ganz große Klappe hatte zu diesem Thema, aber nur heiße Luft von sich gab, inclusiv Angeberartikel in irgend einer Fotografie-Postille. Praxisrelevanz: null.
Kann man natürlich trotzdem machen. Wenn Iasi keinen Film auf die Kette kriegt, wird er halt Red-Fotograf. Bei 200 und mehr Bildern pro Sekunde wird schon meistens ein Treffer dabei sein. Und das Auswählen macht dann mal richtig Spaß, wenn man‘s ein paar Sekunden lang laufen läßt pro Shot. Man hat ja Zeit.
Antwort von iasi:
Jott hat geschrieben:
Iasi plappert den guten alten Ketch Rossi aus reduser nach, der vor zehn Jahren oder so eine ganz große Klappe hatte zu diesem Thema, aber nur heiße Luft von sich gab, inclusiv Angeberartikel in irgend einer Fotografie-Postille. Praxisrelevanz: null.
Kann man natürlich trotzdem machen. Wenn Iasi keinen Film auf die Kette kriegt, wird er halt Red-Fotograf. Bei 200 und mehr Bildern pro Sekunde wird schon meistens ein Treffer dabei sein. Und das Auswählen macht mal richtig Spaß, wenn man‘s ein paar Sekunden lang laufen läßt. Man hat ja Zeit.
Viel mehr Spaß macht es dann, wenn man die Aufnahme wiederholen muss, weil das Modell eine Muskelzuckung hatte, nachdem der "gute Fotograf" der Auslöser gedrückt hatte. Das ist dann natürlich echt professionell. :)
Als Profi hat man schließlich eher Zeit und Geld die eine Aufnahme komplett zu wiederholen, während die Auswahl einer Aufnahme aus viel zu viel Zeit verschlingt. ;)
Die Logik mancher Profis.
Die Amateure hier machen 10.000 bis 15.000 Bilder, weil ihnen Jott noch nicht erklären konnte, wie es richtig geht: :)
https://www.robinson.com/blog/wie-entst ... -robinson/
Antwort von Jott:
Du unterstellst Fotografen Unfähigkeit. Geht‘s noch arroganter?
Spoiler: klar wird das gehen! :-)
Antwort von pillepalle:
@ iasi
Hähä... 3 Shootingtage von 5.30 Uhr bis 23.00 Uhr mit 3.000 bis 5.000 Bilder pro Tag. Ja, das nennt man knipsen ;) Selbst in Zeiten als ich Katalogaufnahmen gemacht habe, kam ich nie auf solche Mengen. Ist wohl auch eine Frage des Arbeitsstils. Und vermutlich hatte ich auch immer Glück, dass meine Models nie im ungünstigsten Moment Gesichtszuckungen hatten. Ist laut Dir ja scheinbar recht wahrscheinlich :)
VG
Antwort von cantsin:
pillepalle hat geschrieben:
Hähä... 3 Shootingtage von 5.30 Uhr bis 23.00 Uhr mit 3.000 bis 5.000 Bilder pro Tag.
Das ist ja noch vergleichsweise gemäßigt. Wenn man den hier vorgeschlagenen Raw-Video-Workflow verwenden würde, käme man bereits nach einer Minute und 40 Sekunden auf 5000 Bilder....
Antwort von pillepalle:
Ja, und eins besser als das andere :)
VG
Antwort von cantsin:
iasi hat geschrieben:
Film ist nichts anderes als Bildreihen. Es ist kein Unterschied, ob ich aus einem 35mm-Kinofilm oder einem KB-Film ein Einzelbild herausschneide.
Dann kennst Du Dich aber nicht gut mit Filmformaten aus.
(Hint: 35mm-Kinofilm hat nur die Hälfte der Bildoberfläche von 35mm-/KB-Fotofilm... Bei 3Perf sogar nur ein gutes Drittel, und bei 2Perf ein knappes Viertel.)
Antwort von iasi:
cantsin hat geschrieben:
iasi hat geschrieben:
Film ist nichts anderes als Bildreihen. Es ist kein Unterschied, ob ich aus einem 35mm-Kinofilm oder einem KB-Film ein Einzelbild herausschneide.
Dann kennst Du Dich aber nicht gut mit Filmformaten aus.
(Hint: 35mm-Kinofilm hat nur die Hälfte der Bildoberfläche von 35mm-/KB-Fotofilm... Bei 3Perf sogar nur ein gutes Drittel, und bei 2Perf ein knappes Viertel.)
Dass sich die Bildformate unterscheiden, hab ich oben schon geschrieben.
Aber das ändert nichts daran, dass du bei einem Filmstreifen eine Reihe von Einzelbildern hast, wie auch bei einem Dia- und Negativ-KB-Film.
VistaVision war übrigens schon mal nah dran an KB.
Bei z.B. Seven Samurai hatte man zudem auch ein Seitenverhältnis von 1.33 : 1 genutzt.
Vielleicht gibt"s auch mal bald eine FF-Digitalkamera, die den ganzen Sensor beim Raw-Filmen ausliest - abgesehen von Arris LF.
(Das würde die Anamorph-Fans glücklich machen - und bei mir dann auch das Interesse für Anamorphoten wecken.)
Antwort von Jalue:
Zur Ausgangsfrage: Ich werde auch immer wieder mit entsprechenden Wünschen ("Kannst du nicht auch die Fotos machen") konfrontiert, lehne das aber konsequent ab, nicht nur wegen der technischen Unterschiede zwischen Film- und Fotoequipment und der besagten Einschränkungen (Belichtungszeit-Problematik, etc.), sondern vor allem, weil du als Fotograf ein völlig anderes Mindset brauchst als ein Kameramann.
Der Fotograf sucht oder inszeniert den perfekten, ikonischen Moment, während der Kameramann Abläufe visualiert/eine Geschichte erzählt. Mich überfordert das schnelle Hin- und Herspringen zwischen beiden Haltungen, und das geht nicht nur mir so, wie ich bei Jobs als Schnittredakteur immer wieder sehe.
Denn viel öfter als den Kameramann, der auch fotografiert, gibt es inzwischen den Fotografen, der auch Video macht, weil sein Apparat es ja "kann." Er selbst leider nicht und das Ergebnis ist fast immer: Entweder lähmend statisches Material oder wild-verwackeltes Zoom-Geschwenke (die Leute haben ja fast nie Video-Stative dabei), viel zu wenig B-Roll und mieser Ton. On top liefern sie gerne überlange, unstrukturierte Interviews, aber zumindest die sind oft sehr hübsch eingerichtet – Fotos mit 50 B/S halt. ;-)
Antwort von iasi:
Jalue hat geschrieben:
Zur Ausgangsfrage: Ich werde auch immer wieder mit entsprechenden Wünschen ("Kannst du nicht auch die Fotos machen") konfrontiert, lehne das aber konsequent ab, nicht nur wegen der technischen Unterschiede zwischen Film- und Fotoequipment und der besagten Einschränkungen (Belichtungszeit-Problematik, etc.), sondern vor allem, weil du als Fotograf ein völlig anderes Mindset brauchst als ein Kameramann.
Der Fotograf sucht oder inszeniert den perfekten, ikonischen Moment, während der Kameramann Abläufe visualiert/eine Geschichte erzählt. Mich überfordert das schnelle Hin- und Herspringen zwischen beiden Haltungen, und das geht nicht nur mir so, wie ich bei Jobs als Schnittredakteur immer wieder sehe.
Denn viel öfter als den Kameramann, der auch fotografiert, gibt es inzwischen den Fotografen, der auch Video macht, weil sein Apparat es ja "kann." Er selbst leider nicht und das Ergebnis ist fast immer: Entweder lähmend statisches Material oder wild-verwackeltes Zoom-Geschwenke (die Leute haben ja fast nie Video-Stative dabei), viel zu wenig B-Roll und mieser Ton. On top liefern sie gerne überlange, unstrukturierte Interviews, aber zumindest die sind oft sehr hübsch eingerichtet – Fotos mit 50 B/S halt. ;-)
Was spricht denn dagegen, einige ikonischen Momente aus deinen Filmaufnahmen herauszunehmen, die du mit eingefangen hast?
Bildgestaltung hast du auch beim Filmen.
Du hast zwar nur die 1/50s und das Format (wobei 8k auch einen Crop erlaubt), aber ansonsten kannst du deinem Kunden doch auch zusätzlich Standbilder aus deinen Filmaufnahmen anbieten, wenn er darum bittet.
Es sind schließlich auch Einzelbilder im Raw-Format.
Was ist denn hier z.B. der Unterschied, zu einem expliziten Foto:
zum Bild
https://www.filmtourismus.de/wp-content ... irland.jpg
zum Bild
https://m.faz.net/media0/ppmedia/aktuel ... besten.jpg
Antwort von pillepalle:
@ iasi
Der Unterschied ist, dass ein Fotograf auch anderes Material liefern würde, als nur ein paar Framegrabs. Jaule hat schon Recht. Das ist nicht nur das Umlegen eines Schalters an der Kamera, was aus einem Fotografen einen Filmer macht, und umgekehrt. Für beides braucht es Erfahrung und eben eine andere Arbeitsweise. Nichts spricht dagegen auch Framegrabs zu verkaufen, aber die Vorstellung man würde sich damit einen Fotografen sparen, ist eben ein wenig naiv.
VG
Antwort von iasi:
pillepalle hat geschrieben:
@ iasi
Der Unterschied ist, dass ein Fotograf auch anderes Material liefern würde, als nur ein paar Framegrabs. Jaule hat schon Recht. Das ist nicht nur das Umlegen eines Schalters an der Kamera, was aus einem Fotografen einen Filmer macht, und umgekehrt. Für beides braucht es Erfahrung und eben eine andere Arbeitsweise. Nichts spricht dagegen auch Framegrabs zu verkaufen, aber die Vorstellung man würde sich damit einen Fotografen sparen, ist eben ein wenig naiv.
VG
Welches "andere Material" würde er denn liefern?
Mal abgesehen von kürzer Belichtungszeit (auch durch Blitz) und einem anderen Bildformat sehe ich keine gestalterischen Unterschiede zwischen einer solchen Filmaufnahme und einem Foto:
zum Bild
Antwort von pillepalle:
iasi hat geschrieben:
Welches "andere Material" würde er denn liefern?
Keine Ahnung warum Du dich immer blöder stellst, als Du bist. Wir müsen doch jetzt keine Schwachsinns-Diskussion führen? Meinst Du ernsthaft der Fotograf stünde den ganzen Tag direkt neben der Kamera um ein möglichst ähnliches Bild zu machen?
VG
Antwort von iasi:
pillepalle hat geschrieben:
iasi hat geschrieben:
Welches "andere Material" würde er denn liefern?
Keine Ahnung warum Du dich immer blöder stellst, als Du bist. Wir müsen doch jetzt keine Schwachsinns-Diskussion führen? Meinst Du ernsthaft der Fotograf stünde den ganzen Tag direkt neben der Kamera um ein möglichst ähnliches Bild zu machen?
VG
Beleidigungen sind die Argumente jener, die über keine Argumente verfügen.
Jean-Jacques Rousseau
Also zeig mal, dass du auch argumentieren kannst, statt immer nur leere Behauptungen in den Raum zu stellen und auf Fragen nicht einzugehen.
Ich geb dir mal ein Beispiel:
Lichtgestaltung ist bei Film und Foto notwendig.
Der richtige Bildausschnitt.
Die Brennweite.
Die Blende.
...
Du konstruierst hier mystische Unterschiede, die es nicht gibt.
Auch ein Foto soll eine "Geschichte" erzählen, ansonsten ist es ein ausdrucksloses Abbild.
Die Unterschiede zwischen Film und Foto sind noch nicht mal die Bewegung, sondern nur einige wenige technische Details, die schon genannt wurden.
Was soll denn bitte eine Portraiaufnahme von einer Nahaufnahme unterscheiden?
zum Bild
https://de.web.img3.acsta.net/videothum ... 547315.jpg
Du Schlaumeier kannst uns ja mal an diesem Beispiel erkären, wie sich ein Foto und ein Filmbild unterscheiden.
Antwort von Jalue:
iasi hat geschrieben:
Was spricht denn dagegen, einige ikonischen Momente aus deinen Filmaufnahmen herauszunehmen, die du mit eingefangen hast?
Gar nichts, das tue ich ständig - z.B. für Thumbnails. Aber das sind eben, wie du ja selbst sagst, nur Framegrabs - mit 1/50tel und in FHD oder 4K, das muss dem Kunden dann eben reichen. 8K? Keine Chance, ich habe nicht mal ne Kamera, die das kann und kein Kunde wünscht es von mir - im Gegenteil, die würden mir 8K Raw um die Ohren hauen, wenn ich Rohmaterial zuliefern muss, was häufig vorkommt. Schon 4K ist oft verboten, weil es im CMS der Redaktion/Agentur zuviel Speicherplatz fressen würde. Und wenn ich selbst zeitkritisch schneiden muss, brauche ich den Mehraufwand einer 8K Raw-Postpro so nötig wie ein Loch im Kopf.
Vor allem aber machen Fotografen ja mehr, als nur den Blickwinkel der Filmkamera zu reproduzieren. Da geht's oft um sorgsam gestellte Momentaufnahmen, sei es das Gruppenbild vom "Vorstand", die perfekt ausgeleuchtete Makroaufnahme von Maschine XY mit ner 1000.tel Belichtung, o.ä. Das so "nebenbei" zu meiner Arbeit als Kameramann/Videojournalist zu erledigen, mag in Einzelfällen (= seeehr viel Produktionszeit) machbar sein, aber meistens ist das nicht. Es hat schon seinen Grund, warum sich Fotografen und Kameraleute immer wieder ins Gehege kommen, manchmal bis hin zu Beinahe-Schlägereien, z.B. bei Red Carpets. Zwar haben beide Gruppen dasselbe Motiv, vielleicht sogar einen ähnlichen Auftrag, aber sie setzen im selben Moment völlig unterschiedliche Prioritäten.
Antwort von pillepalle:
iasi hat geschrieben:
Du konstruierst hier mystische Unterschiede, die es nicht gibt.
Nimm' doch einfach mal eine Kamera in die Hand statt den ganzen Tag nur im Netz zu surfen und halbverstandene Wahrheiten nachzuplappern. Im Gegensatz zu Dir, kann ich tatsächlich auch ein paar Fotos oder Videos von mir zeigen und habe Erfahrung in beiden Genres. Und wenn Du nicht verstehen kannst, dass es ein Unterschied ist, ob man mit einer Filmkamera filmt, oder mit einem Fotoapparat fotografiert, dann kann ich Dir auch nicht helfen. Ich sehe es auch nicht als meine Aufgabe Dir irgendwas beizubringen. Es fällt nur schwer den Unsinn den Du gebetsmühlenartig wiederholst unkommentiert stehen zu lassen.
VG
Antwort von iasi:
Jalue hat geschrieben:
iasi hat geschrieben:
Was spricht denn dagegen, einige ikonischen Momente aus deinen Filmaufnahmen herauszunehmen, die du mit eingefangen hast?
Gar nichts, das tue ich ständig - z.B. für Thumbnails. Aber das sind eben, wie du ja selbst sagst, nur Framegrabs - mit 1/50tel und in FHD oder 4K, das muss dem Kunden dann eben reichen. 8K? Keine Chance, ich habe nicht mal ne Kamera, die das kann und kein Kunde wünscht es von mir - im Gegenteil, die würden mir 8K Raw um die Ohren hauen, wenn ich Rohmaterial zuliefern muss, was häufig vorkommt. Schon 4K ist oft verboten, weil es im CMS der Redaktion/Agentur zuviel Speicherplatz fressen würde. Und wenn ich selbst zeitkritisch schneiden muss, brauche ich den Mehraufwand einer 8K Raw-Postpro so nötig wie ein Loch im Kopf.
Vor allem aber machen Fotografen ja mehr, als nur den Blickwinkel der Filmkamera zu reproduzieren. Da geht's oft um sorgsam gestellte Momentaufnahmen, sei es das Gruppenbild vom "Vorstand", die perfekt ausgeleuchtete Makroaufnahme von Maschine XY mit ner 1000.tel Belichtung, o.ä. Das so "nebenbei" zu meiner Arbeit als Kameramann/Videojournalist zu erledigen, mag in Einzelfällen (= seeehr viel Produktionszeit) machbar sein, aber meistens ist das nicht. Es hat schon seinen Grund, warum sich Fotografen und Kameraleute immer wieder ins Gehege kommen, manchmal bis hin zu Beinahe-Schlägereien, z.B. bei Red Carpets. Zwar haben beide Gruppen dasselbe Motiv, vielleicht sogar einen ähnlichen Auftrag, aber sie setzen im selben Moment völlig unterschiedliche Prioritäten.
Perfekt ausgeleuchtete Makroaufnahme von Maschine XY machst du doch bei Filmen auch.
Und den Vorstand nimmst du doch auch nicht wie einen wilden Haufen auf.
Der Unterschied besteht im Dauerlicht statt Blitz und der Belichtungszeit.
Es geht ja gerade um die Z9, die 8k-Raw auch beim Filmen bietet.
Wobei hierbei dann nur der 16:9-Crop zur Verfügung steht.
Ich bestreite ja nicht, dass es technische Einschränkungen gibt, die auch gestalterische Unterschiede mit sich bringen, aber die sind nicht so groß, wie sie hier aufgebauscht werden.
Ich bekomme ein Hochformatbild nur durch starken Crop, aus einer Filmaufnahme.
Ich erhalte kurze Belichtungszeiten nicht aus normalem Filmmaterial (abgesehen von Zeitlupenaufnahmen).
Ich kann die extremen Belichtungszeiten von Blitzen nicht nutzen.
Wenn eine Aufnahme vom Chef gemacht werden soll, dann sind doch die Prioritäten von Filmer und Fotograf nicht unterschiedlich.
Soll er vor seiner Firma gezeigt werden, dann kommen wahrscheinlich sogar gleiche Ergebnisse dabei heraus.
Auch bei den Aufnahmen eines Hochzeitspaares verlangst du als Fotograf doch nicht, dass sie ganz ruhig stehen und in die Kamera blicken sollen.
Was ich feststelle, ist doch eher, dass sich viele Fotografen nicht wirklich mit den Filmmöglichkeiten ihrer Kameras auseinandergesetzt haben. Neulich sah ich schön Studioaufnahmen für ein Kleidungsstück und dazu auch ein Video, das auch gemacht wurde. Die Fotos waren ordentlich bearbeitet. Die Videoaufnahmen waren unterbelichtet, unbearbeitet und aneinandergeklatscht. Da hatte der Fotograf eben auch mal den Film-Rec-Knopf seiner Kamera gedrückt.
Antwort von iasi:
pillepalle hat geschrieben:
iasi hat geschrieben:
Du konstruierst hier mystische Unterschiede, die es nicht gibt.
Nimm' doch einfach mal eine Kamera in die Hand statt den ganzen Tag nur im Netz zu surfen und halbverstandene Wahrheiten nachzuplappern. Im Gegensatz zu Dir, kann ich tatsächlich auch ein paar Fotos oder Videos von mir zeigen und habe Erfahrung in beiden Genres. Und wenn Du nicht verstehen kannst, dass es ein Unterschied ist, ob man mit einer Filmkamera filmt, oder mit einem Fotoapparat fotografiert, dann kann ich Dir auch nicht helfen. Ich sehe es auch nicht als meine Aufgabe Dir irgendwas beizubringen. Es fällt nur schwer den Unsinn den Du gebetsmühlenartig wiederholst unkommentiert stehen zu lassen.
VG
Du plapperst wirklich nur noch leeres Zeug daher.
So viele Worte und doch rein gar nichts Argumentatives.
Du bist ja nicht mal in der Lage, die Unterschiede, von denen du ständig faselst, auch mal konkret zu benennen.
Antwort von pillepalle:
@ iasi
Habr ich bereits, aber Du hast offensichtlich auch eine Leseschwäche. Fotos werden auch technisch anders gemacht als Videos, andere Belichtungszeiten und Bewegunsunschärfen, andere Formate, andere Lichtquellen usw...
Framegrabs ersetzen keinen Fotografen, darum geht's übrigens in diesem Thread 😉 und ernst nehmen kann ich Dich erst wenn ich ein paar Deiner Arbeiten gesehen habe. Nach dem was Du schreibst scheint es mir völlig unwahrscheinlich das Du das eine oder das andere überhaupt machst. Dir noch einen schönen Tag.
VG
Antwort von andieymi:
Ich glaub in die Aussagen eines Videografen, der noch nie von Motion Blur gehört hat oder zwecks Vermeidung eben dessen für die Fotos nur in 50fps denkt braucht man nicht viel hineinprophezeien.
8K Digital Stills and Motion Cameras bietet Red seit bald einem Jahrzehnt. Gelinde gesagt sind filmende Fotoapparate im Vergleich dazu ein Kassenschlager. Aber lustig wie er sich jetzt einer Fotokamera bedient, um damit zu filmen und dann aus dem Material die Fotos zu verkaufen. Man könnte ja auch den Schalter umlegen und einfach ein Foto damit machen. Aber wo bleibt da die Offenbarung, aus Terrabyte sub-par Videomaterial, auf das er dann noch Motion Blur draufrechenn darf damit es nach irgendwas ausschaut sich die Fotos exakt zu selektieren?
Ich sag mal aus eigener Erfahrung Folgendes: Ich hab zuerst Fotografiert, dann gefilmt. So gut wie alles was ich an nicht technischer-, aber ästethischer Natur über Licht gelernt habe, war nicht auf Bewegtbild anwendbar, außer ich will einen 90er-Jahre-Fernsehlook. Ich hätte schlicht und ergreifend keine Kooperationspartner in Form von Regisseuren oder Produktionsfirmen gefunden, wenn ich mich nicht mediumspezifisch mit Film-Ästhetik auseinandergesetzt hätte, sondern alles mit 3-Punkt-(Auflicht) weiter geleuchtet hätte wie es bei Portraitfotografie absolut noch die Norm ist.
Da iasi ja immer so auf technischen Details rumreitet, gar Kataloge aufstellt wie sehr sich die ähneln:
Die Zusammenhänge zwischen Belichtungszeit, Blende, Empfindlichkeit, etc. kann sich heute ein 10-jähriger mit TikTok in einer Woche beibringen. Wenn das Ziel ist richtig belichtete (damit fängt's ja schon mal an...) Fotos zu bekommen, absolut kein Stress. Wo es interessant wird, ist danach: Wie fotografierst oder filmst Du etwas, um etwas dadurch sagen zu wollen?
Wenn ich weiß wo das Gaspedal am Auto ist werd ich auch das Konzept Gasdrehgriff am Motorrad verstehen, selbiges mit manueller Schaltung. Ob ich dann zurückgelehnt in die scharfe Linkskurve damit fahre, unterscheidet sich halt dann schon etwas. Wahrscheinlich kommt der Kollege auf dem Level Anspruchslosigkeit damit super durch, der Kunde ist glücklich und er lacht sich in Fäustchen, dass er wieder einen Fotografen arbeitslos gemacht hat. Aber würde der Kunde etwas Wert auf Qualität legen - was ja auch die Beispiele von iasi eigentlich versinnbildlichen - wäre der Kollege schnell im beruflichen Abseits.
Antwort von iasi:
pillepalle hat geschrieben:
@ iasi
Habr ich bereits, aber Du hast offensichtlich auch eine Leseschwäche. Fotos werden auch technisch anders gemacht als Videos, andere Belichtungszeiten und Bewegunsunschärfen, andere Formate, andere Lichtquellen usw...
Du willst, dass man liest, was du schreibst, aber selbst liest du nicht was andere schreiben.
Was du hier anführst ist - bis auf das "usw." - ein Plagiat.
Das hatte ich schon ganz zu Beginn des Threads genannt und auch immer wieder wiederholt, damit es auch bei dir ankommen möge.
"Technisch gemacht" werden Videos übrigens nicht.
Die Sensordaten werden ausgelesen und gespeichert - bei der Z9 in Raw bei Foto und Film.
Belichtungszeit
Lichtquellen unterscheiden sich bei der Lichtgestaltung schon mal nicht - daher gibt es auch bei Blitzgeräten ein Einstelllicht. Einzig die kurze Blitzbelichtszeit spielt hier eine Rolle.
Belichtungszeit hatten wir schon ausgiebig. Das ist bei schnellen Bewegungen relevant.
Formate - dann cropt man eben - was man schließlich auch bei Fotos macht. Auch dies wurde schon genannt.
Man könnte wirklich denken, du hättest noch nie Fotos gemacht, bei denen du 1/50s Belichtungszeit genutzt hast.
Antwort von iasi:
andieymi hat geschrieben:
Ich glaub in die Aussagen eines Videografen, der noch nie von Motion Blur gehört hat oder zwecks Vermeidung eben dessen für die Fotos nur in 50fps denkt braucht man nicht viel hineinprophezeien.
8K Digital Stills and Motion Cameras bietet Red seit bald einem Jahrzehnt. Gelinde gesagt sind filmende Fotoapparate im Vergleich dazu ein Kassenschlager. Aber lustig wie er sich jetzt einer Fotokamera bedient, um damit zu filmen und dann aus dem Material die Fotos zu verkaufen. Man könnte ja auch den Schalter umlegen und einfach ein Foto damit machen. Aber wo bleibt da die Offenbarung, aus Terrabyte sub-par Videomaterial, auf das er dann noch Motion Blur draufrechenn darf damit es nach irgendwas ausschaut sich die Fotos exakt zu selektieren?
Ich sag mal aus eigener Erfahrung Folgendes: Ich hab zuerst Fotografiert, dann gefilmt. So gut wie alles was ich an nicht technischer-, aber ästethischer Natur über Licht gelernt habe, war nicht auf Bewegtbild anwendbar, außer ich will einen 90er-Jahre-Fernsehlook. Ich hätte schlicht und ergreifend keine Kooperationspartner in Form von Regisseuren oder Produktionsfirmen gefunden, wenn ich mich nicht mediumspezifisch mit Film-Ästhetik auseinandergesetzt hätte, sondern alles mit 3-Punkt-(Auflicht) weiter geleuchtet hätte wie es bei Portraitfotografie absolut noch die Norm ist.
Da iasi ja immer so auf technischen Details rumreitet, gar Kataloge aufstellt wie sehr sich die ähneln:
Die Zusammenhänge zwischen Belichtungszeit, Blende, Empfindlichkeit, etc. kann sich heute ein 10-jähriger mit TikTok in einer Woche beibringen. Wenn das Ziel ist richtig belichtete (damit fängt's ja schon mal an...) Fotos zu bekommen, absolut kein Stress. Wo es interessant wird, ist danach: Wie fotografierst oder filmst Du etwas, um etwas dadurch sagen zu wollen?
Wenn ich weiß wo das Gaspedal am Auto ist werd ich auch das Konzept Gasdrehgriff am Motorrad verstehen, selbiges mit manueller Schaltung. Ob ich dann zurückgelehnt in die scharfe Linkskurve damit fahre, unterscheidet sich halt dann schon etwas. Wahrscheinlich kommt der Kollege auf dem Level Anspruchslosigkeit damit super durch, der Kunde ist glücklich und er lacht sich in Fäustchen, dass er wieder einen Fotografen arbeitslos gemacht hat. Aber würde der Kunde etwas Wert auf Qualität legen - was ja auch die Beispiele von iasi eigentlich versinnbildlichen - wäre der Kollege schnell im beruflichen Abseits.
Du sagst also, du gestaltest das Licht anders, wenn du eine Person filmst, statt sie zu fotografieren.
Du sagst also, dass du eine Panoramaaufnahme völlig anders gestalten würdest, wenn du sie fotografierst statt filmst.
Eine Canon R5C hat übrigens diesen Umschalter.
Du baust dann also das Licht völlig um und machst eine neue Bildgestaltung, wenn du diesen Schalter umlegst.
Das Bild, das du beim Grading z.B. in Resolve betrachtest, ist deiner Meinung nach also vollkommen anders, als das Foto in Photoshop?
Nicht bei allen Motiven spielt die Belichtungszeit eine Rolle.
Bei der R5C können die Sensordaten in ein Fotoformat oder ein Filmformat wandern.
Ob das Firmengebäude nun mit 50fps in CRaw oder mit 1/125s als Foto-Raw gespeichert wird, ändert nichts am Bild.
Antwort von cantsin:
iasi hat geschrieben:
Ob das Firmengebäude nun mit 50fps in CRaw oder mit 1/125s als Foto-Raw gespeichert wird, ändert nichts am Bild.
- Bittiefe sinkt von 14 auf 12bit
- Elektronischer Shutter statt mechanischer Shutter, mit rolling shutter-Artefakten bei bewegten Motiven und ca. 1-2 Blenden weniger Bilddynamik bzw.
mehr Rauschen/niedrigeren nutzbaren ISO
- Verlusthafte Komprimierung von CRaw mit Kompressionsartefakten ggü. verlustfrei komprimiertem Stills-Raw
- AFAIK bisher keine Möglichkeit, aus CRaw Raw-Stills zu extrahieren und mit höherqualitativem Debayering/hochqualitativen Konvertern (wie DxO) zu prozessieren
- Daher auch keine Möglichkeit, die ausgewählten Stills als Raw-Stills zu archivieren (! - Killer-Kriterium...)
Und noch eine Praxis-Challenge: nimm Dir mal einen Dokumentar- oder Spielfilm mit hervorragender Kameraarbeit und Bildgestaltung, und versuch, daraus gute Fotos als Screengrabs zu extrahieren. Ich probiere es gerade mit einer aktuellen Folge von "Succession" und komme auf keinen grünen Zweig...
Antwort von iasi:
@cantsin
Die Z9 hat keinen mechanischen Shutter.
Daher gibt"s deinen genannten Unterschied zu elektronischem Shutter nicht.
Bei Serienbildaufnahmen wird oft eine verlustbehafteter RAW-Komrimierung und auch nur 12bit genutzt.
Generell kann man zwischen Komrimierungsstufen auch bei Foto-Raw wählen.
Ob nun ein Einzelbild als Raw oder ein Raw-Filmclip archiviert wird, ändert nichts am Bildergebnis.
Warum sollte denn das Debayering für Fotos höherqualitativer sein, als das für Film?
Vielmehr hast du bei Filmgrading-Software auch Vorteile, denn es können mehrere benachbarte Bilder z.B. für NR einbezogen werden. Andererseits fehlen dann Werkzeuge wie der Pinsel.
Am Ende kannst du aber gleichwertige Ergebnisse erzielen.
Ich habe schon Einzelbilder aus Raw-Filmaufnahmen herausgenommen - wenn auch noch nicht aus 8k-Material - und bin recht angetan von den Ergebnissen.
Die Z9 liefert 8k vom FF-Sensor - auch als 12bit-Film-Raw.
Schau dir hiervon mal per Pause-Taste einige Standbilder an und dann sag mir, warum die nicht auch als Einzelbilder durchgehen sollen (wobei das youtube-Matsche ist):
https://youtu.be/bR5BV1L7tCg?t=26
Antwort von AndySeeon:
cantsin hat geschrieben:
iasi hat geschrieben:
Ob das Firmengebäude nun mit 50fps in CRaw oder mit 1/125s als Foto-Raw gespeichert wird, ändert nichts am Bild.
- Verlusthafte Komprimierung von CRaw mit Kompressionsartefakten ggü. verlustfrei komprimiertem Stills-Raw
- AFAIK bisher keine Möglichkeit, aus CRaw Raw-Stills zu extrahieren und mit höherqualitativem Debayering/hochqualitativen Konvertern (wie DxO) zu prozessieren
Wieso CRAW? Geht es hier nicht um die Z9 von Nikon?
Gruß, Andreas
Antwort von pillepalle:
@ andySeeon
Ist bei N-RAW nicht anders. Aber nicht weitersagen, iasi träumt gerade von einer Fotografenkarriere :)
VG
Antwort von MrMeeseeks:
cantsin hat geschrieben:
Und noch eine Praxis-Challenge: nimm Dir mal einen Dokumentar- oder Spielfilm mit hervorragender Kameraarbeit und Bildgestaltung, und versuch, daraus gute Fotos als Screengrabs zu extrahieren. Ich probiere es gerade mit einer aktuellen Folge von "Succession" und komme auf keinen grünen Zweig...
Panasonic bietet bei seinen Kameras schon seit fast 10 Jahren die Möglichkeit an sich aus einem aufgenommen Clip ein Bild auszusuchen. Mit dieser Funktion habe ich einige meiner schönsten Bilder aufgenommen und das war damals noch 4:3 8Bit Käse. Die Pre-Record Funktion, welche die Canon R5c übrigens auch kann, ist ebenfalls eine tolle Funktion von der jeder Fotograf profitieren kann.
Bei keiner Kamera ist der Übergang zwischen Foto/Video so verschwommen wie bei der Nikon Z9. Nicht auch nur ein User hier könnte auch nur annähernd erkennen ob es nun ein Standbild der Fotofunktion oder ein Bild aus einer 24fps Aufnahme ist. Beides ist Raw und beides wurde ohne mechanischen Verschluss aufgenommen.
Übrigens hier der Clip einer OM1 mit 120fps Burst Mode aufgenommen, das sind schlicht 120 Bilder in Folge mit 20MP. Das wäre also das umgekehrte Beispiel.
https://www.youtube.com/watch?v=IIYydmY ... 2%E7%A3%A8
Antwort von pillepalle:
In klein und im Internet wird sowieso niemand irgendwas erkennen. Es ging aber darum, dass die Qualität eines Stills als Foto aufgenommen besser ist als die eines Videostills. Wozu haben diese Dummerchen bei Nikon sonst überhaupt eine Fotofunktion eingebaut, wenn es keinen Unterschied gibt? ;) Das heißt ja nicht, dass man nicht auch Videostills nutzen kann. Es ist eben nur nicht die beste Möglichkeit Stills aufzunehmen.
Und das wa hier scheinbar nur die Wenigsten zu verstehen scheinen ist die eigentliche Frage des TO. Ersetzen Videostills einen Fotografen?
VG
Antwort von cantsin:
MrMeeseeks hat geschrieben:
cantsin hat geschrieben:
Und noch eine Praxis-Challenge: nimm Dir mal einen Dokumentar- oder Spielfilm mit hervorragender Kameraarbeit und Bildgestaltung, und versuch, daraus gute Fotos als Screengrabs zu extrahieren. Ich probiere es gerade mit einer aktuellen Folge von "Succession" und komme auf keinen grünen Zweig...
Panasonic bietet bei seinen Kameras schon seit fast 10 Jahren die Möglichkeit an sich aus einem aufgenommen Clip ein Bild auszusuchen.
Wahrscheinlich habe ich mich missverständlich ausgedrückt. Mir ging es in dem obigen Beispiel nicht um die technische Qualität der Bilder, sondern um die Bildgestaltung.
Man gestaltet Bewegtbilder i.d.R. anders als Standbilder. Deswegen ist es ziemlich schwer, aus Bewegtbildern gute Fotos zu extrahieren - selbst, oder gerade, wenn sie auf Topniveau gedreht wurden wie bei "Succession".
Antwort von iasi:
cantsin hat geschrieben:
Man gestaltet Bewegtbilder i.d.R. anders als Standbilder. Deswegen ist es ziemlich schwer, aus Bewegtbildern gute Fotos zu extrahieren - selbst, oder gerade, wenn sie auf Topniveau gedreht wurden wie bei "Succession".
Kurosawa war ein Meister der Bewegungen, aber er konnte eben doch auch einzelne Bilder inzinieren:
Bei "Succession" kaspert die Kamera leider meist herum.
Dennoch lassen sich daraus auch Foto gewinnen:
https://www.imdb.com/title/tt7660850/me ... _=tt_mi_sm
https://www.imdb.com/title/tt7660850/me ... _all_sf_40
Antwort von Jott:
Inszenieren. Von Szene. Ich sag‘s mal, weil du schon öfter „insziniert“ hast.
Antwort von Jott:
iasi hat geschrieben:
@cantsin
Die Z9 hat keinen mechanischen Shutter.
Daher gibt"s deinen genannten Unterschied zu elektronischem Shutter nicht.
Bei Serienbildaufnahmen wird oft eine verlustbehafteter RAW-Komrimierung und auch nur 12bit genutzt.
Generell kann man zwischen Komrimierungsstufen auch bei Foto-Raw wählen.
Ob nun ein Einzelbild als Raw oder ein Raw-Filmclip archiviert wird, ändert nichts am Bildergebnis.
Warum sollte denn das Debayering für Fotos höherqualitativer sein, als das für Film?
Vielmehr hast du bei Filmgrading-Software auch Vorteile, denn es können mehrere benachbarte Bilder z.B. für NR einbezogen werden. Andererseits fehlen dann Werkzeuge wie der Pinsel.
Am Ende kannst du aber gleichwertige Ergebnisse erzielen.
Ich habe schon Einzelbilder aus Raw-Filmaufnahmen herausgenommen - wenn auch noch nicht aus 8k-Material - und bin recht angetan von den Ergebnissen.
Die Z9 liefert 8k vom FF-Sensor - auch als 12bit-Film-Raw.
Schau dir hiervon mal per Pause-Taste einige Standbilder an und dann sag mir, warum die nicht auch als Einzelbilder durchgehen sollen (wobei das youtube-Matsche ist):
https://youtu.be/bR5BV1L7tCg?t=26
Deine Eisberge bewegen sich praktisch nicht. Klar geht das dann. Du konstruierst halt Beispiele, die das Grundproblem umschiffen: Bewegungsunschärfe.
Bei Film will/braucht man die zwingend, bei Fotos muss man sie unbedingt vermeiden. Genau an diesem Spagat klemmt‘s. Das weißt du auch, aber das kannst du wohl nicht zugeben.
Antwort von ffm:
Was ist inzinieren?
Antwort von andieymi:
iasi hat geschrieben:
Du sagst also, du gestaltest das Licht anders, wenn du eine Person filmst, statt sie zu fotografieren.
Definitiv, das eine ist ein Standbild, das andere ist ein Bewegtbild. Alles was im Standbild an lichtmäßiger Überhöhung vielleicht durchgeht oder sinnvoll sein kann ist in einer Sequenz von Bewegtbildern einfach lachhaft.
iasi hat geschrieben:
Du sagst also, dass du eine Panoramaaufnahme völlig anders gestalten würdest, wenn du sie fotografierst statt filmst.
Definitiv. Beim Foto such ich mir für den Busch/Stein/Whatever im Vordergrund den einen perfekten Spot, bei der Bewegtbildaufnahme baue ich vielleicht eine rechts/links Bewegung ein und die wird aufgrund anderer Abwägbarkeiten vielleicht nicht einmal durch den perfekten Spot fürs Standbild laufen können.
Wie löst Du das "Problem" von sinnvollem Motion Blur? In der Post auf jedem einzelnen Videofile?
Du hast im unpraktischen aller Sinne Recht: Wenn ich die Kamera nicht bewege und auf Rec drücke kommt quasi das Gleiche raus wie auf einem Foto. Aber fängt man dann an die Praxis zu berücksichtigen, leidet entweder das eine oder das andere Produkt. Oder man macht es halt 2x, dann kann man aber auch nacheinander ein perfektes Foto und einen perfekten Take aufnehmen. Und wenn Du jetzt sagst Du könntest das: Gratulation! Höchste Steigerungsstufe des Medienschaffenden in Form von iasi erreicht. Müssen nur noch alle anderen nachziehen, die Norm stellt diese Arbeitsweise nämlich seit 10-15 Jahren nicht dar, obwohl es technisch irgendwie möglich wäre.
Wie so oft entscheidet der Markt, in dem Fall Wirklich: Teure Videokameras sind mit günstigen Hybridkameras außer im höheren Qualitätssegment quasi ersetzt worden. Deswegen zieht immer noch kaum jemand als Modus Operandi Stills und Video vom gleichen Clip.
Antwort von cantsin:
iasi hat geschrieben:
cantsin hat geschrieben:
Man gestaltet Bewegtbilder i.d.R. anders als Standbilder. Deswegen ist es ziemlich schwer, aus Bewegtbildern gute Fotos zu extrahieren - selbst, oder gerade, wenn sie auf Topniveau gedreht wurden wie bei "Succession".
Kurosawa war ein Meister der Bewegungen, aber er konnte eben doch auch einzelne Bilder inzinieren:
Bei "Succession" kaspert die Kamera leider meist herum.
Dennoch lassen sich daraus auch Foto gewinnen:
Da widerspreche ich Dir nicht. Allerdings widersprichst Du auch mir nicht. Klar kann man aus den 90 Minuten einer "Succession"-Folge oder eines Kurosawa-Films eine Handvoll brauchbarer oder sogar guter Standbilder/Fotos extrahieren.
Aber das ist eben bei 130.000 Frames Ausgangsmaterial - wobei es sich da ja schon um die aus einem Vielfachen dieser Frames geschnittenen Filme handelt - ziemlich uneffizient. Und auch frustrierend, wenn Du viele eigentliche gute Bilder wegschmeißen musst, weil in ihnen die Gesichter wegen 1/50-Verschluss bewegungsunscharf sind oder die Bildkomposition eben für Breitbild gemacht wurde und man da nicht so einfach ein 3:2-Foto oder gar ein 2:3-Hochkantfoto rausschneiden kann.
Ich sehe das aber durchaus als Workflow für die Zukunft: Kameras, die in hohen Auflösungen von 8K und mehr drehen, mit verschiedenen aspect ratio-Masken direkt beim Drehen (inkl. fototypischer Formate), so dass die Kameraperson sie in der Komposition gleich als Zielformate berücksichtigen kann, mit relativ kurzen Verschlusszeiten, und dann eben KI-assistierter Bildauswahl für die extrahierten Fotos plus KI-basiertem Reinrechnen von motion blur für die Bewegtbilder, zumindest bei klassischen Framerates wie 24p und 25p. Aber das ist halt (noch) Zukunftsmusik. Wahrscheinlich werden Event-Filmer/Fotografen die ersten sein, die so arbeiten werden.
- Kurze Verschlusszeiten bei der Bewegtbildaufnahme sehe ich sowieso kommen, weil damit das Ausgangsmaterial auch besser für alle möglichen anderen algorithmischen und KI-basierten Nachbearbeitungen wird.
Antwort von Jott:
Die armen lowlight/no light Filmer!
Ich brauch ein Vollformat-Zoom 18-110 oder so mit Blende 1.2 durchgehend - wieso gibt‘s so was nicht (aufstampf)?
Antwort von pillepalle:
Ohne die Z10 kann ich sowieso nichts machen. Mir fehlt's einfach an Gestaltungsmöglichkeiten...
VG
Antwort von macaw:
cantsin hat geschrieben:
Ich sehe das aber durchaus als Workflow für die Zukunft: Kameras, die in hohen Auflösungen von 8K und mehr drehen, mit verschiedenen aspect ratio-Masken direkt beim Drehen (inkl. fototypischer Formate), so dass die Kameraperson sie in der Komposition gleich als Zielformate berücksichtigen kann
Ich glaube bei der Vielzahl von Bildformaten heutzutage kann sich kein Kameramann der Welt auch auch nur im Ansatz auf etwas anständiges konzentrieren.
Ich finde die gesamte Idee des Threads idiotisch. Kadrage ist eine Kunst für sich, nicht einfach eine technische Nebensache. Ich muss an einen Dreh denken, wo es nicht möglich war einen crop im Monitor einzustellen, der Kameramann hat dann halt oben und unten einfach per Gaffa tape einen Cache abgeklebt.
Antwort von Frank Glencairn:
cantsin hat geschrieben:
Ich sehe das aber durchaus als Workflow für die Zukunft: Kameras, die in hohen Auflösungen von 8K und mehr drehen, mit verschiedenen aspect ratio-Masken direkt beim Drehen (inkl. fototypischer Formate), so dass die Kameraperson sie in der Komposition gleich als Zielformate berücksichtigen kann, mit relativ kurzen Verschlusszeiten, und dann eben KI-assistierter Bildauswahl für die extrahierten Fotos plus KI-basiertem Reinrechnen von motion blur für die Bewegtbilder, zumindest bei klassischen Framerates wie 24p und 25p. Aber das ist halt (noch) Zukunftsmusik. Wahrscheinlich werden Event-Filmer/Fotografen die ersten sein, die so arbeiten werden.
Wenn man das zu Ende denkt. kommen wir bei ner 24K und mehr Kamera mit Weitwinkel raus, die in irgendeiner Ecke steht, und Framing, Ausschnitte, Pan/Scan, in sämtlichen hoch/breit Formaten und natürlich Fotos etc. macht dann ne AI - alles fotogerecht mit 500er Shutter mit 250 fps (weil ja jemand vielleicht mal ne SlowMo will) gedreht, Motion Blur wir hinterher drauf gerechnet. :D
Antwort von rush:
Nichts anderes (abgesehen der Fotos) wird heute doch bereits vielfach schon mit PTZ Kameras praktiziert... Teils noch per Remote Operator - teils per Automatismus/Tracking AI und dergleichen.
Selbst Sonys 12MP ZV-E1 macht automatisierte Crops vom eigentlich zu niedrig ausgelösten Sensor... Sinnvoll? Für mich weniger - für andere Nutzergruppen möglicherweise schon?!
Antwort von Jalue:
Ist ja auch nicht wirklich neu, in Analogfilm-Zeiten nannte es sich, glaube ich,
shoot and protect. Da wurde dann ein Kinofilm gedreht, aber bei der Kadrierung die 4:3 TV-Auswertung gleich mitbedacht.
Aber ja, es nervt massiv beim Drehen! Inzwischen will bei mir so jeder zweite Kunde auch eine 1:1 oder gar 9:16 Version und ich ertappe mich dabei, dass ich anfange, alles Bildwichtige stur-blöd in die Mitte zu setzen, einfach weil es beim Schnitt von dem Kram (i.d.R. irgendwelche Veranstaltungsvideos) mächtig Zeit spart.
Antwort von Frank Glencairn:
Jalue hat geschrieben:
...und ich ertappe mich dabei, dass ich anfange, alles Bildwichtige stur-blöd in die Mitte zu setzen
Das kannst du allerdings immer als Wes Anderson Stil verkaufen :D
Antwort von macaw:
Jalue hat geschrieben:
Ist ja auch nicht wirklich neu, in Analogfilm-Zeiten nannte es sich, glaube ich, shoot and protect. Da wurde dann ein Kinofilm gedreht, aber bei der Kadrierung die 4:3 TV-Auswertung gleich mitbedacht.
Was damals bereits sehr, sehr oft gar nicht funktionierte und am Ende dazu geführt hat, daß Mikrofone noch tiefer im Bild hängen, die Mattebox zu sehen ist oder die Stützrohre ins Bild ragen usw.
Antwort von andieymi:
macaw hat geschrieben:
cantsin hat geschrieben:
Ich sehe das aber durchaus als Workflow für die Zukunft: Kameras, die in hohen Auflösungen von 8K und mehr drehen, mit verschiedenen aspect ratio-Masken direkt beim Drehen (inkl. fototypischer Formate), so dass die Kameraperson sie in der Komposition gleich als Zielformate berücksichtigen kann
Ich glaube bei der Vielzahl von Bildformaten heutzutage kann sich kein Kameramann der Welt auch auch nur im Ansatz auf etwas anständiges konzentrieren.
Ich finde die gesamte Idee des Threads idiotisch. Kadrage ist eine Kunst für sich, nicht einfach eine technische Nebensache. Ich muss an einen Dreh denken, wo es nicht möglich war einen crop im Monitor einzustellen, der Kameramann hat dann halt oben und unten einfach per Gaffa tape einen Cache abgeklebt.
"Frank Glencairn" hat geschrieben:
Wenn man das zu Ende denkt. kommen wir bei ner 24K und mehr Kamera mit Weitwinkel raus, die in irgendeiner Ecke steht, und Framing, Ausschnitte, Pan/Scan, in sämtlichen hoch/breit Formaten und natürlich Fotos etc. macht dann ne AI - alles fotogerecht mit 500er Shutter mit 250 fps (weil ja jemand vielleicht mal ne SlowMo will) gedreht, Motion Blur wir hinterher drauf gerechnet. :D
rush hat geschrieben:
Nichts anderes (abgesehen der Fotos) wird heute doch bereits vielfach schon mit PTZ Kameras praktiziert... Teils noch per Remote Operator - teils per Automatismus/Tracking AI und dergleichen.
Selbst Sonys 12MP ZV-E1 macht automatisierte Crops vom eigentlich zu niedrig ausgelösten Sensor... Sinnvoll? Für mich weniger - für andere Nutzergruppen möglicherweise schon?!
Ich glaube das summiert es eigentlich schon ganz gut zusammen: Geht es um günstigst zu produzierenden, weitestgehend austauschbaren Content der so gesehen nur unfreiwilliges Publikum findet weil es nicht mehr als ein Social-Ad oder ein Youtube-Preroll darstellt? So irgendwie muss ja auch der Plan vom "Kollegen" lauten, weil niemand (der irgendein Fünkchen Qualitätsanspruch hat) würde auf dessen Vorschlag (als Kunde) eingehen und auf Stil/Know-How/Ästhetikempfinden des seperaten Fotografen einer "Ach das produzieren wir einfach mit" eines mit ebenso fragwürdigem Qualitätsanspruch denkenden Videografen verzichten.
Die andere Kehrseite: Nirgends wo Budget da ist, spielt eines der folgenden Thema eine Rolle:
- Auflösung über 4,6K Nativ
- Mastering über UHD/4K
- AI-Tools in irgendeiner Form
- Frameraten über 24/25fps
(Ausnahmen bestätigten die Regel, das war auch bei 3D so und ist weitstgehend als gescheitert zu betrachten, was alles betrifft: Fincher dreht nur in 8K, die meisten drehen trotzdem mit 4,5-4,6K und auf Arri. HFR war ein Experiment, AI Tools für VFX - wo denn?)
Das sind Projekte, die finden Freiwillig ein Millionenpublikum (und wenn es "nur" Lena Lorenz ist, vl dann eher Hunderttausende) - es gibt Menschen, die schauen sich das in ihrer wertvollen Freizeit bewusst und aus freien Stücken an, weil sie irgendwas dabei finden. Das sind keine Auftragsarbeiten, die eigentlich nur der Vermarktung dienen und dem Publikum zwangsweise auf die Netzhaut projiziert werden um das eigentlich relevante sehen zu können - keine Sorge, ich arbeite selbst in der Branche und der Zynismus ist irgendwann gesund, anstatt das Gegenteil zu glauben und das als erfüllende Kunst zu betrachten...
Alle diese Projekte Low- bis High-Budget sind Märkten unterworfen. Ich schreibe bewusst Märkte, weil das eigentlich nichts miteinander zu tun hat - aber in der der Diskussion hier vermischt wird. Kurosawa würde sich im Grab umdrehen wenn seine Stills zur Argumentation einer solchen Arbeitsweise verwendet werden. Deshalb: Trennen!
Und dann muss man vermutlich sagen: Es ist einfach SCHEISSEGAL für den "Kollegen", den Kunden vom "Kollegen" oder das Publikum, weil der ohnehin nichts relevantes produziert. Sorry, das so formulieren zu müssen. Das was der macht könnte genau so gut der Fotograf, wenn er auf den Videobutton seiner Kamera drückt. Da sind wir in einer so extremen Beliebigkeit, dass alles was Frank sagt einfach stimmt.
Da kannst Du eine Kamera auf Rädern hinschicken und ihr einmal die Settings funken und für den Rest croppst Du dir aus 24K deine Winkel und Fotos. Ich frag mich eher wie blöd man eigentlich in der Branche im Jahr 2023 noch ernsthaft sein kann und glauben, dass das was der jetzt mit dem Fotografen macht, ihn nicht als Nächstes trifft wenn sich da wirklich mehr im Thema Automatisierte-AI-Kamera tut, die dann halt beim Kunden steht. Mit solchen Aktionen ist die Branche eigentlich nur auf der Überholspur sich selbst abzuschaffen, wenn nicht einmal innerhalb der Medienschaffenden mehr ein Konsens herrscht, dass da eine Berechtigung da ist, getrennte Medien anders als auf eine Speicherungsfunktion der Kamera betrachtet getrennt zu betrachten.
Und noch einmal: Hört auf, da alte Meister zu zitieren. Jeder Filmemacher würde sich verwehren da gleichzeitig Fotos mitzuproduzieren und jeder Fotograf der heute als Kulturgut gilt würde im Grab rotieren ob der Vorstellung dass da ein Filmer auftaucht und seine Fotos produziert. Da taugt auch kein Kurosawa als Argument, denn der hatte mutmaßlich Standfotografen dabei. Jede technische Argumentation zeugt eigentlich nur davon, dass man das Medium als solches nicht wirklich verstanden hat und glaubt was sich vor der Kamera abspielt ist qualitätsunabhängig einfach austauschbar. Das ist es, wenn irgend ein Qualitätsanspruch da ist aber in den seltensten Fällen, Ausnahmen Bestägen die Regel. Das perfekteste Licht für das Foto wird selten das fürs Video sein, die perfekte Kadrage fürs Foto kann nicht der fürs Video entsprechen wenn sich die Perspektive nicht mit-ändern darf. Niemand, der Content für Kino/TV produziert setzt ernsthaft auf HFR oder kurze Verschlusszeiten, ist das nur weil die Datensparen wollen? Bestimmt! ;)
|