Logo Logo
/// 

Bestätigt: Arri 4K S35 Kamera kommt 2020



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Camcorder allgemein -- 4K / UHD / FHD-Forum

Frage von radneuerfinder:


Managing Director of ARRI Cine Technik: "I say this very openly here: we are also working on a dedicated Super 35 4K camera (not LF) that is planned to be introduced in the first half of 2020."

Quelle:
https://www.fdtimes.com/wp-content/uplo ... ini-LF.pdf (S. 5)



Antwort von radneuerfinder:

Amira II?



Antwort von slashCAM:




Arri lässt ungewöhnlich früh ein kommendes 4K-Modell mit Super35-Sensor durchblicken. Das dürfte vor allem den Streamingdiensten wie Netflix geschuldet sein...



Hier geht es zum slashCAM Artikel:
News: 4K Super35 Kamera von Arri soll schon in einem Jahr kommen // NAB 2019









Antwort von andieymi:

radneuerfinder hat geschrieben:
Amira II?
Das Ding wird anschließend sicher auch wieder in eine Single-Operator-Doku Kamera münden. Wie man Arri die letzten 10 Jahre kennt, versuchen die zurecht das Maximum aus der Entwicklung eines neuen Sensors rauszuholen, sogar wenn es heißt nur die Dies unterschiedlich für Super35 bis 65mm zu schneiden. Wird aber nach der Verwertung in einer SXT-Style Cinekamera und einer neuen Mini sicher noch dauern. Obwohl sich die Amira sicherlich gut verkauft, sind das die Kameras die dieser Markt (weswegen es überhaupt der neue Sensor sein "muss") braucht, keine Amiras.



Antwort von Pianist:

andieymi hat geschrieben:
Obwohl sich die Amira sicherlich gut verkauft, sind das die Kameras die dieser Markt (weswegen es überhaupt der neue Sensor sein "muss") braucht, keine Amiras.
Mir wurde die Amira irgendwann zu schwer, was aber auch an der Art meiner Aufträge und deren Umsetzung liegt. Für mich wäre eigentlich eine FS5ii in Arri-Qualität optimal. Am besten mit E-Mount und für weniger als 15.000 EUR. Aber das wird sich nicht realisieren lassen, weil ich weiß, was Arri alles tut, um diese hohe Qualität hinzukriegen.

Matthias



Antwort von dosaris:

hier enden meine Rechenkünste:

bot ARRI "echte" 4K nur bei FullFrame/LF an. Denn erst ab ca. 33 mm Sensorbreite lassen sich 4000 Horizontel-Sensel mit .00825mm Kantenlänge unterbringen.

ich bringe (rechnerisch) ~ 4000 Pixel (mit je 4 Sensel a 4ym) in 33mm Sensorbreite unter oder
4000 Sensel ergo mit nur 2000 PixelPixel im Glossar erklärt
(jeweils pitch-Raster, nicht netto-size) .

Hier ist doch vom 1-Chip-Sensor die Rede?!?
Bei 3-chip-Sensorblocks würde das aber passen.

p.s.: produziert eigentlich jemand auf dem Sensor-Chip 3-sensel-pixel?
Man könnte die 3-sensel-Pixel verschränkt ineinander schieben und so bei gleicher Pixelfläche
größere Sensel unterbringen.
Also Senselanordnung zb so (je 2 benachbarte Pixel):
RGb
Bgr
(RGB sensel 1. pixel, rgb Sensel 2. PixelPixel im Glossar erklärt, usw)

p.p.s: produziert (?) ARRI die Sensor-Chips eigentlich selber, oder wer?

klärt mich mal auf



Antwort von Frank Glencairn:

dosaris hat geschrieben:

p.p.s: produziert (?) ARRI die Sensor-Chips eigentlich selber, oder wer?
Nein, das können die gar nicht, der Sensor wird bei ON Semiconductor entwickelt und produziert.



Antwort von Pianist:

Aber schon das Zersägen der Wafer passiert dann bei Arri. Von sechs bis zwölf Nutzen pro Wafer (je nach Sensorgröße) sind übrigens nur einer oder zwei verwendbar.

Matthias



Antwort von dosaris:

Pianist hat geschrieben:
Aber schon das Zersägen der Wafer passiert dann bei Arri.
echt?

dazu müssten die doch eigene Bondierungs-Straßen haben, und Konfektionierg usw?

Ich würde eher vermuten, dass die nur 'ne Eingangs-Selektierung der fertigen Chips machen
für's Qualitäts-Management (dead pixel etc)



Antwort von Pianist:

dosaris hat geschrieben:
echt?
Ich habe es selbst gesehen. Daher weiß ich ja auch, wie viel Ausschuss da drinsteckt, was offensichtlich technologisch nicht vermeidbar ist.

Matthias



Antwort von Kamerafreund:

Ich nehme auch eine fs5 II mit Vollformat und vier Audio Eingängen - und das sogar in Sony Qualität für 15.000
Pianist hat geschrieben:
andieymi hat geschrieben:
Obwohl sich die Amira sicherlich gut verkauft, sind das die Kameras die dieser Markt (weswegen es überhaupt der neue Sensor sein "muss") braucht, keine Amiras.
Mir wurde die Amira irgendwann zu schwer, was aber auch an der Art meiner Aufträge und deren Umsetzung liegt. Für mich wäre eigentlich eine FS5ii in Arri-Qualität optimal. Am besten mit E-Mount und für weniger als 15.000 EUR. Aber das wird sich nicht realisieren lassen, weil ich weiß, was Arri alles tut, um diese hohe Qualität hinzukriegen.

Matthias




Antwort von Pianist:

Kamerafreund hat geschrieben:
Ich nehme auch eine fs5 II mit Vollformat und vier Audio Eingängen - und das sogar in Sony Qualität für 15.000
Warum muss es denn Vollformat sein? Das wirkt sich ja automatisch wieder auf Größe und Gewicht der Objektive aus. Mir reicht der Super-35-Sensor vollkommen aus.

Matthias








Antwort von radneuerfinder:

Die S35 4K Arri soll jetzt Mitte bis Ende 2021 auf den Markt kommen, wie Marc Shipman-Mueller (Produkt Manager ARRI Kamera System) heute in einem Arri Webinar ankündigte:
https://www.youtube.com/watch?v=AAGhiQv ... dex=5&t=0s

Die Kamera wird ähnlich von der Größe sein wie eine Mini LF, den Sucher der Mini LF nutzen, wie die Mini LF auf Codex Compact Drives aufzeichnen und weiterhin auf CMOS SensorTechnologie setzen.


Edit: Fehlangaben korrigiert.



Antwort von pillepalle:

radneuerfinder hat geschrieben:
Die Kamera soll ein klein wenig größer als eine Arri LF werden, den Sucher der LF nutzen, und weiterhin auf CMOS SensorTechnologie und CF Karten setzen.
Auf CF Karten? Da ist vermutlich eher CFast oder CFexpress mit gemeint :)

VG



Antwort von radneuerfinder:

Ja, CFast Karten :-)



Antwort von rush:

Pianist hat geschrieben:
Für mich wäre eigentlich eine FS5ii in Arri-Qualität optimal. Am besten mit E-Mount und für weniger als 15.000 EUR. Aber das wird sich nicht realisieren lassen, weil ich weiß, was Arri alles tut, um diese hohe Qualität hinzukriegen.

Matthias
Sony könnte ja sicherlich wenn sie denn wollten... also eine FS5 für den Profibereich entwickeln. Die Zutaten sind im eigenen Hause vorhanden - aber bisher scheint man noch auf der Bremse zu stehen.
Vielleicht (hoffentlich) ändert eine kommende A7s III (oder wie auch immer sie heißen mag) das ganze ein wenig und treibt den Wagen wieder auf die linke Spur...

Den Wunsch/Drang nach Vollformat für Video verspüre ich ebenso wenig wie Du - S35 ist und bleibt für mich mehr oder weniger der Sweet-Spot... Wenn man mit dem Ding aber auch Fotos machen kann - dann darf natürlich gern ein KB Sensor drin stecken der im Videomode sauber "copped".



Antwort von Paralkar:

radneuerfinder hat geschrieben:
Ja, CFast Karten :-)
Sicher Cfast 2.0? Kein CF-Express, ansonsten wird es mit Open Gate 4k Raw ne knappe Sache im ArriRaw FormatFormat im Glossar erklärt,

Bei 25 fps ArriRaw:
Alexa Mini (Open Gate): 11,3 Megabyte/Frame = 282,5 Megabyte/s
Alexa Mini LF (Open Gate): 20,9 Megabyte/ FrameFrame im Glossar erklärt = 522 Megabyte/s
Alexa Mini LF 4k (16x9): 12,6 Megabyte/ FrameFrame im Glossar erklärt = 315 Megabyte/s

Klar keiner weiß wieviel PixelPixel im Glossar erklärt etc., das ist noch ausschlaggebend, und Open Gate ist ja auch n Spezialfall, aber würde mich hart wundern, wenn da nicht Arri typisch auf Nr. Sicher gegangen ist bei Speicherkarten



Antwort von markusG:

Kamerafreund hat geschrieben:
Ich nehme auch eine fs5 II mit Vollformat
Also ne Fx9 :-P



Antwort von radneuerfinder:

Paralkar hat geschrieben:
Sicher Cfast 2.0?
Die Fehlinfo geht auf mich. Ich habe jetzt noch mal im Webinar nachgehört. Die Arri 4k S35 wird die gleichen Karten wie die LF verwenden, also Codex Compact Drive.



Antwort von dienstag_01:

dosaris hat geschrieben:
hier enden meine Rechenkünste:

bot ARRI "echte" 4K nur bei FullFrame/LF an. Denn erst ab ca. 33 mm Sensorbreite lassen sich 4000 Horizontel-Sensel mit .00825mm Kantenlänge unterbringen.

ich bringe (rechnerisch) ~ 4000 Pixel (mit je 4 Sensel a 4ym) in 33mm Sensorbreite unter oder
4000 Sensel ergo mit nur 2000 PixelPixel im Glossar erklärt
(jeweils pitch-Raster, nicht netto-size) .

Hier ist doch vom 1-Chip-Sensor die Rede?!?
Bei 3-chip-Sensorblocks würde das aber passen.

p.s.: produziert eigentlich jemand auf dem Sensor-Chip 3-sensel-pixel?
Man könnte die 3-sensel-Pixel verschränkt ineinander schieben und so bei gleicher Pixelfläche
größere Sensel unterbringen.
Also Senselanordnung zb so (je 2 benachbarte Pixel):
RGb
Bgr
(RGB sensel 1. pixel, rgb Sensel 2. PixelPixel im Glossar erklärt, usw)

p.p.s: produziert (?) ARRI die Sensor-Chips eigentlich selber, oder wer?

klärt mich mal auf
Als Sensel werden die Fotozellen auf den Sensoren bezeichnet (manchmal). Bei Bayer-Sensoren entspricht ein Sensel einem Pixel.



Antwort von Paralkar:

radneuerfinder hat geschrieben:
Paralkar hat geschrieben:
Sicher Cfast 2.0?
Die Fehlinfo geht auf mich. Ich habe jetzt noch mal im Webinar nachgehört. Die Arri 4k S35 wird die gleichen Karten wie die LF verwenden, also Codex Compact Drive.
Jupp und auch n klein wenig größer als ne Mini LF, und keine Alexa LF. Letztere ist auch n ziemlich schwerer Brecher








Antwort von iasi:

Ich bin mal auf die Sensorauflösung gespannt.

Ein Bayer-Sensor erfordert eigentlich zumindest eine um 20-25% höhere Raw-Auflösung.
Auch die aktuellen Alexa brachten ja eine höhere Auflösung als das 2k-Zielformat mit.



Antwort von pillepalle:

Die Strategie nicht mehr Auflösung zu haben als nötig macht schon Sinn. Schon bei UHD sind mir persönlich die Sigma Art Optiken zu scharf. Die muss ich weichzeichnen damit das Bild nicht unnatürlich scharf wirkt. Man kann natürlich auch gleich weniger scharfe Optiken verwenden, aber wozu dann die hohe Auflösung? Zum croppen? Und wo sind die großen Leinwände die hohe Auflösungen wirklich rechtfertigen könnten? Streamingdienste profitieren davon eigentlich nicht.

VG



Antwort von iasi:

Meist ist es doch eher so, dass die Objektive die hohen Sensorauflösungen nicht ausreizen können.
Selbst die Sigma Art verlangen nach der idealen BlendeBlende im Glossar erklärt, um über das ganze Bild eine Auflösung zu bieten, die die vielen k dann auch nutzt.



Antwort von andieymi:

Das argumentative Minenfeld von Sensorauflösung vs. Optikauflösung vs. Sehgewohnheit/Bildinhalt will ich hier gar nicht aufmachen, aber folgende Frage in den Raum geworfen:

Von 2 Mustersetups - einmal niedrigauflösende Kamera mit scharfer Optik und einmal hochauflösender Kamera mit niedrigauflösender Optik - welches Bild würde (tun wir mal so als ginge es nicht um Inhalt und Kontext) einem Großteil der Zuseher besser gefallen? Wir könnten es soweit treiben in dem wir sagen aufs jeweilige Projektionsformat und Betrachtungsabstand gerechnet würde rechnerisch die gleiche Auflösung rauskommen, trennen wir mal die Begriffe Auflösung von Pixelanzahl sondern verwenden physikalische Repräsentation von Objekten in der Realität vs. im Bild, lpmm o.Ä.

Ich weiß es nicht, ich vermute stark letzteres. Ist allerdings nur eine Mutmaßung. Oder würde es im besten Fall gleich aussehen? Die Yedlin Demos deuten ja ähnliches an.


Nach der Logik, ich will Auflösung um jedes Quäntchen produzieren müsste hohe Auflösung + hohe Auflösung eindeutig als Sieger hervorgehen. Tut es in der Praxis allerdings wohl nicht. Dann bleibt wohl nur solche Überlegungen von einer einseitigen Betrachtung (Optiken ODER Sensor) zu trennen und die gesamte Pipeline in die Überlegungen mit einzubeziehen. Das passiert weder beim Argumentieren gegen hohe Auflösungen noch beim Argumentieren gegen weiche/scharfe Optiken.



Antwort von roki100:

iasi hat geschrieben:
Ich bin mal auf die Sensorauflösung gespannt.

Ein Bayer-Sensor erfordert eigentlich zumindest eine um 20-25% höhere Raw-Auflösung.
Auch die aktuellen Alexa brachten ja eine höhere Auflösung als das 2k-Zielformat mit.
also das was ich bisher erfahren habe, dass das nicht immer so stimmt, denn da spielt Sensor Specs etc. schon eine wichtige Rolle...es gibt also ein gutes K oder ein schlechteres K. Ich hatte z.B. letztens Alexa und P4K (4K BRAW) samples bei YouTube heruntergeladen... Alexa war irgendwie schärfer/sauberer/keine ArtefakteArtefakte im Glossar erklärt usw.



Antwort von -paleface-:

andieymi hat geschrieben:
Das argumentative Minenfeld von Sensorauflösung vs. Optikauflösung vs. Sehgewohnheit/Bildinhalt will ich hier gar nicht aufmachen, aber folgende Frage in den Raum geworfen:

Von 2 Mustersetups - einmal niedrigauflösende Kamera mit scharfer Optik und einmal hochauflösender Kamera mit niedrigauflösender Optik - welches Bild würde (tun wir mal so als ginge es nicht um Inhalt und Kontext) einem Großteil der Zuseher besser gefallen? Wir könnten es soweit treiben in dem wir sagen aufs jeweilige Projektionsformat und Betrachtungsabstand gerechnet würde rechnerisch die gleiche Auflösung rauskommen, trennen wir mal die Begriffe Auflösung von Pixelanzahl sondern verwenden physikalische Repräsentation von Objekten in der Realität vs. im Bild, lpmm o.Ä.

Ich würde scharfen Sensor und weiche Linse nehmen. Das macht ja eher einen "Look" aus. Zudem kann man eher an dem mechanischen Objektiv werkeln an einem Sensor. Was der Sensor macht, muss ich hinnehmen, was vor dem Sensor passiert, da hab ich Einfluss drauf.



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Ich bin mal auf die Sensorauflösung gespannt.

Ein Bayer-Sensor erfordert eigentlich zumindest eine um 20-25% höhere Raw-Auflösung.
Auch die aktuellen Alexa brachten ja eine höhere Auflösung als das 2k-Zielformat mit.
also das was ich bisher erfahren habe, dass das nicht immer so stimmt, denn da spielt Sensor Specs etc. schon eine wichtige Rolle...es gibt also ein gutes K oder ein schlechteres K. Ich hatte z.B. letztens Alexa und P4K (4K BRAW) samples bei YouTube heruntergeladen... Alexa war irgendwie schärfer/sauberer/keine ArtefakteArtefakte im Glossar erklärt usw.
Mir kommt da immer ein Interview mit Roger Deakins in den Sinn, der erzählte, wie erschrocken er reagiert hatte, als er hörte, Skyfall solle auch in 4k und IMAX gezeigt werden. Erst das Ergebnis des (wohl sehr guten) IMAX-upscale-Verfahrens habe ihn beruhigt.



Antwort von iasi:

-paleface- hat geschrieben:
andieymi hat geschrieben:
Das argumentative Minenfeld von Sensorauflösung vs. Optikauflösung vs. Sehgewohnheit/Bildinhalt will ich hier gar nicht aufmachen, aber folgende Frage in den Raum geworfen:

Von 2 Mustersetups - einmal niedrigauflösende Kamera mit scharfer Optik und einmal hochauflösender Kamera mit niedrigauflösender Optik - welches Bild würde (tun wir mal so als ginge es nicht um Inhalt und Kontext) einem Großteil der Zuseher besser gefallen? Wir könnten es soweit treiben in dem wir sagen aufs jeweilige Projektionsformat und Betrachtungsabstand gerechnet würde rechnerisch die gleiche Auflösung rauskommen, trennen wir mal die Begriffe Auflösung von Pixelanzahl sondern verwenden physikalische Repräsentation von Objekten in der Realität vs. im Bild, lpmm o.Ä.

Ich würde scharfen Sensor und weiche Linse nehmen. Das macht ja eher einen "Look" aus. Zudem kann man eher an dem mechanischen Objektiv werkeln an einem Sensor. Was der Sensor macht, muss ich hinnehmen, was vor dem Sensor passiert, da hab ich Einfluss drauf.
Höhere Auflösung bedeutet eben auch eine feiner aufgelöste Unschärfe.

Ich denke, man sollte hohe Auflösung nicht mit Schärfe gleichsetzen.



Antwort von pillepalle:

Ja, stimmt natürlich schon. Mir ist aber erst seit dem ich filme aufgefallen, das mir Optiken auch zu scharf sein können. Das 'Problem' hatte ich bei Stills nie. Im Gegenteil, da fand ich's sogar gut wenn's richtig scharf war. Ich weiß nicht woran es liegt, aber bei Film bin ich irgendwie wählerischer geworden was die Optiken betrifft. Da spielen auch andere Qualitäten meiner Meinung nach eine größere Rolle.

VG








Antwort von iasi:

pillepalle hat geschrieben:
Ja, stimmt natürlich schon. Mir ist aber erst seit dem ich filme aufgefallen, das mir Optiken auch zu scharf sein können. Das 'Problem' hatte ich bei Stills nie. Im Gegenteil, da fand ich's sogar gut wenn's richtig scharf war. Ich weiß nicht woran es liegt, aber bei Film bin ich irgendwie wählerischer geworden was die Optiken betrifft. Da spielen auch andere Qualitäten meiner Meinung nach eine größere Rolle.

VG
Sicherlich. Auflösungsvermögen eines Objektivs ist nicht alles.



Antwort von Frank Glencairn:

andieymi hat geschrieben:

Nach der Logik, ich will Auflösung um jedes Quäntchen produzieren müsste hohe Auflösung + hohe Auflösung eindeutig als Sieger hervorgehen. Tut es in der Praxis allerdings wohl nicht. Dann bleibt wohl nur solche Überlegungen von einer einseitigen Betrachtung (Optiken ODER Sensor) zu trennen und die gesamte Pipeline in die Überlegungen mit einzubeziehen. Das passiert weder beim Argumentieren gegen hohe Auflösungen noch beim Argumentieren gegen weiche/scharfe Optiken.
Spätestens nach der Komprimierung spielt das alles sowieso keine Rolle mehr.
Ich würde wetten, daß keiner hier in der Lage wäre auch nur den geringsten Unterschied zwischen UHD, 4K und 4K aus nem 4,6K/6K Sensor zu erkennen, wenn da ganze erst mal auf YT, Vimeo, TV, Netflix oder sogar Kino gezeigt wird.



Antwort von iasi:

"Frank Glencairn" hat geschrieben:
andieymi hat geschrieben:

Nach der Logik, ich will Auflösung um jedes Quäntchen produzieren müsste hohe Auflösung + hohe Auflösung eindeutig als Sieger hervorgehen. Tut es in der Praxis allerdings wohl nicht. Dann bleibt wohl nur solche Überlegungen von einer einseitigen Betrachtung (Optiken ODER Sensor) zu trennen und die gesamte Pipeline in die Überlegungen mit einzubeziehen. Das passiert weder beim Argumentieren gegen hohe Auflösungen noch beim Argumentieren gegen weiche/scharfe Optiken.
Spätestens nach der Komprimierung spielt das alles sowieso keine Rolle mehr.
Ich würde wetten, daß keiner hier in der Lage wäre auch nur den geringsten Unterschied zwischen UHD, 4K und 4K aus nem 4,6K/6K Sensor zu erkennen, wenn da ganze erst mal auf YT, Vimeo, TV, Netflix oder sogar Kino gezeigt wird.
Bei Skyfall stach mir der Unterschied zwischen den Red-Copter und den Alexa-Aufnahmen durchaus ins Auge.



Antwort von Frank Glencairn:

Ja, wenn der große Teil des Filmes von 2K auf 4K Hochskaliert ist und dann ein 5K Bild dazwischen, dann mag das schon auffallen, aber davon haben wir nicht gesprochen.



Antwort von iasi:

"Frank Glencairn" hat geschrieben:
Ja, wenn der große Teil des Filmes von 2K auf 4K Hochskaliert ist und dann ein 5K Bild dazwischen, dann mag das schon auffallen, aber davon haben wir nicht gesprochen.
Du hast auch von Kino gesprochen.

Es ist eben durchaus auch so, dass ein UHD-TV von 4k-Material profitiert.

Wobei es durchaus motivabhängig ist.



Antwort von roki100:

ich denke die meisten fragen sich eher ob Arri die schöne ColorScience behält, mehr K ist da denke ich weniger wichtig... :)



Antwort von iasi:

roki100 hat geschrieben:
ich denke die meisten fragen sich eher ob Arri die schöne ColorScience behält, mehr K ist da denke ich weniger wichtig... :)
Alle reden immer von ColorScience - bekomm doch überhaupt erstmal einen Monitor so abgestimmt, dass er Farben korrekt anzeigt.
Zuvor muss das Licht passen - das Objektiv darf nichts verfälsche - ...

In der Post lässt sich zudem so ziemlich alles verdrehen und verschieben ...

Dann denke ich immer an das weiße Blatt Papier, das für das Auge bzw. Gehirn bei bedecktem Mittagshimmel ebenso Weiß erscheint, wie Kerzenlicht.

Zumal: Wer viel Wert auf Color-Science legt, müsste eigentlich sehr viel Abstand zu alten Objektiven oder Anamorphoten halten.

Klar ist es hilfreich, wenn eine Alexa im gesamten DR keine Farbverschiebung aufweist, aber es gibt eben doch auch gute Gründe, weshalb viele Produktionen sich den Alexa65 antun, obwohl es ihnen gar nicht so sehr um die 65mm geht.



Antwort von roki100:

ich verstehe zwar nicht was ColorScience mit Anamorphoten etc. zu tun haben soll... aber egal, ich mache da sowieso meine eigene Erfahrung und ich finde Anamorphot ändert da nichts an ColorScience - außer dass das Bild eben breiter ist und etwas andere Tiefenschärfe hat...aber auch Lichter/Highlights anders usw. ;)

Und alte Objektive wie Canon FD machen es auch nur umso schöner... ;)
ColorScience, DynamicRange ist m.M. viel viel wichtiger als mehr K.



Antwort von -paleface-:

roki100 hat geschrieben:
ich verstehe zwar nicht was ColorScience mit Anamorphoten etc. zu tun haben soll... aber egal, ich mache da sowieso meine eigene Erfahrung und ich finde Anamorphot ändert da nichts an ColorScience - außer dass das Bild eben breiter ist und etwas andere Tiefenschärfe hat...aber auch Lichter/Highlights anders usw. ;)

Und alte Objektive wie Canon FD machen es auch nur umso schöner... ;)
ColorScience, DynamicRange ist m.M. viel viel wichtiger als mehr K.
Weil einem Anamorph Linsen gerne mal einen Farbstich verpasst. Dann ist die Color Science erst mal im Arsch. Muss man also erst wieder normalisieren.








Antwort von roki100:

-paleface- hat geschrieben:
roki100 hat geschrieben:
ich verstehe zwar nicht was ColorScience mit Anamorphoten etc. zu tun haben soll... aber egal, ich mache da sowieso meine eigene Erfahrung und ich finde Anamorphot ändert da nichts an ColorScience - außer dass das Bild eben breiter ist und etwas andere Tiefenschärfe hat...aber auch Lichter/Highlights anders usw. ;)

Und alte Objektive wie Canon FD machen es auch nur umso schöner... ;)
ColorScience, DynamicRange ist m.M. viel viel wichtiger als mehr K.
Weil einem Anamorph Linsen gerne mal einen Farbstich verpasst. Dann ist die Color Science erst mal im Arsch. Muss man also erst wieder normalisieren.
ich habe da keine Erfahrung mit andere Anamorphic Linsen, nur mit SIRUI Anamorphic Linse und da ist kein Farbstich.



Antwort von Mantas:

Die ColorScience ist wichtig, sehr wichtig. Genauso wie DR.

Es ist scheiß egal, ob man Raw dreht » man nimmt gerne hübsche Farben, ohne was verdrehen zu müssen
alte Anamorphoten verwendet » der Stich wird bei anderen CS noch schlechter sein
Monitor kalibriert ist » gutes Gefühl zu wissen, dass man der Kamera mehr als dem Monitor vertrauen kann.

Schon allein was die ColorScience bei schlechtem Licht(nicht Lichtsetzung) alles ausmachen kann. Die Darstellung der Hauttöne bei billigem LED Licht ist bei Arri brauchbar, was bei den meisten anderen eine aufwendige Arbeit in der Post wäre.

Man bekommt hier gern das Gefühl, dass die meisten an großen Produktionen arbeiten, wo eh der Bluescreen ersetzt wird, VFX ohne Ende reinkommt usw usf :)
Die meisten wollen aber gute Farben am besten gleich, die meisten Kunden können nicht so leicht abstrahieren.



Antwort von Paralkar:

Anamorphoten haben genauso wenig oder viel n Farbstich wie andere Vintage bzw. nicht Vintage Linsen,

egal ob Cooke Anas, Scorpios, Hawks, Master Anas oder sogar die alten Kowas haben bei guter Wartung keine Farbstiche,

Die klassischen Probleme sind starke Randunschärfen, starke Verzeichnung/ Verzerrung, allgemein nicht so scharf etc....

Zu den Lomos kann ich nix sagen,

eigentlich hab ich das letzte mal bei Vintage Linsen Farbstiche nur bei S2 Optiken gehabt, weil die anscheinend ein Coating haben, das mit der Zeit abgeht (hab mal gehört das ist n leicht radioaktives Coating und mit der Halbwertszeit ändern sich die Farben)

Selbst die von mir gehassten K35 Optiken sind nicht wirklich scharf, aber Farbstiche haben sie auch keine

Kommt natürlich auf den Satz an und wie gut diese gewartet sind...



Antwort von Darth Schneider:

Was meinst du dann mit die Linsen warten ? Auseinander schrauben und Reinigen ? Kommt das nicht eher darauf an wie vorsichtig man mit ihnen umgeht ?
Ich wüsste jetzt nicht was es an einer sorgfältig behandelten Linse gross zu warten gibt ?
Das mit dem leicht radioaktiven Coating tönt ja auch ein wenig weit hergeholt ?
A. Was soll ein radioaktives Coating denn genau bringen ?
B. Und wenn man so was schon benutzt, testet man vorher das mit der Halbwertzeit nicht ?
Wenn eine Substanz strahlt ist es doch irgendwie nachvollziehbar das die Strahlung irgendwann abnimmt und sich die Farben verändern ;-)
Gruss Boris



Antwort von iasi:

Paralkar hat geschrieben:
Anamorphoten haben genauso wenig oder viel n Farbstich wie andere Vintage bzw. nicht Vintage Linsen,
Flares, CA, ... da kommen reichlich Farben ins Bild, die man beim Motiv nicht findet.



Antwort von Darth Schneider:

http://pibly.weebly.com/home/someone-co ... o-darkness
Nur ein wenig mehr als schlappe 700/800 ? Da kann er sich aber hoffentlich noch steigern.....
Gruss Boris



Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:

Das mit dem leicht radioaktiven Coating tönt ja auch ein wenig weit hergeholt ?
A. Was soll ein radioaktives Coating denn genau bringen ?
Das ist nicht weit hergeholt, sondern war ne ganze Zeit lang üblich Linsen mit Thoriumdioxid zu beschichten.
Ambitionierte Fotografen und Filmemacher schwören zum Teil auf Objektive aus den 60er- und 70er-Jahren: Gute Qualität zu einem guten Preis. Doch viele Objektive aus jener Zeit sind radioaktiv.

Dem Spezialglas für Linsen wurde damals oft Thoriumdioxid beigemischt. Dies hilft, bessere Bilder zu machen, aber eben: es strahlt. Das kantonale Labor Basel Stadt hat die Strahlung bei Occasions-Objektiven nachgewiesen.

Bei normaler Benützung dieser Objektive bestehe keine Gefahr, heisst es beim Labor wie auch beim Bundesamt für Gesundheit (BAG). Problematisch werden könnte es, wenn die Linsen zu Bruch gehen. Werden solche Objektive nicht mehr gebraucht, muss man sie als radioaktiven Sonderabfall über eine Fachstelle wie die Abteilung Strahlenschutz des BAG entsorgen.
https://www.srf.ch/sendungen/kassenstur ... radioaktiv



Antwort von iasi:

"Frank Glencairn" hat geschrieben:
"Darth Schneider" hat geschrieben:

Das mit dem leicht radioaktiven Coating tönt ja auch ein wenig weit hergeholt ?
A. Was soll ein radioaktives Coating denn genau bringen ?
Das ist nicht weit hergeholt, sondern war ne ganze Zeit lang üblich Linsen mit Thoriumdioxid zu beschichten.

"Üblich" ist wohl etwas übertrieben.
Ich kenne eigentlich nur das Pentax Takumar 50mm F/1.4.
Es gibt sicherlich noch andere, aber sehr viele sind es wahrscheinlich nicht.



Antwort von -paleface-:

Schön das eure Linsen alle keinen Farbunterschied haben.

Hier testet Shane mal 4 Prime Linsen.
Alle sehen anders aus.

Dann haut man vielleicht noch einen ND davor und hat wieder ne andere Farbe.
Dann kommt vielleicht noch IR Pollution dazu.












Antwort von iasi:

Die Diskussion über die Nachteile von Vari-ND-Filtern ist ja z.B. auch beendet, auch wenn sie noch immer existieren.

Da ich sie schlicht sehr praktisch finde und ND-FilterND-Filter im Glossar erklärt für mich das Mittel der Belichtungssteuerung sind, nehme ich diese Nachteile in Kauf.
Auch deshalb ist für mich Color-Science kein herausragendes Thema.

Ich würde mir nur wünschen, dass die Color-Chart-Justierung in Resolve noch besser funktionieren würde. ;)



Antwort von Frank Glencairn:

iasi hat geschrieben:

Ich würde mir nur wünschen, dass die Color-Chart-Justierung in Resolve noch besser funktionieren würde. ;)
Dir ist aber schon bewußt, daß das jegliche Color Science quasi komplett neutralisiert.



Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:

Ich würde mir nur wünschen, dass die Color-Chart-Justierung in Resolve noch besser funktionieren würde. ;)
Dir ist aber schon bewußt, daß das jegliche Color Science quasi komplett neutralisiert.
ja - genau - und es soll auch alle Farbverfälschungen durch Objektiv, Filter etc. neutralisieren und vor allem die Aufnahmen angleichen.
Damit hat man dann eine gutes Ausgangsbasis für die Farbgestaltung.



Antwort von Frank Glencairn:

IMHO ist das der falsche Weg die Farben erst zu verdrehen, um sie dann wieder woanders hin zu drehen, den ersten Schritt kannst du dir sparen - diese "neutrale Ausgangsbasis" Idee fand ich schon immer etwas backwards, aber jeder hat so seinen Workflow, wenn du damit zurecht kommst, warum nicht? Persönlich halte ich das aber für völlige Zeitverschwendung.

Außerdem kenne ich ne Menge DPs, die mir das Fell über die Ohren ziehen würden, wenn ich ihre Entscheidungen was Optik, Kamera und Lichtgestaltung am Set in der CC erst mal neutralisieren würde.

Was du als "Verfälschung" bezeichnest ist das Ergebnis einer kreativen Entscheidung.



Antwort von iasi:

Verdrehen?

Du musst die Aufnahmen sowieso an einer Stelle in deinem Workflow angleichen, also verdrehen.

Wir können doch nicht immer von den idealen Drehbedingungen ausgehen, daher gibt es kein Neutral.
So etwas hast du höchstens im Studio mit absoluter Lichtkontrolle und einem angeglichenen Objektivset und und und.

Viele DP haben es eben noch nicht akzeptiert, dass auch in der Post kreative Entscheidungen möglich sind. Diese DP versuchen dann ihr Bild möglichst in die Aufnahme einzubrennen. Dies nimmt dann aber dem Gesamtteam Gestaltungsmöglichkeiten.

Ein DP sollte sich heute auf Gestaltungsmittel wie Bildausschnitt, Schärfeebene, DOF, BrennweiteBrennweite im Glossar erklärt, Lichtsetzung, Kamerabewegung usw. konzentrieren.
Eigentlich braucht es daher am Set auch keinen kalibrierten Vorschaumonitor, der suggeriert, man würde das endgültige Bild sehen.



Antwort von -paleface-:

Vielleicht muss man Color Science erst einmal spezifizieren?

Slashcam sagt immer das sind die Farben Out Of the Box. Wenn ich ein neutrales Objektiv davor habe und eine LUT vom Herrsteller drüber haue. Tatsächlich hab ich bei meinen Kameras (Ursa und Gh5) mit der Technik noch nie ein schönes Bild bekommen. Haben die jetzt etwa eine doofe Color Science?

Denk ich nicht.



Antwort von Mantas:

Doch :)



Antwort von roki100:

"Frank Glencairn" hat geschrieben:
Was du als "Verfälschung" bezeichnest ist das Ergebnis einer kreativen Entscheidung.

So sehe ich das auch.

@-paleface- und @iasi
ja, ND Filter, IR... ändert da ein bisschen etwas (von ND zu ND auch völlig unterschiedlich, ich habe mehrere getestet und quasi den günstigsten ND behalten :) ). Trotzdem bleibt die ColorScience immer noch gut vorhanden. IR-Cut vor ND und gut ist, zumindest war es bei mir so...

Es wäre doch etwas komisch wenn alle Linsen das selbe ergeben würden, jedoch mit nur einer anderen Brennweite.... :)
Die selben Linsen (wie im Video) sehen mit einem Arri Sensor und dessen Sensor Eigenschaften doch etwas anders aus - Anders als z.B. mit nem Sony Sensor.... woran liegt es? Da spielt doch die Sensor Specs (ColorScience, DR...oder Arri und DualGain/wie es licht aufnimmt usw.) eine entscheidende Rolle? Wenn nur RAW ausreichen würde (wie sooft iasi meint?), dann hätten die (denke ich) z.B. bei der Entwicklung von Arri-Sensor, nicht darin gezielt und präzise gearbeitet und Zeit damit verschwendet, die alten ColorScience/den Arri Look bei Alexa beizubehalten(?), sondern einfach nen Sony-alibaba-Sensor verbaut und die Kunden auf RAW hingewiesen und das man damit angeblich und unabhängig von Sensor Specs/ColorScience alles erreichen kann...?



Antwort von iasi:

Das stimmt ja auch alles, was ihr sagt. Und natürlich gibt es eine Farbabstimmung für jeden Sensor - das bedingt ja schließlich auch das Bayer-Verfahren. Aber mehr als ein Unterbau ist es eben doch nicht, denn letztlich spielen viele Faktoren mit hinein.

Und am Ende bekommt man eh Bilder, wie im gerade mal wieder gesehenen Max Max F.R., die mit dem, was die Alexa ausgegeben hatte, farblich nicht mehr viel zu tun hat.

Es hat natürlich einen Vorteil, wenn eine Alexa in jedem Blendenbereich konstante Farben liefert und nicht plötzlich das Gesicht, das sich in den Schatten dreht, einen leichten Grünstich erhält, denn diesen zu korregieren, wäre lästig und zeitraubend.








Antwort von Paralkar:

-paleface- hat geschrieben:
Schön das eure Linsen alle keinen Farbunterschied haben.

Hier testet Shane mal 4 Prime Linsen.
Alle sehen anders aus.

Dann haut man vielleicht noch einen ND davor und hat wieder ne andere Farbe.
Dann kommt vielleicht noch IR Pollution dazu.



Hier werden verschiedene Objektive/Hersteller verglichen, und ja Objektive haben leichte Kontrast und gegebenenfalls auch mal Farbunterschiede, aber die meisten kein Farbstich (wie oben erwähnt hatte ich das mal bei S2), und da ist auch nur eine Optik im Set 500 KelvinKelvin im Glossar erklärt wärmer gewesen. Color Checker an die Klappe und der Rest wurde im Grading gemacht, bzw. hab ich auch schon im OnSet Grading ausgeglichen.

Solang alle Objektive einer Reihe die selben Eigenschaften hat, also bisserl wärmer, weicher etc. ist das ja alles super, das sind dann Optiken mit nem gewissen Charakter, deshalb schauen Cooke auch aus wie Cooke....

@Iasi N Farbstich und Flares sind 2 vollkommen verschiedene Sachen....

Ich muss sagen seit der Mini hab ich keinerlei Probleme mehr mit NDs gehabt, weil die so sauber sind, davor war es nicht untypisch bei egal welchem ND Hersteller, 1,2 oder 1,5 aufwärts Minus Grün reinhauen....



Antwort von iasi:

Paralkar hat geschrieben:

@Iasi N Farbstich und Flares sind 2 vollkommen verschiedene Sachen....

Ich muss sagen seit der Mini hab ich keinerlei Probleme mehr mit NDs gehabt, weil die so sauber sind, davor war es nicht untypisch bei egal welchem ND Hersteller, 1,2 oder 1,5 aufwärts Minus Grün reinhauen....
Bei Vari-NDs auch?

Klar sind Farbstich und Flares 2 verschiedene Sachen.
Aber Farbänderungen hast du in beiden Fällen. Bei Flares zudem unkontrollierbar.



Antwort von Frank Glencairn:

iasi hat geschrieben:
Verdrehen?
Natürlich verdrehen. Damit machst du nicht nur die Colo Science des Herstellers zunichte, sondern auch die Arbeit des DP.
iasi hat geschrieben:

Ein DP sollte sich heute auf Gestaltungsmittel wie Bildausschnitt, Schärfeebene, DOF, BrennweiteBrennweite im Glossar erklärt, Lichtsetzung, Kamerabewegung usw. konzentrieren.
Das ist eine ziemlich halsbrecherisch Ansage. So ziemlich jeder DP den ich kenne kotzt bei sowas.
Ich war mal kurz davor, meinen Namen aus dem Abspann streichen zu lassen, weil ein Colorist gemeint hat er wüßte besser, wie der Film auszusehen hat, und daß ich mir bei meiner Arbeit nix gedacht hätte.

Womöglich ist dir die Aufgabe eines DP auch nicht so richtig bewußt - klingt jedenfalls danach.



Antwort von Funless:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Verdrehen?
Natürlich verdrehen. Damit machst du nicht nur die Colo Science des Herstellers zunichte, sondern auch die Arbeit des DP.
iasi hat geschrieben:

Ein DP sollte sich heute auf Gestaltungsmittel wie Bildausschnitt, Schärfeebene, DOF, BrennweiteBrennweite im Glossar erklärt, Lichtsetzung, Kamerabewegung usw. konzentrieren.
Das ist eine ziemlich halsbrecherisch Ansage. So ziemlich jeder DP den ich kenne kotzt bei sowas.
Ich war mal kurz davor, meinen Namen aus dem Abspann streichen zu lassen, weil ein Colorist gemeint hat er wüßte besser, wie der Film auszusehen hat, und daß ich mir bei meiner Arbeit nix gedacht hätte.

Womöglich ist dir die Aufgabe eines DP auch nicht so richtig bewußt - klingt jedenfalls danach.
Exakt! Im Idealfall bilden bei professionellen Produktionen Regie und DP ein Team die sich "blind" verstehen und sehr gut miteinander kommunizieren können.

Als Beispiel hierfür führe ich gerne nochmal den Auszug eines Tarantino Interviews von 1992 in Cannes an welches damals zur Premiere von Reservoir Dogs geführt wurde (hatte ich in‘nem anderen Thread schon mal gepostet):
We shot Reservoir Dogs in 50 ASA, which is the slowest film stock that Kodak makes. Low-budget pictures are shot with the fastest film stock because you don‘t need that much light. Instead, we were pumping in light from everywhere; every shot in the movie was miserable to get. I mean, that warehouse was an oven. It roasted you, but it was worth it because it gave you those deep, deep colors.

I don‘t know a whole lot of lightning. I know what I want, but every time I talked to Andrzej about how I wanted the film to look, I just talked in terms of colors. I wanted the reds to be eye-popping reds, the blues to be blue, the black to be black, no gray. I just talked in terms of the clarity of the colors and that‘s what the film stock gave us.

I didn‘t use storyboards because I can‘t draw. And I don‘t like the idea of someone else drawing them because they wouldn‘t get the framing right. But I can wirte, so I did extensive shot lists, where I just describe every thing. The camera will do this, at this point it will do that, all the different set-ups. We‘d discuss every scene, and then Andrzej would do some of his own, and come back and I‘d say, "Yeah, I like that," "No, I don‘t like that," "Yeah, I like yours better than mine, I think that‘s more interesting."
Ich finde, dass das sowohl die Aufgabe eines DP, als auch die Wichtigkeit dessen ganz gut zeigt.

Und aus meiner Sicht überhaupt nichts mit dem zutun hat was iasi sich offenbar darunter vorstellt. Das kommt m.E. eher aus der Hobbyfilmerecke.



Antwort von iasi:

@Frank

Mir ist schon bewußt, dass viele DP Kompetenzen nicht abgeben wollen - wessen Ego will das schon.

Dennoch sollten sie sich der Realität beugen und mehr Teamgeist zeigen.

Zu Negativzeiten konnte bei der Entwicklung zwar auch noch Einfluss genommen werden, aber die digitale Post bietet eben noch viel mehr Gestaltungsmöglichkeiten, die ein Regisseur sicherlich (und hoffentlich) nutzen möchte.

Bei einigen (wenigen) DPs geht es ja sogar so weit, dass sie bewußt einen CodecCodec im Glossar erklärt nutzen, der den Post-Spielraum begrenzt.



Antwort von pillepalle:

Die meisten Regisseure wissen aber schon vorher wie das Ergebnis aussehen soll und arbeiten bereits am Set darauf hin. Da wird nicht mehr viel in der Post 'verbogen'. Das ist einfach unüblich das man sich erst hinterher
überlegt wie der Film aussehen soll, oder den Look nachträglich völlig verändert.

VG



Antwort von iasi:

Funless hat geschrieben:

Und aus meiner Sicht überhaupt nichts mit dem zutun hat was iasi sich offenbar darunter vorstellt. Das kommt m.E. eher aus der Hobbyfilmerecke.
Na du scheinst wohl nicht zu verstehen, um was es geht, denn sonst würdest du hier nicht ein Beispiel bringen, das letztlich bestätigt, was sich sage:
Der Regisseur entscheidet.
Und anders als zu Reservoir Dogs-Zeiten bietet die Post ihm heute enorme Gestaltungsmöglichkeiten.

Das scheinst du nicht zu verstehen.



Antwort von iasi:

pillepalle hat geschrieben:
Die meisten Regisseure wissen aber schon vorher wie das Ergebnis aussehen soll und arbeiten bereits am Set darauf hin. Da wird nicht mehr viel in der Post 'verbogen'. Das ist einfach unüblich das man sich erst hinterher
überlegt wie der Film aussehen soll, oder den Look nachträglich völlig verändert.

VG
Ach - Mad Max: Fury Road kam mit dem Look aus der Kamera?

Natürlich arbeitet man schon während des Drehs auf einen Look hin, der dann aber erst endgültig in der Post entsteht.



Antwort von Funless:

iasi hat geschrieben:
Funless hat geschrieben:

Und aus meiner Sicht überhaupt nichts mit dem zutun hat was iasi sich offenbar darunter vorstellt. Das kommt m.E. eher aus der Hobbyfilmerecke.
Na du scheinst wohl nicht zu verstehen, um was es geht, denn sonst würdest du hier nicht ein Beispiel bringen, das letztlich bestätigt, was sich sage:
Der Regisseur entscheidet.
Und anders als zu Reservoir Dogs-Zeiten bietet die Post ihm heute enorme Gestaltungsmöglichkeiten.

Das scheinst du nicht zu verstehen.
Was du leider nicht verstehst ist, dass ein Regisseur der auf "die enormen Gestaltungsmöglichkeiten in der Post setzt die ihm da geboten werden" wohl vor und während der Dreharbeiten offensichtlich keinen Plan hat wie der Film am Ende aussehen soll.

Einfach erstmal drehen (natürlich nur in RAW mit 18 Blenden DR) und das so schnell wie möglich weil Dreharbeiten kosten ja soviel Geld um dann monatelang in der Post aufwändig jeden einzelnen Shot und jede Szene am Rechner "zu gestalten" hat mit Produktionen die Geld einspielen sollen genauso viel zutun wie eine Kuh mit Eierlegen zutun hat.

Hobbyprojekte werden so realisiert was auch völlig in Ordnung ist. Aber professionelle Produktionen? Da wäre ich ja wirklich gerne mal bei‘nem Investorenpitch dabei nur um zu sehen wie der Produzent dieses Konzept den Geldgebern verkaufen will.








Antwort von Frank Glencairn:

Das ist genau so wie diese Sorte von unsicheren Regisseuren, die keine klare Vorstellung haben, und die dich deshalb jede Szene aus mit 20 verschiedenen Einstellungen drehen lassen, und dir dann sagen sie würden "den Film im dann Schnittraum schon finden". Sowas ist die Pest im Arsch, und du weißt beim drehen schon daß die ganze Nummer eine einzige shit-show wird.

Wenn du deinen Film nicht spätestens beim Dreh gefunden hast, wirst du ihn im Schnittraum auch nicht finden.



Antwort von Pianist:

"Frank Glencairn" hat geschrieben:
Das ist genau so wie diese Sorte von unsicheren Regisseuren, die keine klare Vorstellung haben, und die dich deshalb jede Szene aus mit 20 verschiedenen Einstellungen drehen lassen, und dir dann sagen sie würden "den Film im dann Schnittraum schon finden". Sowas ist die Pest im Arsch, und du weißt beim drehen schon daß die ganze Nummer eine einzige shit-show wird.
Dabei besteht der Sport doch eher darin, so sparsam zu drehen, dass man zum Schluss jeden Clip verwendet hat und keiner ungenutzt bleibt... :-)

Matthias



Antwort von prime:

Keine Sorge es kommen gleich wieder einige Anekdoten über diesen und jenen Film und diesen und jenen DP/Regisseur...

Ich meine es ist doch bei iasi immer der gleiche Kram. Seit mehr als 10 Jahren lesen wir die selben realitätsfremden und praxisfernen Vorstellungen darüber wie es bei einen Dreh ablaufen soll und über die Gestaltungsmöglichkeiten der Post™.



Antwort von roki100:

Die Rumänische Filme sehen doch viel cinematischer aus als deutsche... ;)



Antwort von Frank Glencairn:

roki100 hat geschrieben:
Die Rumänische Filme sehen doch viel cinematischer aus als deutsche... ;)


Aber nur wenn ich wieder mal in Rumänien drehe :-)



Antwort von roki100:

und ich dache schon es liegt an iasi




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Camcorder allgemein -- 4K / UHD / FHD-Forum

Antworten zu ähnlichen Fragen:
Rekordverdächtige 108MP in der Xiaomi Mi Note 10 Smartphonekamera -- und 4K
4k-fähige Zweitkamera
Günstige Unterwasserkamera 4K 24 fps
Ricoh Theta V -- kleine 4K-360° Kamera vorgestellt // IFA 2017
Suche nach 4K/ 60fps Kameras
Chinakamera: Ambarella S2 4K
yuneec 4k kamera problem
4K-Kameras: Da geht noch mehr!
Samsung NX Mini 2 - kleinste 4K-Kamera in den Startlöchern
Die NASA hat auf der ISS jetzt auch eine 4K-Kamera....
Übersicht der 4K Kameras 2013
Die aktuelle 4K System-Kamera Gerüchte-Roadmap
Messevideo: ARRI Alexa Mini LF - die Unterschiede zur Alexa Mini + Neues zur S35 4K ARRI 2020// NAB 2019
Bestätigt: Sony Alpha 7S II Nachfolger kommt im Sommer
Adobe bestätigt: ProRes RAW in Premiere Pro kommt
"The 800": Erfolgreichster Kinofilm 2020 kommt nach Deutschland
Nikon bestätigt die Entwicklung einer spiegellosen Vollformat-Kamera
Sony bestätigt eine FX6 Cinema-Kamera für diesen Herbst
ARRI ALEXA 65 Showreel 2020 online: State of The Art Momentaufnahme
DXO-Mark: DJI Zenmuse X7 s35-Kamera mit ausgezeichneter Testwertung
Yongnuo kommt mit eigener Kamera
Die Sundance Kameras 2020 für Fiction- und Dokumentarfilm: ARRI und Canon vorne
Nähereres zur Panasonic AU-EVA1 S35-Kamera -- sie wird 7.290 Euro kosten
Erste Videoaufnahmen mit der S35-Kamera Panasonic EVA1 zur // IBC 2017
Aus der Traum: Modulare Craft Kamera kommt nicht
Wie man umsonst an eine neue Kamera kommt | Erfahrungsbericht

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom