Logo Logo
/// 

Do the White Thing - Grundsätzliches zum Weißabgleich



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


https://www.slashcam.de/images/texte/1386--F ... -FRONT.jpgEin paar grundsätzliche, einfache Worte, warum ein WeißabgleichWeißabgleich im Glossar erklärt manchmal zwingend ist. Und manchmal eben auch nicht. (Sponsored by SAE)

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Grundlagen: Do the White Thing - Grundsätzliches zum Weißabgleich




Antwort von iasi:

Der letzte Satz stimmt so nicht.

Natürlich kann man auch bei Raw einen Farbabgleich durchführen. Und dies ist auch durchaus sinnvoll, wenn die Abweichungen extrem sind.
Mit einem auf Tageslicht ausgelegten Sensor erzielt man bei Kunstlicht nicht die optimalen Ergebnisse. Da hilft dann - wie in alten Zeiten - ein Korrekturfilter vor dem Objektiv.



Antwort von wp:

Ich stimme Iasi vehement zu. :-)

Wenn bei der Aufnahme ein Kanal ausgeglüht ist, nützt auch raw nix mehr.





Antwort von -paleface-:

Und was genau ist bei der Gopro die native WB?
Und warum haben das nicht alle Kameras? So würde man doch das WB Problem umgehen.



Antwort von WoWu:

Ich stimme Iasi vehement zu. :-)

Wenn bei der Aufnahme ein Kanal ausgeglüht ist, nützt auch raw nix mehr.
Nee, nee, der letzte Satz stimmt schon, es fehlt nur der Zusatz "für einen optimalen Dynamikumfang"; denn mit solchen Konversionsfiltern dämpft man sich nicht nur die unerwünschten Lichtbereiche, um die Ballance zu ändern, sondern durch die dichroischen Schichten den gesamten Lichtdurchtritt durch das Objektiv, der durch Verstärkung aufgeholt werden muss, was zu weniger Dynamik führt.
Mal ganz davon abgesehen, dass das Bayerfilter in seiner Farbgebung der einzelnen Filter exakt auf die Quanteneffizienz des Sensors abgestimmt ist, um die Sensorleistung (in allen Parametern) zu optimieren.
Die "Tageslichtabstimmung" geschieht auch bei RED in der Elektronik, weil keine Sensorsignale herausgeführt werden. Insofern muss man also das, im Atikel erwähnte RAW von dem eines flachen Video- (TIFF) der RED unterscheiden.

Was aber an dem Artikel nicht stimmt, ist die Farbproblematik, dass bei einem falschen WeissabgleichWeissabgleich im Glossar erklärt "Lücken" in der Übertragung entstünden weil vermeintlich zuwenig Werte vorhanden wären.
Weissabgleich ist lediglich ein Amplitudenabgleich der Farbwerte zueinender.
Das hat mit der Übertragung nichts zu tun.
Ohnehin hat der Sensor pro PixelPixel im Glossar erklärt (also in jeder Farbe) deutlich mehr als die 8 BitBit im Glossar erklärt und komprimiert die Dynamik lediglich daraus und nimmt seine 240 aus (z.B.) 4096 Werten.
Da fehlt kein Wert, im Gegenteil, man kann mit einem re-mapping (in der Übertragungsfunktion) sich die Werte sogar noch aussuchen.
Die Lücken entstehen erst in der GammaGamma im Glossar erklärt Bearbeitung, haben also mit dem WeissabgleichWeissabgleich im Glossar erklärt nichts zu tun.



Antwort von iasi:

Ich stimme Iasi vehement zu. :-)

Wenn bei der Aufnahme ein Kanal ausgeglüht ist, nützt auch raw nix mehr.
Nee, nee, der letzte Satz stimmt schon, es fehlt nur der Zusatz "für einen optimalen Dynamikumfang"; denn mit solchen Konversionsfiltern dämpft man sich nicht nur die unerwünschten Lichtbereiche, um die Ballance zu ändern, sondern durch die dichroischen Schichten den gesamten Lichtdurchtritt durch das Objektiv, der durch Verstärkung aufgeholt werden muss, was zu weniger Dynamik führt.

Die Schlussfolgerung ist so nicht richtig: Eine Verstärkung ist nur notwendig, wenn man die Belichtung nicht anpasst.
Schluckt der Filter 2 Blendenstufen, dann müssen eben diese 2 Blendenstufen durch passenden ND-FilterND-Filter im Glossar erklärt oder um 2 Stufen geöffnete BlendeBlende im Glossar erklärt ausgeglichen werden.
Problematisch wird"s nur bei low-light.

Wenn die armen lichtempfindlichen Zellen hinter den roten Türchen mit Licht überschwemmt werden, während die hinter den blauen Türchen fast verhungern, dann ist das eben doch weit entfernt von optimal.
Natürlich muss man nicht mehr in dem Maße exakt filtern, wie beim Negativ, aber extreme Abweichungen sollte man schon korregieren.



Antwort von iasi:

Und was genau ist bei der Gopro die native WB?
Und warum haben das nicht alle Kameras? So würde man doch das WB Problem umgehen.

Ein Sensor ist auf einen bestimmten Wert abgestimmt. Den einigermaßen zu treffen, ist durchaus vorteilhaft.



Antwort von WoWu:

Der Sensor ist auf Quanteneffiziens durch die Filterung fest abgestimmt.
Jeder WeißabgleichWeißabgleich im Glossar erklärt findet in E-Kameras im nachlaufenden Prozess statt.
Verlässt man diese optimale Quanteneffizienz durch Umfilterung, verlässt man automatisch den "Sweet Spot".



Antwort von iasi:

Der Sensor ist auf Quanteneffiziens durch die Filterung fest abgestimmt.
Jeder WeißabgleichWeißabgleich im Glossar erklärt findet in E-Kameras im nachlaufenden Prozess statt.
Verlässt man diese optimale Quanteneffizienz durch Umfilterung, verlässt man automatisch den "Sweet Spot".

Die Abstimmung des Sensors erfolgt auf eine bestimmte Farbtemperatur.
Korregiert man nicht auf diese Farbtemperatur hin, verlässt man den "Sweet Spot".

Wer ein rotes Bild haben möchte, der kann sich natürlich den Korrekturfilter bei einer auf Tageslicht abgestimmten Kamera in einer Kunstlichtsituation sparen.
Wenn aber die weiße Wand dann eben doch weiß sein soll, dann wird"s suboptimal.
Von "Sweet Spot" kann jedenfalls nicht mehr die Rede sein, wenn dann Blau aus dem Keller hochgezogen werden muss.



Antwort von WoWu:

Weißabgleich und Vorfilterung sind zwei grundverschiedene Dinge.
Wenn die Kmera im "default" auf ein bestimmte Farbtemperatur abgestimmt ist, heißt das nicht, dass man dem Licht entsprechend nicht die passende Themperatur wählen soll.
Nur ist ein Transformationsfilter bei E-Kameras das suboptimale Mittel, zumal man füre eine korrekte Einstellung um die Veränderung der elektronischen Einstellung ohnehin nicht herum kommt, weil die Transformationsfilter niemals sofort die passenden Werte liefern, sondern lediglich eine Annäherung.
Das ist ein Relikt aus Film-emulsionszeiten, wo es nicht anders ging.
Natürlich kann man das heute auch noch mit Filtern machen, wenn einem die restlichen Bildparameter egal sind.



Antwort von iasi:

Weißabgleich und Vorfilterung sind zwei grundverschiedene Dinge.
Wenn die Kmera im "default" auf ein bestimmte Farbtemperatur abgestimmt ist, heißt das nicht, dass man dem Licht entsprechend nicht die passende Themperatur wählen soll.
Nur ist ein Transformationsfilter bei E-Kameras das suboptimale Mittel, zumal man füre eine korrekte Einstellung um die Veränderung der elektronischen Einstellung ohnehin nicht herum kommt, weil die Transformationsfilter niemals sofort die passenden Werte liefern, sondern lediglich eine Annäherung.
Das ist ein Relikt aus Film-emulsionszeiten, wo es nicht anders ging.
natürlich kann man das heute auch noch mit Filtern machen, wenn einem die restlichen Bildüarameter egal sind.

Wie oben schon geschrieben:
Einen perfekten WeißabgleichWeißabgleich im Glossar erklärt per Filter muss man bei Digitalkameras natürlich nicht mehr machen. Aber zu große Abweichungen sollte man meiner Meinung nach dennoch per Filter ausgleichen.
Grundverschiedene Dinge sind es zudem nicht - das "Ziel" ist das gleiche. Nur die Art und Weise unterscheidet sich. :)
Es ist jedenfalls schon ein Unterschied, ob ich per Verstärkung gleich mehrere Blendenstufen z.B. zwischen B und R ausgleichen muss oder eben nur eine Feinabstimmung vornehme, da ich z.B. das Kunstlicht von 3400 auf 5600Kelvin per Filter für meinen Tageslichtsensor korregiert habe.

Es ist nun einmal besser, wenn alle Sensel die ideale Lichtmenge abbekommen. Es sind nun einmal auf bestimmte Werte abgestimmte Systeme - je genauer man diese Werte trifft, umso mehr nähert man sich dem "Sweet Spot".

Natürlich würde wohl niemand einen Korrekturfilter nutzen und den Belichtungsausgleich über die Verstärkung machen - das wäre dann kontraproduktiv. Damit würde man sich vom ISO-Idealwert entfernen und hätte mehr verloren als gewonnen.



Antwort von WoWu:

Mit Transformationsfiltern greift man in die Farbgebung des Bayerfilters ein. Dessen genaue Farbe ist aber eine Konstante in den De-Bayerinnen Algorithmen, die wesentlicher Bestandteil des Weissabgleiches sind. Denn WeißabgleichWeißabgleich im Glossar erklärt ist eine Frage der Gewichtung, entlang unterschiedlicher Kurven der Quantenverfügbarkeit am Sensor.
Die Genauigkeit der Abstimmung der Quanteneffizienz zur Farbe der Bayerfilters, und damit zur präzisen Gewichtung der Farben, ergeben die Genauigkeit der Kamera und tragen damit zur Güte des Bildes bei.
Natürlich kann man darin rumfummeln und die Parameter solange verbiegen, bis es hübsch aussieht. Dass dabei die restlichen Parameter sich verändern ist wahrscheinlich dem Amateur dann auch egal.
Filter ist natürlich viel cooler.



Antwort von iasi:

Mit Transformationsfiltern greift man in die Farbgebung des Bayerfilters ein.

nein - man "greift" in das Licht ein, das den Sensor erreicht.
Man optimiert das Licht im Hinblick auf die Sensorspezifikation.

Dessen genaue Farbe ist aber eine Konstante in den De-Bayerinnen Algorithmen, die wesentlicher Bestandteil des Weissabgleiches sind. Denn WeißabgleichWeißabgleich im Glossar erklärt ist eine Frage der Gewichtung, entlang unterschiedlicher Kurven der Quantenverfügbarkeit am Sensor.
Die Genauigkeit der Abstimmung der Quanteneffizienz zur Farbe der Bayerfilters, und damit zur präzisen Gewichtung der Farben, ergeben die Genauigkeit der Kamera und tragen damit zur Güte des Bildes bei.
Natürlich kann man darin rumfummeln und die Parameter solange verbiegen, bis es hübsch aussieht. Dass dabei die restlichen Parameter sich verändern ist wahrscheinlich dem Amateur dann auch egal.
Filter ist natürlich viel cooler.

Wenn dem vermeindlichen Profi nicht klar ist, dass man mit 2000Kelvin-Licht nur sehr schwerlich bei einem auf Tageslicht abgestimmten Sensor ein neutrales Weiß erzielen kann, dann referiert er eben über "Quanteneffizienz".

Die Gewichtung der Farben hat eben leider auch seine Grenzen. Wenn der Blaukanal von Rauschen überlagert wird, weil die Signalstärke zu schwach ist, hilft auch kein Algorithmus mehr.
Wenn dann andererseits im Rotkanal schon die Lichter clippen, ist das Wiederherstellen von Zeichnung aus den anderen Kanalinformationen auch nur Flickschusterei.

Wie bei allen Sensoren, erfolgt die Abstimmung auf bestimmte Werte. Wer nun denkt, man könnte von einem Sensor immer das Beste bekommen, egal mit welchem Licht man arbeitet, der ist eben sehr technikgläubig und hält den Toleranzbereich für unendlich.



Antwort von WoWu:

nein - man "greift" in das Licht ein, das den Sensor erreicht.
Man optimiert das Licht im Hinblick auf die Sensorspezifikation.

Das war ja eine tolle Begründung.

Du hast Dich vermutlich noch nie mit den Funktionen eines Sensors oder einer Filterscheibe und schon gar nicht mit De-Bayering auseinander gesetzt, sonst wäre so eine Begründung nicht gekommen.
Denn Licht ist ja der Auslöser für jede nachgelagerte Aktion -allerdings im Context zu bestehenden Bauelementen.

Der Sensor und seine Filterscheiben, bei der sowohl die Farben der einzelnen Filter, als auch die Überlappung zueinander genau auf das Verhalten des Sensors in Bezug auf die Wellenlänge abgestimmt ist, ist wahrscheinlich die wesentlichste Voraussetzung dafür, dass solche Kameras vernünftig funktionieren.
Auf diese "analogen" Gegebenheiten sind Algorithmen abgestimmt, die im De-Bayering wirken, um eine Farbballance herzustelle.
Es ist nämlich nicht egal, welches blau und welche Überlappung beispielsweise die blauen Filterscheibchen im Bayerfilter haben, denn eben diese Filter passen exakt zur Eigenschaft des Sensors und stellen ein Optimum dar und haben ihre Entsprechung in den Konstanten der De-Bayer Algorithmen.
Insofern findet also auch hier (gewissermassen) eine Farbtransformation statt.

Das bedeutet, dass durch diese drei Komponenten (Quantenmenge, Filterscheibe und Gewichtung) ein linearer Verlauf aller drei Kurven (RGB) zueinander gewährleistet ist, bei gleichzeitig optimaler Lichtausnutzung und damit bei einem bestmöglich zu erreichenden Störabstand.
-Der sweet spot eben-.

Der angeforderte WeissabgleichWeissabgleich im Glossar erklärt wird dadurch vorgenommen, dass man die einzelnen Farbkomponenten unterschiedlich gewichtet.
Das kann auf verschiedene Arten vorgenommen werden, je nachdem, welche Algorithmen eingesetzt werden.
Es ist also Humbug zu sagen, der Sensor sei auf einen Farbwert festgelegt.
Die Kamera hat vielmehr eine Default Berechnung für den De-Bayer Prozess, um einen bestimmten Weisspunkt zu erzeugen.

Greifst Du nun mit Filtern in diese Abstimmung ein, veränderst Du Dir die Arbeitspunkte des De-Bayerings.
Wir haben häufig Filter eingesetzt, um bei Nachtaufnahmen das Ausbrennen von roten Spitzlichtern (Rückleuchten) zu verhindern.
Natürlich geht das, aber der Aufwand, das hinterher in der Post zu bereinigen und wieder einen linearen Verlauf herzustellen und das Rauschen der andern Kanäle anzupassen ist erheblich, bei gleichzeitig nicht zu vermeidender Einschränkung der Gesamtqualität des Bildes.
Man muss abwägen, ob man weisse Rücklichter bei ansonsten guter Bildqualität oder eingeschränkte Bildqualität bei organisch abgestimmtem Bildlicht haben will.
Heute würden wir die Lichtveränderung in der Post machen.

Aber um einen veränderten WeissabgleichWeissabgleich im Glossar erklärt an einer Stelle zu machen, die am ungeeignetsten ist, zumal es bessere, dafür vorgesehene Methoden gibt, auf so etwas kann man nur kommen, wenn man sich über die Tragweite nicht wirklich im Klaren ist. -Halbwissen nennt man das wohl, wenn man es gelinde ausdrücken will-



Antwort von iasi:

Aber dir ist schon klar, dass das Licht keine Konstante ist?

Wenn ich Weiß bei einem Papier im Kerzenlicht möchte, die Kamera aber auf Tageslicht abgestimmt ist (also z.B. bei einer Red MX bei 5000Kelvin alle Kanäle die selbe Signalstärke bei neutalem Grau/Weiß liefern), dann bekommt mein Blaukanal zu wenig bzw mein Rotkanal zu viel Licht ab - eben ganz dem Licht bei unter 3000 kelvin entsprechend.

Was du dann machst, ist den Sensor außerhalb seiner Spezifikationen nutzen, wenn du ihn mit Kerzenlicht bombardiert, aber dann neutrales Weiß willst.

Der Sensor merkt nicht, ob das Licht, das auf ihn fällt zuvor durch einen Filter ging - er merkt aber sehr wohl, ob das Licht 3400 oder 5600 KelvinKelvin im Glossar erklärt hat.

Du scheinst einfach auszublenden, dass Licht sehr unterschiedlich ist. Am Ende willst du zwar ein neutrales Weiß, aber dass es zwischen dem Schatten in der Mittagszeit und dem Kerzenlicht in der Nacht einen Unterschied gibt, blendest du wohl einfach aus.
Aber schon klar: Dem Bayer-Sensor ist das egal. Der liefert in beiden Fällen die exakt gleichen Ergebnisse. Da wird nur mal der Algorithmus angepasst und gut ist"s. Das war"s dann für dich?
So kommt man deiner Meinung nach zu optimalen Ergebnissen?

Nur weiß der Sensor eben gar nicht ob das Licht nun von einem weißen Blatt Papier im Kerzenlicht oder einer roten Wand im Tageslicht stammt - er sieht beides mal vor allem ROT. Und dann gehst du eben her und korregierst durch Verstärkung die Papieraufnahme, damit das weiße Papier auch Weiß erscheint.



Antwort von WoWu:

Entweder hast Du nicht genau gelesen, oder willst es nicht verstehen.
Aber dir ist schon klar, dass das Licht keine Konstante ist?
Wie kann Licht eine Konstante sein ?
So ein Quatsch.
haben ihre Entsprechung in den Konstanten der De-Bayer Algorithmen.

Was du dann machst, ist den Sensor außerhalb seiner Spezifikationen nutzen
Ein Sensor hat nur Eigenschaften. Wenn man ihn spezifizieren könnte, bräuchte man so etwas wie De-Bayering überhaupt nicht mehr.
Ein Sensor hat auch dieselben Eigenschaften, wenn man den Objektivdeckel drauf lässt.
Ein Sensor hat nur eine Eigenschaft ! (Wenn man es unbedingt so nennen will)

Aber lass es gut sein.
Bei Dir gibt es ja auch keine optischen Gesetze.
Warum sollte es also physikalische Verfahren notwendig sein, um Bilder zu erzeugen. De-Bayering ist vermutlich auch überflüssig ... hat man beim Film ja auch nicht gebraucht.
Mach Du Deinen WeissabgleichWeissabgleich im Glossar erklärt so, wie es für Filmemulsionen nötig war.
Cool bleibt eben cool.



Antwort von iasi:

Entweder hast Du nicht genau gelesen, oder willst es nicht verstehen.
Aber dir ist schon klar, dass das Licht keine Konstante ist?
Wie kann Licht eine Konstante sein ?
So ein Quatsch.

Ach ja?

Dann haben wir also immer und überall konstantes Licht.
Interessant.

Aber die Lichtmenge lässt du uns dann doch noch steuern, die auf den Sensor fällt? Also mit Abblenden und ND Filter.
Oder ist das dem Sensor etwa egal, wie viel Licht er abbekommt?

Ach ja - und die spektrale Zusammensetzung ist also auch egal?

Was verstehst du eigentlich unter "spezifizieren"?
Also nach meiner Erfahrung erhalten Produkte immer ziemlich eindeutige Spezifikationen.
Und wenn da also so ein Kamerahersteller eine neue Kamera konstruiert, wird er wohl auch einige Anforderungen an den Sensor seines Zulieferers haben - und das sind dann eben geforderte Eigenschaften.
Und hat dann so ein Sensor bestimmte Eigenschaften, dann wäre es wohl sicherlich ratsam, diese auch zu berücksichtigen.

Aber mal ein konkretes Beispiel:
Wenn da also eine Kamera mit einem DR von 12 Blendenstufen bei 5600 KelvinKelvin im Glossar erklärt bei 3400 KelvinKelvin im Glossar erklärt genutzt wird - hat sie dann immer noch denselben DR, wenn am Ende neutrales Grau auch auf einem Bildschirm neutral dargestellt werden soll?



Antwort von WoWu:

Natürlich, weil es den Sensor nicht interessiert.
Der hat auch noch dasselbe SNR, wenn du den Objektivdeckel drauf hast.

Aber ich will noch ein letztes Mal mit Deinem Kerzenlichtbeispiel versuchen:

Wenn Du versuchst, ein Kerzenlicht durch ein Filter zu korrigieren, veranlasst Du die Kerze nicht etwa mehr bleue Anteile zu emittieren.
Du erhältst als nicht mehr Photonen hinter den Blaufiltern, sondern verschiebst das Verhältnis der Lichtanteile nur dadurch, dass weniger Lichtanteile (Photonen) hinter den roten und grünen Filterscheiben auf den Sensor treffen.

Abzüglich der ohnehin schon geringen Blauanteile nehmen die etwa 30 bis 50 dichroischen Filterschichten nochmals Licht weg (auch bei Blau).

Das Ergebnis ist also kein besserer, sondern ein schlechterer Ausgangslage für das nachlaufende Prozessing, noch dazu auf Arbeitspunkten, die durch die zusätzliche Filterung nicht mehr mit den Farbangaben der De-Bayeralgorithmen übereinstimmen.

Der natürliche Farbverlauf über das gesamte Spektrum stimmt also nicht mehr.

Ergo: Du erhältst nicht mehr Photonen in Blau, sondern weniger und deutlich weniger rote und grüne "Photonen".
Beide Defizite müssen durch nachlaufende Verstärkung bzw. andere Gewichtung -was aufs selbe hinausläuft- aufgeholt werden.

Den Vorteil, den Du Dir versprichst, erreichst Du nur mit mehr reflektierten Photonen, also mehr Blauanteil im Licht aber niemals mit einem Filter.
Damit erreichst Du das Gegenteil, weil selbst bei Blau nicht mal die Photonen durchgereicht werden, die selbst die Kerze noch generiert.
Du must schon durch das Filter (über alles) mehr verstärken.

Das funktionierte übrigens auch beim Film nicht anders und man musste immer bei solchen Filterungen zu einer schnelleren Silbergenerierung greifen.
Man hat zwar versucht, die Schichten so zu gestalten, dass positive Effekte aus der Reflektion entstanden, aber das hat nicht mal die Durchlasseffekte voll kompensieren können.



Antwort von CameraRick:

Sag mal iasi hast eigentlich irgendwelche Quellen für das, was er da so erzählst bzgl Sensor und Weißabgleich? Ich würd mich da mal gern etwas rein lesen wie das zustande kommt.
Ich find nur nichts dazu :/




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
THE THING - Storyboard to Film Comparison
ClipKanal: Scene Breakdown: Do the Right Thing (Part 1)
ProRes verändert White Level
WHITE PAPER ON RED IPP2
Michael Kiwanuka - Black Man In A White World
The White Stripes - City Lights / Official Video
Trent + Alan: Neue Einbeinstative mit 2m Länge oder 60Kg Kapazität von 3 legged Thing
Evergreen: Weißabgleich...
Variabler "Weißabgleich-Filter" ?
Falschen Weißabgleich korrigieren
Weißabgleich Sony a7s Problem
Gh5, HC-X1 Weißabgleich, unterschiedliche Kameraprozesse?
Weißabgleich Ach, Bch bei Panasonic HC-X1
GH4: Beige Streifen im Bild durch Weißabgleich
Leuchtendes Rot durch falschen Weißabgleich. Wie korrigieren?
Sony NEX-VG30/Problem mit Fokusnachführung und Weißabgleich
Panasonic hpx 250: Manueller Weißabgleich und Clipgröße einstellen - wie?
Wie mache ich richtig den Weißabgleich bei HXR-NX100?
GH5 - Hinweis zum AF
Frage zum Filmgrain
Alternative zum MoviePlayer ?
Fragen zum Graufilter
Prog zum TV-Gucken
Laden zum Digitalisieren
Frage zum Urheberrecht
VHS Video zum PC

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
19. Oktober / Nürnberg
Die Lange Nacht der Wissenschaften
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
alle Termine und Einreichfristen