Logo Logo
/// 

Pegelverhältnisse und Endpegel für Video?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Frage von DEWEO:


Hallo zusammen,


es geht um die richtigen Pegelverhältnisse mehrerer Tonobjekte in Videos zueinander.
Im Internet bin ich über verschiedene Normen, Angaben und Empfehlungen gestolpert und nun etwas verwirrt.

Es geht um Musik von CD und Sprachaufnahmen.

Welchen Pegel in dB oder dbFS muss die Musik haben und welchen Pegel in dB oder dbFS muss die Sprache haben?

Am Ende muss das ganze dann auf -23 LUFS ausgepegelt werden oder waren es -9dbFS ?

Wie mache ich es richtig?

Gruß Deweo



Antwort von pillepalle:

Für die Pegelverhältnisse innerhalb eines Videos von verschiedenen Tonobjekten gibt es kein richtig oder falsch, denn es hängt ja stark vom Inhalt und der gewünschten Wirkung ab. In der Regel freut sich der Zuschauer, wenn die Sprachaufnahmen auch verständlich sind, also z.B. nicht zu leise z.B. da wo Musik und Sprache gleichzeitig laufen. Aber das ist eigentlich Geschmackssache.

Ja, am Ende Pegelt man das ganze auf -23 LUFS, wenn man der Broadcast-Norm der EBU (R128) entsprechen möchte. Für Internetvideos gilt das aber eigentlich nicht. Da haben die Portale allerdings meist Algorithmen, die zu laute Videos herunterpegeln, meist auf -14 LUFS, soweit ich weiß.

VG



Antwort von Bluboy:

DEWEO hat geschrieben:

Am Ende muss das ganze dann auf -23 LUFS ausgepegelt werden oder waren es -9dbFS ?
-23 LUFS gilt für Wav oder MPA








Antwort von Frank Glencairn:

DEWEO hat geschrieben:

es geht um die richtigen Pegelverhältnisse mehrerer Tonobjekte in Videos zueinander.
Im Internet bin ich über verschiedene Normen, Angaben und Empfehlungen gestolpert und nun etwas verwirrt.
Die Frage ist, was du damit am Ende vor hast. Das Ziel entscheidet über die Pegel.



Antwort von vaio:

Ich mische mit Kopfhörer ab und kontrolliere das Ergebnis über die TV-Lautsprecher.



Antwort von DEWEO:

"Frank Glencairn" hat geschrieben:
DEWEO hat geschrieben:

es geht um die richtigen Pegelverhältnisse mehrerer Tonobjekte in Videos zueinander.
Im Internet bin ich über verschiedene Normen, Angaben und Empfehlungen gestolpert und nun etwas verwirrt.
Die Frage ist, was du damit am Ende vor hast. Das Ziel entscheidet über die Pegel.
Hallo,
nun ja, es soll alles gut verständlich sein und der Zuschauer sollte nicht dauernd am Lautstärkeregler drehen müssen.

Gruß
Deweo



Antwort von Frank Glencairn:

DEWEO hat geschrieben:

nun ja, es soll alles gut verständlich sein und der Zuschauer sollte nicht dauernd am Lautstärkeregler drehen müssen.
Das hat halt alles nur überhaupt nix mit den EBU (und anderen) Normen zu tun, nach denen du gefragt hast.

Deshalb nochmal die Frage: Was hast du damit vor?

Wenn es nur für den Heimgebrauch gut verständlich sein, und keiner am Regler drehen soll, dann brauchst du dich um LUFS nicht scheren.
Da langt dann ein Brickwall-Limiter kurz unter Null DB.

Wenn das ganze aber z.B. auf YT soll, dann wären theoretisch -14 LUFS im Endpegel angesagt.
In deinem Fall wär das aber auch egal, und du kannst das auch YT überlassen.

Was den Mix aus Musik und Sprache betrifft, gibt es keine festen Regeln, dafür sind deine Ohren zuständig.
Wenn man Sprache mit Musik unterlegt, macht man mit nem EQ oder - noch besser - mit nem dynamischen Multiband Kompressor in der Musik entsprechen entsprechend Platz für die Sprache.
Nennt sich dann Dialog Masking.





Antwort von DKPost:

"Frank Glencairn" hat geschrieben:
DEWEO hat geschrieben:

nun ja, es soll alles gut verständlich sein und der Zuschauer sollte nicht dauernd am Lautstärkeregler drehen müssen.
Das hat halt alles nur überhaupt nix mit den EBU (und anderen) Normen zu tun, nach denen du gefragt hast.

Deshalb nochmal die Frage: Was hast du damit vor?

Wenn es nur für den Heimgebrauch gut verständlich sein, und keiner am Regler drehen soll, dann brauchst du dich um LUFS nicht scheren.
Da langt dann ein Brickwall-Limiter kurz unter Null DB.

Wenn das ganze aber z.B. auf YT soll, dann wären theoretisch -14 LUFS im Endpegel angesagt.
In deinem Fall wär das aber auch egal, und du kannst das auch YT überlassen.

Was den Mix aus Musik und Sprache betrifft, gibt es keine festen Regeln, dafür sind deine Ohren zuständig.
Wenn man Sprache mit Musik unterlegt, macht man mit nem EQ oder - noch besser - mit nem dynamischen Multiband Kompressor in der Musik entsprechen entsprechend Platz für die Sprache.
Nennt sich dann Dialog Masking.

Als Ergänzung: Der Peak ist für Youtube oder Online generell trotzdem -1dB bei -14 LUFS.
Die LUFS beschreiben nicht die maximale Lautstärke sondern die durchschnittliche Lautheit.



Antwort von Blackbox:

"Frank Glencairn" hat geschrieben:
In deinem Fall wär das aber auch egal, und du kannst das auch YT überlassen.
Bist Du da sicher, oder ist das Mutmaßung?
Ich habe den Eindruck, dass YT zwar höhere Pegel absenkt, aber niedrige Pegel nicht auf -14 anhebt.



Antwort von Frank Glencairn:

Blackbox hat geschrieben:


Ich habe den Eindruck, dass YT zwar höhere Pegel absenkt, aber niedrige Pegel nicht auf -14 anhebt.
Da hast du auch völlig recht - ich hab mich dabei allerdings auf meine vorherige Einlassung mit dem Limiter kurz unter Null bezogen.
Sprich ich bin dabei von einem Signal weit über -14 ausgegangen.



Antwort von Blackbox:

An den Threadersteller:
Du solltest auch bedenken für welche Zielgruppe und für welche Plattformen du das machst.
Youtube für <30 oder broadcast für >50 macht nen großen Unterschied.
Im Zweifelsfall:
Sprachverständlichkeit geht vor
Ansonsten noch:
Sprachverständlichkeit geht vor

Sobald die Sprachverständlichkeit nicht ausreichend gut ist (i.d.R. sollte nicht nur Satzverständlichkeit gegeben sein, sondern auch durchgängige Wort- und Silbenverständlichkeit) wirds sehr anstrengend fürs Gehirn und es wird weggezappt/ausgeschaltet/negativ bewertet.
Was auch ne Rolle spielt:
die eigene Hörfähigkeit, die ja mit dem Alter abnimmt.
Ein größer werdender Teil der Bevölkerung (siehe 'Zielgruppe') hört bereits im kritischen Bereich der Konsonanten (4-8khz) zu schlecht um mit nem Mix klarzukommen, der vom jugendlichen Ohr 'auf Kante' abgemischt wurde.
Dazu kommt die Tatsache, dass auch bereits jüngere Menschen zunehmend Hörprobleme haben, was ebenfalls dafür spricht der Sprachverständlichkeit Priorität einzuräumen.
Wie schon geschrieben wurde spielt der Pegel der Mischung keine Rolle, sondern das Verhältnis von Sprache und Musik/Atmo.
Der Tipp mit dynamic-EQ wurde dir ja bereits gegeben, wodurch etwas (!) höhere Lautstärken bei Musik/Atmo möglich werden.
Auch da gilt aber: HINHÖREN ob der Sound von Musik/Atmo konstant genug bleibt, so dass keine Hörirritationen entstehen.
Schlechtest mögliche Methode, die aber leider immer noch gelegentlich anzutreffen ist:
Musik bei allen Sprachanteilen schnell und gründlich runterfaden und nach Satzende wieder schnell und gründlich hochfaden.
Mach das NIE !!! *

Auch gut:
Beim letzten Kontrollhören andere Menschen mithören lassen und im Raum irgendeinen breitbandigen Störsound laufen lassen (lauten PC, Ventilator, etc.). Auch dann muss zumindest Wortverständlichkeit gegeben sein.

* Ausnahme: bewußte ästhetische Entscheidung für diesen 'Effekt'



Antwort von MK:

Blackbox hat geschrieben:
Beim letzten Kontrollhören andere Menschen mithören lassen und im Raum irgendeinen breitbandigen Störsound laufen lassen (lauten PC, Ventilator, etc.). Auch dann muss zumindest Wortverständlichkeit gegeben sein.
Oder einen 2000 Watt Staubsauger








Antwort von Bluboy:

Google: Dialoge zu leise, Action zu laut

wärs so Einfach wär das Netz nicht voll davon



Antwort von DKPost:

Blackbox hat geschrieben:
An den Threadersteller:
Du solltest auch bedenken für welche Zielgruppe und für welche Plattformen du das machst.
Youtube für <30 oder broadcast für >50 macht nen großen Unterschied.
Im Zweifelsfall:
Sprachverständlichkeit geht vor
Ansonsten noch:
Sprachverständlichkeit geht vor

Sobald die Sprachverständlichkeit nicht ausreichend gut ist (i.d.R. sollte nicht nur Satzverständlichkeit gegeben sein, sondern auch durchgängige Wort- und Silbenverständlichkeit) wirds sehr anstrengend fürs Gehirn und es wird weggezappt/ausgeschaltet/negativ bewertet.
Was auch ne Rolle spielt:
die eigene Hörfähigkeit, die ja mit dem Alter abnimmt.
Ein größer werdender Teil der Bevölkerung (siehe 'Zielgruppe') hört bereits im kritischen Bereich der Konsonanten (4-8khz) zu schlecht um mit nem Mix klarzukommen, der vom jugendlichen Ohr 'auf Kante' abgemischt wurde.
Dazu kommt die Tatsache, dass auch bereits jüngere Menschen zunehmend Hörprobleme haben, was ebenfalls dafür spricht der Sprachverständlichkeit Priorität einzuräumen.
Wie schon geschrieben wurde spielt der Pegel der Mischung keine Rolle, sondern das Verhältnis von Sprache und Musik/Atmo.
Der Tipp mit dynamic-EQ wurde dir ja bereits gegeben, wodurch etwas (!) höhere Lautstärken bei Musik/Atmo möglich werden.
Auch da gilt aber: HINHÖREN ob der Sound von Musik/Atmo konstant genug bleibt, so dass keine Hörirritationen entstehen.
Schlechtest mögliche Methode, die aber leider immer noch gelegentlich anzutreffen ist:
Musik bei allen Sprachanteilen schnell und gründlich runterfaden und nach Satzende wieder schnell und gründlich hochfaden.
Mach das NIE !!! *

Auch gut:
Beim letzten Kontrollhören andere Menschen mithören lassen und im Raum irgendeinen breitbandigen Störsound laufen lassen (lauten PC, Ventilator, etc.). Auch dann muss zumindest Wortverständlichkeit gegeben sein.

* Ausnahme: bewußte ästhetische Entscheidung für diesen 'Effekt'
Warum sollte man Musik nicht runterziehen wenn Sprache kommt?



Antwort von DEWEO:

Hallo zusammen,

ich danke Euch erst mal für die wertvollen Hilfestellungen, Ratschläge und Tipps.

Das hilft mir schon sehr weiter.

Gruß
Deweo



Antwort von Pianist:

DKPost hat geschrieben:
Warum sollte man Musik nicht runterziehen wenn Sprache kommt?
Er schrieb nicht, dass man das nicht soll, aber eben nicht mit zu kurzen Rampen.

Matthias



Antwort von TomStg:

Blackbox hat geschrieben:
Auch gut:
Beim letzten Kontrollhören andere Menschen mithören lassen und im Raum irgendeinen breitbandigen Störsound laufen lassen (lauten PC, Ventilator, etc.). Auch dann muss zumindest Wortverständlichkeit gegeben sein.
Und um den Workflow beim Mixen nicht unnötig zu verkomplizieren, sollte man auf Kopfhörer verzichten. Denn damit funktioniert ein hörgerechter Pegel-Mix grundsätzlich nicht.



Antwort von Pianist:

So ist es. Daher meine ich eben, dass es wichtig ist, dass nicht nur der Sprecherraum, sondern auch das Schnittstudio akustisch ausgebaut ist, damit Probleme nicht durch Raumhall überdeckt werden. Dennoch sollte man aber auch noch mal mit verschiedenen Kopfhörern kontrollieren, weil die Leute heute unterwegs viel mit Ohrstöpseln hören.

Matthias



Antwort von Blackbox:

TomStg hat geschrieben:
Und um den Workflow beim Mixen nicht unnötig zu verkomplizieren, sollte man auf Kopfhörer verzichten. Denn damit funktioniert ein hörgerechter Pegel-Mix grundsätzlich nicht.
Hat sich m.E. mittlerweile in einigen Bereichen stark geändert.
Je nach Produkt/Zielgruppe wird mehr auf Kopfhöreren konsumiert als auf Lautsprechern, so dass es immer wichtiger wird für LS und Kopfhörer zu produzieren.
Wird sich u.U. noch weiter verstärken wenn/falls sich 'immersive audio' in einigen Jahren breiter durchsetzt und sich die usability von binauralem Hören (massentaugliche gratis HRTF Profil Erstellung) nach und nach verbessert.
Zwar tobt mal wieder ein Industriestreit mit untereinander nicht kompatiblen Formaten, aber durch Spieleindustrie und den Einstieg von Apple ins binaurale 2-kanal Geschäft mit Soft- (Logic) und Hardware (KH mit Head-tracking) )wird das wohl aus der traditionell eher kleinen Surround-Nische herauskommen können.
Apple-Marketing:
"Personalisiertes 3D Audio mit dynami­schem Head Tracking bietet dir bei Filmen und Serien einen Surround-Sound wie im Kino.1 Mit integrierten Gyro? und Beschleunigungs­sensoren verfolgen die AirPods Max und dein iPhone, iPad, Mac oder Apple TV die Bewegungen deines Kopfes und passen den Sound auf deinem Gerät an.
Und bei Apple Music sorgt personalisiertes 3D Audio mit dynamischem Head Tracking für ein drei­dimensio­nales Hörerlebnis.
"
Tracking und Foto basiertes HRTF gibts ja jetzt auch schon bei den günstigeren Airpods. Auch außerhalb der Apple-Bubble nimmt das langsam Formen an. Siehe etwa Nuendo ab Version 11/12.

Zudem haben KH bei Restauration und der Überprüfung von Störfreiheit nach wie vor die Nase vorn.
Stimme aber insoweit zu, als Mischen/Mastern speziell was die Sprachverständlichkeit angeht ohne LS ein 'no go' ist, während das ohne KH mit guter Abhöre durchaus möglich ist ohne dass es dabei im KH schlecht klingt.



Antwort von TomStg:

Zum Mischen/Mastern mit LS oder mit KH ist sicher entscheidend, um welchen Content für welche Zielgruppe es sich handelt. In Summe sehe ich aber KH zum Mischen aktuell noch als Ausnahme an - insbesondere für reine Musikproduktionen, aber auch für Film-Ton mit Sprache. Denn das Hören der fertigen Mischung per KH passiert deutlich seltener im Vergleich zum Hören per LS.



Antwort von Frank Glencairn:

Blackbox hat geschrieben:

"Personalisiertes 3D Audio mit dynami­schem Head Tracking bietet dir bei Filmen und Serien einen Surround-Sound wie im Kino.1 Mit integrierten Gyro? und Beschleunigungs­sensoren verfolgen die AirPods Max und dein iPhone, iPad, Mac oder Apple TV die Bewegungen deines Kopfes und passen den Sound auf deinem Gerät an.
Darf ich mal fragen, wer beim sehen eines Filmes ständig den Kopf vom Bildschirm weg dreht?








Antwort von MK:

ADHS Kiddies



Antwort von pillepalle:

"Frank Glencairn" hat geschrieben:
Darf ich mal fragen, wer beim sehen eines Filmes ständig den Kopf vom Bildschirm weg dreht?
Wenn der Millenium Falke auf die Kamera zufliegt drehe ich mich immer um, um zu schauen wo er denn nun geblieben ist. 😅

VG



Antwort von vaio:

Sowohl für das optimale Pegelverhältnis, als auch um eventuelle Störgeräusche heraus zu hören, sind Kopfhörer für mich unerläßlich (geworden). Dabei meine ich "geschlossene" und durchaus hochwertige Hörer. Wenn man immer die selben Voraussetzungen beim abmischen hat, macht der Rest die Erfahrung. Eine abschließende Probe über die TV-Lautsprecher gehört selbstredend dazu.

Die Beiträge mit den verschiedenen Zielgruppen find ich eher lächerlich. Die allerwenigsten User in diesem Forum werden für unterschiedliche Zielgruppen, bzw. Endgeräte "produzieren". Erstens fehlt diesen Leutchen schlicht die Arbeitszeit, da sie von morgens bis abends zu jedem Thema ihren Senf schreiben. Zweitens offenbaren sie sich für mich als Theoretiker. Einen guten Mix hört man auf alle Geräte vernünftig. Leider gibt es mittlerweile in diesem Forum diese Theoretiker in weit höherer Teilnehmerzahl, als es vor Jahren noch der Fall war. Das schreibe ich als Hobby-User…

Habt einen schönen Abend.



Antwort von TomStg:

vaio hat geschrieben:
Sowohl für das optimale Pegelverhältnis, als auch um eventuelle Störgeräusche heraus zu hören, sind Kopfhörer für mich unerläßlich (geworden). Dabei meine ich "geschlossene" und durchaus hochwertige Hörer. Wenn man immer die selben Voraussetzungen beim abmischen hat, macht der Rest die Erfahrung. Eine abschließende Probe über die TV-Lautsprecher gehört selbstredend dazu.

Die Beiträge mit den verschiedenen Zielgruppen find ich eher lächerlich. Die allerwenigsten User in diesem Forum werden für unterschiedliche Zielgruppen, bzw. Endgeräte "produzieren". Erstens fehlt diesen Leutchen schlicht die Arbeitszeit, da sie von morgens bis abends zu jedem Thema ihren Senf schreiben. Zweitens offenbaren sie sich für mich als Theoretiker. Einen guten Mix hört man auf alle Geräte vernünftig. Leider gibt es mittlerweile in diesem Forum diese Theoretiker in weit höherer Teilnehmerzahl, als es vor Jahren noch der Fall war. Das schreibe ich als Hobby-User…
Das Thema bezieht sich hier ausschließlich auf das Mischen. Du siehst Deine unprofessionelle Arbeitsweise mittels KH beim Mischen leider als Maßstab für alle an. Damit liegst Du sehr weit neben den Anforderung der realen praktischen Welt.



Antwort von Blackbox:

"Frank Glencairn" hat geschrieben:
Darf ich mal fragen, wer beim sehen eines Filmes ständig den Kopf vom Bildschirm weg dreht?
Klar darfst Du fragen, kriegst sogar ne Antwort ;-)
Es geht dabei im Kern nicht um irgendwelche großen Kopfbewegungen komplett weg vom Bild, sondern vor allem um die kleineren Bewegungen so im Bereich von vielleicht 5-30°, die vom homo sapiens (und auch von etlichen Tieren) unwillkürlich(!) gemacht werden um die Lokalisation von Schallquellen zu verbessern.
( Siehe die damaligen Diskussionen um das 'Seiten-Loch' bei 5.1.
Minimale Kopfbewegungen stabilisieren/verbessern da die (immer noch nur mäßig gute) Lokalisation für Seite-Hinten.
Bei 7.1. ist das besser. )
Da unser Hörapparat (also Ohr plus Hirn) diese minimalen Kopfbewegungen sehr regelmäßig nutzt, agieren wir natürlich auch mit Kopfhörern über den Ohren so, wobei das Hirn dann (zu Recht) eine Präzisierung der Lokalisation erwartet.
Das passiert dann auch eingermaßen glaubhaft, sofern ein genügend schnell reagierendes Head-tracking zum Einsatz kommt.
Ohne Tracking allerdings ergibt sich ein Widerspruch zwischen vermuteter ungefährer Richtung beim Hören ohne Kopfbewegung und der dann - bei Kopfbewegung - ausbleibenden Verifikation bzw. Präzisierung. Dabei sind auch vorne-Hinten Konfusionen möglich.
Resultat dann: Immersion funktioniert nicht, da ja alle Quellen - statt ortskonstant zu bleiben - synchron zur Kopfbewegung mitwandern und damit die erste Lokalisationsvermutung negieren.

Übers Tracking hinaus ist natürlich zwingend ein fürs Hörsystem verwertbarer immersive-Sound (also zB binaurale Kodierung von Atmos mit personifizierter HRTF) vonnöten.
Stereo plus Headtracking gibt ja noch kein Surround.

Großer Vorteil von Kopfhörern mit HRTF und Headtracking:
es braucht keine 9.2.4 Lautsprecher am Abhörort, und der 'Konsum' ist jederzeit auch mobil möglich, was vermutlich (Flexibilisierung der Lebensbereiche und so) immer wichtiger werden wird.



Antwort von Frank Glencairn:

Danke für die ausführliche Abhandlung.

Blackbox hat geschrieben:

Großer Vorteil von Kopfhörern mit HRTF und Headtracking:
es braucht keine 9.2.4 Lautsprecher am Abhörort, und der 'Konsum' ist jederzeit auch mobil möglich, was vermutlich (Flexibilisierung der Lebensbereiche und so) immer wichtiger werden wird.
Ich glaub allerdings, daß das hauptsächlich für's Handy gemacht wird - die einzigen die ich bisher mit Kopfhörern vor dem TV gesehen habe waren über 80jährige.

Ich kann mir deshalb nicht vorstellen daß die Leute (außer ein paar Audio/Technik Freaks) in Zukunft mit Kopfhörern TV sehen werden.
Und was mobile Anwendungen betrifft - Spielfilm auf nem Handy macht doch auch nicht wirklich Spaß.
Ich tu mir da echt schwer ne Nische zu sehen, außer im Game Sektor.



Antwort von Pianist:

Ist das eigentlich das Verfahren, was am Tonmeister-Institut der Musikhochschule Detmold entwickelt wurde und vor über zehn Jahren auf der Tonmeistertagung vorgestellt wurde? Das war ursprünglich für Tonbearbeitung gedacht, wo Leute am großen Mischpult sitzen und sich mal etwas nach links und etwas nach rechts drehen, und die Hörrichtung trotzdem gleich bleiben soll.

Matthias



Antwort von dosaris:

Pianist hat geschrieben:
...
Er schrieb nicht, dass man das nicht soll, aber eben nicht mit zu kurzen Rampen.
seit Jahren nehme ich immer
- 0.5 Sec Rampe vorn u hinten
- -18dB ducking für die Off-Kommentarstimme.

Zusätzlich kommt ein Sound-shaping auf die Kommentare:
- leichtes peak-clippen 6dB
- Hochpass 80Hz
- Kompression ca 6dB
- Höhenanhebung ab zw 1 kHz u 3kHz um 3dB
- leichter De-Esser -3dB

Der Audio-Editor macht das alles in einem Rutsch per Script.

Das passt fast immer.



Antwort von Pianist:

Klingt für mich zu sehr nach "rein technischer Abarbeitung". Ich arbeite nie mit festen Werten, sondern regele das jeweils nach Bedarf und nach Gehör. Unterschiedliche Stimmen setzen sich auch unterschiedlich durch, so dass man da jeweils anders verfahren muss.

Wenn Du übrigens immer zwischen 1 und 3 kHz den Kommentar anhebst, dann scheinst Du die Sprachaufnahme nicht mit einem U 87 zu machen, oder? Das würde sich in diesem Bereich nämlich von ganz alleine durchsetzen. Daher hebe ich nie was an, sondern höre immer, wo ich was absenken muss. Bei mir selbst ist das bei 150 Hz, zwischen 300 und 400 Hz und dann noch mal zwischen 1,5 und 1,7 kHz. Jeweils -4 dB und ziemlich schmalbandig.

Wenn ich die Sprachaufnahmen analog mit meinen ADT-Modulen bearbeite, dann klingt das übrigens sehr viel besser als wenn ich das alles digital im DHD-Mischpult oder in der Software mache. Als EQ habe ich für beide Plätze einen TM 105 und als Voice-Prozessor (Kompressor, De-Esser, Limiter) jeweils einen TM 119. Als Vorverstärker natürlich den TM 101 mit Übertrager im Eingang.

Matthias









Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen:
Sony stellt Sony Alpha 7R IV mit 61 MP, Eye-AF für Video und 4K 8 Bit Video vor
Blackmagic Video Assist 3.7 Update bringt Unterstützung für Fujifilm X-H2s und Verbesserungen für Panasonic Kameras
MAGIX Content: Video Deluxe und Video Pro X mit integrierter Musik- und Stockvideo-Bibliothek
Kamera für Foto und Video
Kompaktkamera für Video und Fotos
17" TFT für Video und Grafik?
Beamer für Präsentation und Video
DJI Fly App 1.4.12 Update bringt Live-Streaming und Video-Cache für DJI Mini und Mavic
mkisofs fuer DVD-Video und UTF-8(?)
Komplettes Video und Kamera Equipment für 10.000€
Externer AD/DA-Wandler für Video/TV und Audio an Firewire
Komponist bietet Musik für Video-und Filmprojekte
Player für getrennte Audio- und Video-Dateien
Player für getrennte Audio- und Video-D ateien
Bestes codec und settings für video aus einzelbildern
Blackmagic RAW für Nikon Z6 II und Z7 II ist da (- via BMD Video Assist)
LumaFusion 3.0 ist da: Video-Stabilisierung, EQ und Support für externe Laufwerke
Updates für Blackmagic Video Assist (3.5), sowie DaVinci Resolve und Fusion (17.3.2.)
X-Rite ColorChecker Video XL -- größere Ausführung für Belichtung und Farbmatching verfügbar
DJI (Mavic) Mini 2: OcuSync 2.0 und 4K Video für um die 450 Euro
Apple Event 14. September: iPhone 13 - teurer, aber mit ProRes und Bokeh für Video?
Blackmagic: Updates für DaVinci Resolve, Pocket Cinema Camera 4K/6K und Video Assist 12G
Leica stellt wetterfeste Vollformat Q2 mit Summilux 1:1.7/28 ASPH und 4K Video für 4.790 Euro vor
Blackmagic RAW für Nikon Z6 II und Panasonic S1H mit dem Video Assist 12G HDR
Sony stellt neues Vollformat G Master 50mm F1.4 vor: Leichter, reaktiver und optimiert für Video
Unterschied "Womble MPEG Video Wizard" und bhv "Easy Video"?

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom