Logo Logo
/// 

Videotutorial: Hyperfokale Schärfe verstehen und bewußt einsetzen



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Hyperfokale Schärfe war schon häufiger Thema auf slashCAM. In diesem Videotutorial führt John H. in die theoretischen Grundlagen der hyperfokalen Schärfe ein und erläuter...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Videotutorial: Hyperfokale Schärfe verstehen und bewußt einsetzen




Antwort von Frank B.:

Sry, dass ich mal wieder klugscheißen muss. Aber, wenn wir an den selben Film denken, dann müsste er "The Revenant" heißen, denn es handelt sich um einen Rückkehrer und nicht um einen Pastor.



Antwort von rob:

Hallo Frank B.

Danke für den Hinweis - unsere Autokorrektur kennt leider nur den Pastor :-(

Spielt gerade neu aus ...

Viele Grüße

Rob








Antwort von TK1971:

Lustig ... eine Physikvorlesung auf Slashcam ;-)
Allerdings wirklich sehr interessant!

Aber hmm ... James Bronson? ;-)



Antwort von domain:

Schon interessant, dass ein so altes Thema, nämlich der hyperfokalen Reichweite von Kleinbildobjektiven und damals recht simpel direkt am Objektiv abzulesen, derzeit wieder ein Thema werden konnte ;-)
Alles Modeerscheinungen, das Pendel schwingt hin und her.
Mal möglichst geringe Schärfentiefe gefragt, dann wieder das Gegenteil.


zum Bild




Antwort von WoWu:

Ein kleiner Denkfehler ist in dem Film sowieso noch drin denn er geht davon aus, dass bei der Vergrößerung der Sensorfläche sich auch der Zerstreuungskreis der Pixels vergrößert, was natürlich nicht zwangsläufig der Fall ist sondern nur der Fall wäre, wenn die Bildauflösung bei vergrößertem Sensor identisch bliebe.
Aber das ist nicht wirklich Praxis sondern meistens sogar umgekehrt.
Daher stimmt sein Resultat nicht und die HFD wird nicht größer, sondern kleiner, weil die Zerstreuungskreisgrössen aussschliesslich am Pixeldurchmesser, unabhängig von der Sensorgrösse hängen.



Antwort von rush:

domain hat geschrieben:
Schon interessant, dass ein so altes Thema, nämlich der hyperfokalen Reichweite von Kleinbildobjektiven und damals recht simpel direkt am Objektiv abzulesen, derzeit wieder ein Thema werden konnte ;-)
Alles Modeerscheinungen, das Pendel schwingt hin und her.
Mal möglichst geringe Schärfentiefe gefragt, dann wieder das Gegenteil.
Wobei das ja jetzt nicht primär was mit geringer oder hoher Schärfentiefe zu tun hat... man kann dieser Technik ja sowohl bei offenblendiger als auch abgeblendeter Arbeit nutzen... natürlich wird der Bereich durch's Abblenden größer, aber das ist ja nicht immer Sinn der Übung. Sieht man ja auch gut im Slashcam Video mit der Bogenschützin.

Ich finde die Angabe bei WW-Objektiven auf der Steadi oder dem Gimbal halt einfach unheimlich praktisch... Mithilfe der "HD" kann man schnell vorab die ungefähr zu erwatende Schärfentiefe einstellen/ablesen bei der man arbeiten möchte, etwa beim verfolgen einer Person... mein 15er Heliar etwa kommt ja auch ganz ohne AF daher - da geht's kaum anders wenn es schnell gehen muss.

Mittlerweile werden die AF-Sensoren moderner Kameras ja immer besser, aber das war ja bekanntlich nicht immer so im Videobetrieb bei größeren Sensoren.



Antwort von WoWu:

Aber solche mechanischen Anzeigen funktionieren im digitalen Bereich eben nicht mehr, weil sich die Zerstreuungskreise mit den Pixelgrössen eben ändern und das Objektiv leider nicht weiß, welche Auflösung, also welche maximale Zerstreuungskreissgrösse der Sensor hat.



Antwort von rush:

WoWu hat geschrieben:
Aber solche mechanischen Anzeigen funktionieren im digitalen Bereich eben nicht mehr, weil sich die Zerstreuungskreise mit den Pixelgrössen eben ändern und das Objektiv leider nicht weiß, welche Auflösung, also welche maximale Zerstreuungskreissgrösse der Sensor hat.
Das musst du mir vielleicht nochmal en detail erläutern - da ergeben sich für mich noch Unklarheiten/Fragen.

Das sich an unterschiedlichen Sensoren mit identischer Optik der Zerstreuungskreis verändert ist mir bewusst - aber wenn ich einen Kleinbild-Sensor mit sagen wir mal 8MP, 16MP, 24MP oder 36MP verwende - wo ist der Unterschied? Mag ja sein das sich aufgrund der Pixelgrößen leichte Nuancen ergeben - aber in der Summe müsste die Anzeige doch im großen und ganzen bei allen hinhauen? Oder wie wirkt sich das entsprechend aus? Wir der Bereich der HD bei einem Sensor mit vielen MP dann geringer ausfallen als an einem Sensor mit 8MP - oder wie ist das bildlich zu vermitteln?



Antwort von iasi:

WoWu hat geschrieben:
Ein kleiner Denkfehler ist in dem Film sowieso noch drin denn er geht davon aus, dass bei der Vergrößerung der Sensorfläche sich auch der Zerstreuungskreis der Pixels vergrößert, was natürlich nicht zwangsläufig der Fall ist sondern nur der Fall wäre, wenn die Bildauflösung bei vergrößertem Sensor identisch bliebe.
Aber das ist nicht wirklich Praxis sondern meistens sogar umgekehrt.
Daher stimmt sein Resultat nicht und die HFD wird nicht größer, sondern kleiner, weil die Zerstreuungskreisgrössen aussschliesslich am Pixeldurchmesser, unabhängig von der Sensorgrösse hängen.
Der Zerstreuungskreis ist doch nicht abhängig von der Auflösung des Sensors.
Er hängt auch nicht am Pixeldurchmesser.
Er ist abhängig vom Auflösungsvermögen des Auges. Und hier spielt dann der Betrachtsungsabstand eher eine Rolle - und eben die Sensor- oder Filmfläche, denn daran bemisst sich dann, wie stark dieser Zerstreuungskreis vergrößert wird.
Daher darf bei kleinem Sensor der Kreis nicht so groß sein, wie bei einem großen Sensor.

Selbst bei Mittelformat und "nur" 4k würdest du ja sonst nur auf 0,013 mm kommen.
Schon bei 4/3 geht man aber von 0,015 mm aus.

Ich sehe mir übrigens bei Objektiven nicht nur die Leistung bei Offenblende und bei optimaler BlendeBlende im Glossar erklärt an. Es war z.B. interessant, dass das TS24mm von Samyang bei f11 besser abschnitt, als z.B. das Canon.
Gerade bei langen Brennweiten ist der Effekt der komprimierten Distanzen nur mit starkem Abblenden zu erreichen.
Das Sigma A 135 mm ist bei f16 gerade noch nutzbar, während beim Samyang oder Canon 135mm eben schon bei f11 das Ende erreicht ist.



Antwort von WoWu:

Die Schärfe der Hfd wird dadurch bestimmt, dass das Bild nur dann scharf ist, wenn sich die Distanz vom schärfsten Punkt, bis zum Rand des Unschärfekreises ergibt (siehe Video) -was aber auch schon nicht so ganz stimmt, weil es nur bis rd. 70% zutrifft.
Aber nehmen wir es mal so, wie es im Video erklärt wird.
Der Unschärfekreis hat jedoch reale Masse.
Pixels aber auch und aus dem Verhältnis dieser beiden Masse zueinander ergibt sich, wann sich sich die Unschärfekreise überschneiden.
Je kleiner die Pixels werden umso kleiner darf der Zerstreuungskreise sein, um sich nicht mit dem nächsten PixelPixel im Glossar erklärt um mehr als 70% zu überschneiden (Rayleigh Kriterium).
Wenn Du also die Sensorfläche erhöhst und damit auch die Pixelgrösse, dann können die Zerstreuungskreise auch größer werden und es trifft zu, was in dem Video gesagt wird.
Erhöhst Du aber die Sensorfläche und ebenso die Pixelmenge, dann werden die Pixels u.U. kleiner, weil größere Menge untergebracht werden.
Dann ist die Videoaussage falsch.



Antwort von Peppermintpost:

was wowu beschreibt sehe ich in der praxis auch jeden tag. kanten die bei vollbild betrachtung scharf aussehen sind es nicht mehr wenn man ran zoomt um sie auszumaskieren oder zu retuschieren. da fällt sofort auf, das es bei höherer pixel auflösung (bei gleicher sensor grösse) in den aller meisten fällen nur zu softeren kanten führt und damit halt dann doch nicht das erreicht ist was man ursprünglich erreichen wollte nämlich mehr auflösung.








Antwort von iasi:

WoWu hat geschrieben:
Die Schärfe der Hfd wird dadurch bestimmt, dass das Bild nur dann scharf ist, wenn sich die Distanz vom schärfsten Punkt, bis zum Rand des Unschärfekreises ergibt (siehe Video) -was aber auch schon nicht so ganz stimmt, weil es nur bis rd. 70% zutrifft.
Aber nehmen wir es mal so, wie es im Video erklärt wird.
Der Unschärfekreis hat jedoch reale Masse.
Pixels aber auch und aus dem Verhältnis dieser beiden Masse zueinander ergibt sich, wann sich sich die Unschärfekreise überschneiden.
Je kleiner die Pixels werden umso kleiner darf der Zerstreuungskreise sein, um sich nicht mit dem nächsten PixelPixel im Glossar erklärt um mehr als 70% zu überschneiden (Rayleigh Kriterium).
Wenn Du also die Sensorfläche erhöhst und damit auch die Pixelgrösse, dann können die Zerstreuungskreise auch größer werden und es trifft zu, was in dem Video gesagt wird.
Erhöhst Du aber die Sensorfläche und ebenso die Pixelmenge, dann werden die Pixels u.U. kleiner, weil größere Menge untergebracht werden.
Dann ist die Videoaussage falsch.
Du hängst immer der Vorstellung nach, dass ein Bilddetail unverfälscht auf einen Bildpunkt übertragen wird. Das geht schlicht nicht.

Wenn ein Bildpunkt beim Mittelformat 0,05 mm groß sein darf, ein 6k Sensor jedoch Pixelgrößen von weniger als 0,01 mm hat, dann spielt die Überschneidung keine Rolle. Zumal die PixelPixel im Glossar erklärt beim Debayern eh verrechnet werden.
Du hast immer eine Pixelmenge, die den Bildpunkt abbildet. Je feiner dieses Raster, desto weniger Verfälschungen erhältst du.



Antwort von iasi:

Peppermintpost hat geschrieben:
was wowu beschreibt sehe ich in der praxis auch jeden tag. kanten die bei vollbild betrachtung scharf aussehen sind es nicht mehr wenn man ran zoomt um sie auszumaskieren oder zu retuschieren. da fällt sofort auf, das es bei höherer pixel auflösung (bei gleicher sensor grösse) in den aller meisten fällen nur zu softeren kanten führt und damit halt dann doch nicht das erreicht ist was man ursprünglich erreichen wollte nämlich mehr auflösung.
Aber natürlich ist das so.
Man akzeptiert eine toleriebare Unschärfe, die aber eben auch vom Betrachtungsabstand abhängt. Wenn du ran zoomst, dann "verringerst" du diese Distanz - bis die Unschärfe eben nicht mehr tolerierbar ist.

Maximale Schärfe erhält man nur in der fokusierten Entfernung. Davor und dahinter ist die Schärfe eingeschränkt. Wenn die Person in 6m Entfernung steht, du aber auf 10m fokusierst, um einen DOF von 5m bis Unendlich zu erreichen, dann wird die Person nur "akzeptabel" scharf abgebildet.



Antwort von WoWu:

Das ist völlig egal, bei welchem FormatFormat im Glossar erklärt das geschieht, weil es immer in einem Verhältnis steht.
Die Aussage in dem hier besprochenen Video trifft nur für einen bestimmten Zustand zu und berücksichtigt nicht die realistischen Bedingungen der Digitalkameras, ist also streng genommen bei den meisten realen Bedingungen falsch.
Und wenn Du die Betrachtung eines einzelnen Pixels moniert, dann muss Du bei dem Video anfangen, da wird nämlich auch nur ein PixelPixel im Glossar erklärt betrachtet.

Außerdem ist Deine Annahme "akzeptabel scharf" auch falsch, weil die HFD nur die Schärfe des Zerstreuungskreises kennt und die ist aufgrund der Überlappung der Pixels auch unterhalb von 70% identisch.
Damit ist innerhalb der HFD alles gleich scharf bzw. unscharf.



Antwort von Peppermintpost:

aber mal so als frage. war das bei film nicht genau so wie heute bei den pixeln? ein 50 ASA film und ein 400 ASA film haben natürlich ebenfalls eine vollkommen unterschiedliche korn struktur. das bedeutet auf einem 50 asa film sehe ich bedeutend schneller das etwas leicht out of focus ist als ich es bei einem 400 asa film mit seinem tennisball grossem korn sehe.

es wird immer gesagt sensoren verhalten sich da grundsätzlich anders. ist das wirklich so? mir scheint das nicht anders als bei film.



Antwort von WoWu:

Nein, beim Film ist das Korn der Informationsträger.
Ein Objektiv, das hoch genug auflöst, füllt also jedes Korn mit einer optischen Information. Je mehr "Kristalle" vorhanden sind, umso mehr individuelle Informationen hast Du.
Beim Video interessiert aber nur die Information, die genau im Raster über einem PixelPixel im Glossar erklärt aufläuft. Die Auflösung ist also fixiert.

Wobei sich das ganze in den meisten Fällen sowieso an der Objektivauflösung erledigt.
Hier ging es auch nur um das Video.
Es ist ja löblich, dass die Redaktion solche Schulungen verlinkt, besser wäre es noch, würde Sie da eine bessere Auswahl treffen.



Antwort von Peppermintpost:

sorry wowu, verstehe ich nicht. ich muss nochmal nachfragen.

sprichst du gerade vom sich bewegenden ( oder besser ungleichmässigem) korn (kristal) was dazu führt das bewegtbild film eine höhere auflösung hat als ein einzelnes stand bild, was bei sensoren natürlich nicht der fall ist weil diese fix sind?

das einzelne Korn (oder kristall) das die information aufnimmt ist doch bei 400 asa auch deutlich grösser als bei 50 asa. also wenn wir 2 aps-c sensoren haben, einmal mit 1080 und einmal mit UHD, da hab ich doch dann genau den effekt das der einzelne pixel bei 1080 halt grösser ist. lass uns da jetzt mal über ein standbild reden und nicht über kornstrukturen die von bild zu bild unterschiedlich sind.



Antwort von WoWu:

Bei 50 ASA hast Du zwar die kleineren Kristalle, aber auf der Fläche sehrviel mehr, weil Du dazwischen so gut wie kein Pitch hast und ein Bildpunkt dann von mehreren Kristallen aufgenommen wird, entlang der Auflösung des Objektivs.
Das wäre grad so, als würdest Du beim Sensor mit kleinen Pixels, den Sensor ( quasi ohne Pitch) binnen.
Wo sich dann die Auflösung effektiv befindet, hängt, wie schon erwähnt, vom Objektiv ab.
Bei Bewegtbild kommen dann noch die Belichtungseffekte hinzu, aber das spielt bei der HFD keine Rolle.
Dafür kommen beim Sensor noch Aliasingefekte hinzu, die auch im Standbild wirken, aberbei der HFD auch nicht betrachtet werden.
Aber was ist eigentlich Deine Frage ... unterscheiden sich HFD im Film von der HFD beim Video ?

3:55 bis 4:50 beschreibt die Wirkung des Zerstreuungskreises im Hinblick auf HFD.
Es ist leicht nachzuvollziehen, dass die Verkleinerung des Pixels zur Verkleinerung des Zerstreuungskreises führt und damit zur Veränderung Der HFD.



Antwort von Peppermintpost:

ah vielen dank wowu. ich glaube jetzt verstehe ich es besser.
die frage war wenn die schärfe unter anderem von der pixelgrösse abhängig ist, dann müsste das doch für film genau so gelten, d.h. das im umkehrschluss die schärfentiefe skala auf der linse entweder damals richtig war und heute noch ist, oder heute falsch ist, dann war sie aber damals auch schon falsch beil sich der sensor mit kleineren oder grösseren pixeln genau so verhält wie film material mit feineren oder gröberen kristallen.

aber dein einwand mit dem pixel pitch und dem anti aliasing ist natürlich nachvollziehbar. danke.



Antwort von WoWu:

Bei Film hat sie gestimmt, weil das Objektiv der limitierende Faktor war und Du bei kleiner werdenden Kristallen mehrere für einen Zerstreuungskreise benutzt hast, was im Video nicht mehr zutrifft, weil Du bei einem korrekt auflösenden Objektiv nur ein PixelPixel im Glossar erklärt bekommst es sei denn, Du binnst den Sensor.
Vermutlich ist das auch der Grund, warum solche Angaben heute erst gar nicht mehr gemacht werden.
Sie wären nämlich in den meisten Fällen falsch und träfen nur bei einer ganz bestimmten Konstellation zu.
Binnt man aber vom kleineren Sensor wieder 4 zu einem PixelPixel im Glossar erklärt, dann stimmt HFD wieder mit dem größeren Sensor überein.
Das bedeutet aber eben, dass nicht die Sensorgrösse sondern die Pixelgrösse das Mass bestimmen.








Antwort von Peppermintpost:

spielt es denn technisch eine rolle ob ich das binning in der kamera bei der aufzeichnung vornehme oder später in der post?
ist jetzt etwas OT aber zum verständniss.



Antwort von WoWu:

In der Post hast Du nicht mehr den Vorteil einen größeren Zerstreuungskreise zu berücksichtigen.
Das ist eine optische Sache.
Dazu kommen natürlich noch die ganzen Störabstandgeschichten, die Du in der Post auch nicht mehr in der Hand hast.
Nee nee, das hat schon seinen Grund, warum die großen Kamerahersteller auf Mittelformat mit rd. 7y Pixels gehen.
Die Pixelgrösse ist eine Schlüsselgrösse, in vielerlei Hinsicht.
Die Unterabtastungen in der Post hat geringfügig Vorteile im Hinblick auf Kontrast. Aber eben diverse andere Nachteile.



Antwort von Peppermintpost:

ok thx.



Antwort von domain:

Meiner Meinung nach ist der maximal zulässige Zerstreungskreisdurchmesser eine variable Größe, die auch vom Auflösungsvermögen des Auges und dem jeweiligen Betrachtungsabstand des Bildes abhängen.
Die bei älteren Objektiven eingravierten Hilfslinien, die je nach BlendeBlende im Glossar erklärt den noch als scharf empfundenen Bereich eingrenzen, sind wahrscheinlich für 100 ASA-Filme und einem Sehwinkel von ca. 50 Grad entwickelt worden, denn da liegen die Unschärfescheibchen im zulässigen Bereich von unter 2 Winkelminuten, die das Auge gerade noch auflösen kann.
Der Sehwinkel kann aber auch verkleinert werden z.B. bei genauerer Betrachtung eines Bildausschnittes bei 50 ASA-Filmen oder gar bei extrem hoch auflösenden SW-Dokumentenfilmen. In dem Fall müssten selbst beim Micro Nikkor 2,8 55mm die Hilslinien wohl etwas enger zusammenliegen.
Wenn man davon ausgeht, dass die theoretische Auflösung von Sensoren heute mindestens bei der von alten Analogfilmen liegt, dann kann ich bei Sensoren vergleichsweise eigentlich keine Besonderheiten erkennen, außer dass sie im Raster abbilden. Das Scheibchen wird über einige PixelPixel im Glossar erklärt halt mit Ecken als Polygon abgebildet, aber das wars auch schon.
Nicht umsonst spricht man ja nicht von Punkten sondern vom Circle of Confusion.



Antwort von Axel:

Zuletzt war die Körnung in Filmemulsionen durch moderne Verfahren so gleichmäßig in Größe und Verteilung, dass der Zerstreuungskreis genauer anwendbar gewesen wäre. Insgesamt wurde bei gleicher durchschnittlicher Kristalldichte die Auflösung damit erhöht. Eine starre Wabenstruktur (falls man so etwas hätte züchten können), die mit dem Pixelraster vergleichbar gewesen wäre, war aber unerwünscht.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Hyperfokale Distanz
Die Schärfe der Cine-Kameras von ARRI, Panasonic und RED
Unreal als Compositing einsetzen
Videotutorial: Einstieg in DaVinci Resolve 14 (47 min und sehr informativ)
Videotutorial: Anamorphotischer Look mit Klebeband, Schere und Plugin simulieren
Videotutorial Clip: Star Wars Cinematography: Lichtschwerter, Kampfszenen und CGI
Videotutorial: Who is Who im Abspann: Film Credits und welcher Job dahinter steckt
Videotutorial - Licht setzen: Wie hartes und weiches Führungslicht das Gesicht verändert
Videotutorial: Smirnoff Werbung - Lichter für Portrait, Props und Hintergrund beim One-Shot
4K Kontrollmonitor für Schärfe
Glidecam schärfe ziehen
Resolve - Wie Schärfe exakter kontrollieren?
BRAW Aufnahmen aus Pocket 4K - Schärfe, Farben
Sony a6300 schärfe raus nehmen bei pp profil
Panasonic DMC-FZ 1000 Schärfe über den gesamten Zoombereich?
Videotutorial: Objektivwahl - Zoom vs Festbrennweite, Tele vs Weitwinkel
Videotutorial: ARRI ALEXA LF - Workflow, LF Sensor, Kamerafunktionen uvm.
Videotutorial: David Fincher - Perfektion bis ins Detail: Mindhunter u.a.
Videotutorial: Versions in Resolve - komplexe Grades schnell miteinander vergleichen
Videotutorial: Tips für"s Location Scouting - Drehorte bestmöglich auswählen
Videotutorial: Effekt-Nodes in DaVinci Resolve 15 Fusion schnell einfügen
Videotutorial: ARRI Skypanel 360 - große Lichtfläche für optimalen Wrap
Videotutorial: ARRI Skypanel 3.0: Wichtigste Neuerungen für die tägliche Praxis
Videotutorial: DaVinci Resolve - Look-Intensität schnell ändern via Key Output Gain
Videotutorial: Wie David Fincher deine Augen übernimmt oder: Minimalkamerabewegung
Videotutorial: Kamera-Setup für High-End Interviews: 1, 2, 3 Kameras + Slider?

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom