Logo Logo
/// 

Blackmagic DaVinci Resolve 16.1 Beta: Viele Neuerungen beim Cut und Fullscreen Preview auf zweitem Monitor



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic DaVinci Resolve / Fusion-Forum

Newsmeldung von slashCAM:



Zeitgleich mit der Veröffentlichung der finalen Version von DaVinci Resolve 16 hat Blackmagic schon eine neue Beta der nächsten Version mit einigen interessanten Feature...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Blackmagic DaVinci Resolve 16.1 Beta: Viele Neuerungen beim Cut und Fullscreen PreviewPreview im Glossar erklärt auf zweitem Monitor




Antwort von Axel:

Wie sieht es eigentlich in den Räumen aus, in denen Resolve kompiliert wird? Wie auf den Lifestyle-Produktfotos, mit zig attraktiven Youngstern auf Designsesseln in schicken Großraumbüros? Oder ein verschwitzter dicker Nerd, neben ihm Grant Petty in dessen schmucklosem Kontor (mittlerweile bekannt), der ihm eine Pistole vorhält? Jedenfalls ist diese Innovationswut schon krass!



Antwort von rdcl:

Ersteres.








Antwort von Paralkar:

Is full screen (ohne ultrastudio etc) jetzt schon dabei oder kommt noch?



Antwort von Frank Glencairn:

Is dabei



Antwort von mash_gh4:

die fullscreen vorschau ist natürlich ein wirklich bedeutsamer fortschritt!

ich fürchte zwar, dass es in der ersten phase damit noch ein paar gröbere ungereimtheiten geben wird, weil das ganze noch nicht konsequent genug in den größeren rahmen integriert ist (z.b. braucht ja jeder monitor andere korrektur einstellungen, wenn man wirklich sauber damit arbeiten will). genau darin sehe ich aber auch die große chance, weil die diesbezügliche bereinigung des programms und die dringend notwendige einbeziehung brauchbarer farbmangementansätze, längerfristig eine massive qualitätsverbesserung nach sich ziehen dürfte.

man fragt sich nur, warum es erst jetzt endlich angegangen wird?

das wäre wirklich schon vor einigen jahren möglich und sinnvoll gewesen, wie es ja auch viele benutzer immer wieder eingefordert wurde.

was ich auch nicht besonders fein finde, ist die tatsache, dass es nur in der studio version verfügbar ist. :(

da das ganze in diesem fall ja nicht mit irgendwelchen lizenzabgaben an dritte od.ä. begründet werden kann, wie es bei verschiedenen codecs, rauschunterdrückung etc. der fall sein dürfte, scheint es hier eher nur der willkür bzw. geschäftstüchtigkeit geschuldet zu sein, wenn wieder ein weitere neu hinzugekommene elementare funktionalität in der gratis version fehlt. damit gleitet die kostenfrei zugängliche ausgabe immer mehr in richtung "demo" ab.

ehrlich gestanden überrascht mich das zwar nicht sonderlich, aber es steht doch in deutlichem widerspruch zu jener selbstdarstellung, die BMD gerne bzgl. der beiden ausgaben verbreitet...



Antwort von doughboy:

Hat jemand ein Tutorial für das Setup mit Full Screen Monitor?
Hab einen Mac Mini 2018, Egpu, 2 x Eizo Color Edge und einiges probiert ohne Erfolg.
Der 2. Monitor ist via Hdmi an die Egpu angeschlossen. Monitor 1 via. Hdmi direkt in den Mac Mini.
Danke für Hilfe!



Antwort von Wingis:

@mash_gh4: Ich kann Blackmagic's Ansatz absolut nachvollziehen und finde, man bekommt mit der kostenlosen Version ja nun wirklich ein dermaßen krasses Werkzeug, dass ich es schon okay finde, wenn für die Vollbild-Vorschau ein kleines bisschen Hardware gekauft werden muss. Von "Demo" ist das doch noch sehr sehr weit entfernt.

Dass ich dieses Feature aber als User der Studio-Version kostenlos bekomme, freut mich dennoch!



Antwort von Bruno Peter:

Ich habe die Produktionsversion 16.0 installiert.
Läuft problemlos auf meinem Rechner ganz im Gegensatz zu der Beta 1 die mir viele Schwierigkeiten
bereitete und ich wieder auf 15.3.1 deshalb zurückgehen musste.



Antwort von Bruno Peter:

slashCAM schreibt im Beitrag oben:

"Resolve soll ab sofort auch ohne dedizierte Schnittkarte eine Fullscreen Vorschau auf einem zweiten Monitor ausgeben können.
Hierfür muss nur die Grafikkarte einen weiteren Ausgang bieten."

Ich verstehe nicht ganz was dabei neu sein soll..., das geht doch auch schon mit der finalen Version 16.0.
Ich habe einen Arbeitsmonitor per DVI an der NVIDIA Grafikkarte angeschlossen und einen HDTV per HDMI-Kabel mit dem
Intel HD-Graphics-Anschluss verbunden.

Per "Workspace-Menü kann man doch alles so konfigurieren, dass man die vollauflösende Vorschau aus der Intel-GPU
bezieht und das funktioniert doch einwandfrei ohne spezieller Video-Ausgabekarte. Meinen HDTV habe ich in den
Wiedergabemodus "Kino" versetzt.

Also, was wird da eigentlich besser ab Version 16.1 mit der TV-Vorschau...



Antwort von mash_gh4:

nein -- bisher (<16.1) war es leider nicht möglich, eine vollbilddarstellung auf einem schirm angezeigt zu bekommen, aber auf den anderen weiterhin editieren zu können...

und in der freien (non-studio) ausgabe des programms besteht diese ausgesprochen unbefriedigende einschränkung leider auch weiterhin, so lange man keine decklink-karte alleine für diesen zweck nutzt. :(



Antwort von Bruno Peter:


nein -- bisher (<16.1) war es leider nicht möglich, eine vollbilddarstellung auf einem schirm angezeigt zu bekommen, aber auf den anderen weiterhin editieren zu können...

Na ja, die Wirkung der LUTs kann ich durchklicken auf dem Arbeitsmonitor, wie das auf dem HDTV aussieht sehe ich dort sofort
im Vollbild. Wenn ich die Regler nutze, dann habe ich das Player Fenster nicht im Vollbild, stimmt, aber ich sehe es im TV-Modus
in dem Player-Windows. Jederzeit kann ich im Anschluss mit Strg + F auf den Vollbildmodus des TV umschalten und dort
nochmal kontrollieren ob es auf dem HDTV gefällt.

Mir reicht das eigentlich... :(








Antwort von Kamerafreund:

Na toll, habe gerade vor einem Monat einen BM Mini Monitor zu davinci resolve Studio gekauft. Kurz nach dem Anschließen ist beim Tb Anschluss (der jahrelang gut funktionierte) am MacBook abgeraucht und ich musste die intensity USB version kaufen damit ich den zweiten Monitor überhaupt nutzen kann. Hauptgrund war dass ich für Rundfunk in 25i arbeiten muss. Ich müsste dann aber herausfinden, dass BM gar kein echtes 25i aus 50p erstellen kann und nur 25psf ausgibt. Eigentlich hätte ich mir den ganzen Terz jetzt sparen können.



Antwort von Bruno Peter:

Ich müsste dann aber herausfinden, dass BM gar kein echtes 25i aus 50p erstellen kann und nur 25psf ausgibt.

Ist doch viel besser als 25i...



Antwort von dosaris:


Ich müsste dann aber herausfinden, dass BM gar kein echtes 25i aus 50p erstellen kann und nur 25psf ausgibt.

Ist doch viel besser als 25i...

wie das?
aus echtem 25i (od MBAFF) lässt sich wieder ziemlich echtes 50p rekonstruieren.
Aus 25psf reicht's max für 25p.



Antwort von Frank Glencairn:


Hauptgrund war dass ich für Rundfunk in 25i arbeiten muss. Ich müsste dann aber herausfinden, dass BM gar kein echtes 25i aus 50p erstellen kann und nur 25psf ausgibt. Eigentlich hätte ich mir den ganzen Terz jetzt sparen können.

Liegt vielleicht daran, daß 25i als TV-Norm nicht existiert sondern nur 50i - also 50 Halbbilder.



Antwort von dosaris:



...BM gar kein echtes 25i aus 50p erstellen kann und nur 25psf ausgibt. Eigentlich hätte ich mir den ganzen Terz jetzt sparen können.

Liegt vielleicht daran, daß 25i als TV-Norm nicht existiert sondern nur 50i

kommt drauf an, was Du damit meinst:

früher hieß 50 Halbbilder/sec 25i.

Irgendwann wurde die Terminologie geUPDATEd und statt FramerateFramerate im Glossar erklärt (25) wurde die field-rate (50)angeben.
Schwups war dasselbe dann 50 i.
Klingt ja auch irgendwie nach mehr.
Einreichungsformat ist mW durchweg 50 fields/sec, bzw 1080i50

(hat mich auch schon oft genervt, drum reiche ich - auf Absprache - in 25p ein,
weil's wegen psf ohnehin nicht ausgenutzt aber nochmals umcodiert wird)



Antwort von Kamerafreund:

Da reagiert jede Redaktion anders drauf. Manche finden 25p ganz filmisch und toll, andere finden es shuttert schrecklich nach der ganzen Konvertierung in 720p50 auf dem Sendeweg. 25p wird intern in 50 PsF und dann in 720p50 gewandelt, das ist nicht schön. Darum ist man mit 50i (ich nenne es jetzt Mal so ;) immer auf der sicheren Seite. Das aber ein "professionelles Farbkorrektur-Tool" wie Resolve Studio nicht von 50p auf 50i wandeln kann finde ich schon etwas erbärmlich. Das bedeutet dass ich für die Aufnahme immer in 50i HD bleiben muss oder wenn ich in tollen UHD 50p aufnehmen will immer in einem anderen CodecCodec im Glossar erklärt exportieren und danach mit einem anderen Tool wandeln muss.



Antwort von klusterdegenerierung:


Mir reicht das eigentlich... :(

Ist eine Frage des persönlichen Setups, wie zb bei mir, der einen 47er über seinen Schnittmonitor hängen hat und auf dem Schnittmoni nicht so viel Platz für die Vorschau hat.

Ich habe jetzt das erste mal die Möglichkeit ein riesen Vorschaubild dauerhaft zu sehen, ohne das ich das Vollbild über das Schnittbild legen muß und sogar dafür noch das eigentliche Schnittfenster erstmal auf den großen Monitor legen muß, was ich dort ja eigentlich nie habe und nicht haben möchte.

Ich kann also nun mit einem Klick den großen Monitor als Vorschau verwenden!!!
Alleine dafür hätte ich sogar noch mal einen pfuffi extra bezahlt, welch eine Wohltat! :-))



Antwort von Jott:


Liegt vielleicht daran, daß 25i als TV-Norm nicht existiert sondern nur 50i - also 50 Halbbilder.

50i und 25i sind das Gleiche. Die Bezeichnung "25i" ist eine professionelle Verwirrungsmassnahme der EBU. Mit durchschlagendem Erfolg, wie man sieht.



Antwort von klusterdegenerierung:

Kannst Du das erklären und belegen?








Antwort von mash_gh4:


50i und 25i sind das Gleiche. Die Bezeichnung "25i" ist eine professionelle Verwirrungsmassnahme der EBU. Mit durchschlagendem Erfolg, wie man sieht.

das stimmt nicht wirklich -- wenn man sich nämlich streng an die EBU vorgaben hält, wird zusätzlich ein querstich in die bezeichnung eingefügt -- also z.b. "1080i/25" --, um die betreffenden angaben von anderen abweichenden notationen zu unterscheiden.
(siehe: https://de.wikipedia.org/wiki/High_Defi ... omenklatur)

in wirklichkeit sind diese spitzfindigkeiten rund um die schreibweise aber ohnehin weitestgehend bedeutungslos.

was dagegen viel beachtenswerter sein dürfte, aber gerne ausgeklammert wird, ist der massive vertikale auflösungsverlust, der im falle von "echten halbbildern" bzw. einer maximalen ausschöpfung der bewegungsphasen nötig ist, um aliasing artefakte (->interline twitter) zu vermeiden. in der praxis wird das bild zu diesem zweck vor dem herausgreifen der zeilen so gefiltert, dass faktisch nur mehr die halbe vertikale bildauflösung erhalten bleibt.



Antwort von dosaris:


... der massive vertikale auflösungsverlust, der im falle von "echten halbbildern" bzw. einer maximalen ausschöpfung der bewegungsphasen nötig ist, um aliasing artefakte zu vermeiden. in der praxis wird das bild zu diesem zweck vor dem herausgreifen der zeilen so gefiltert, dass faktisch nur mehr die halbe vertikale bildauflösung erhalten bleibt.

ja,
leider viel zu oft zu sehen, insbesondere beim line-doubling.

Dabei lässt sich mit guten DeInterlacing-Algorithmen eine exzellente Qualität rekonstruieren,
wobei anteilig nur die interfield-Differenz etwas in der Auflösung reduziert wird.
Der überwiegende Rest des Frames hat volle Auflösung.
Leider nutzen viele Display-Hersteller nur simple DeInterlacing-Algorithmen, wie
bobbing, weaving, line doubling, merging, interpolieren.
usw.

Aber zu viele Display-Hersteller deklarieren noch nicht einmal, welche Verfahren eingesetzt werden,
und so kommen aus Kostengründen - wieder 1 EUR gespart - immer die billigsten Verfahren zum Einsatz.
Selbst wenn man's bezahlen wollte hat man die Entscheidungsbasis gar nicht.

mE mit den besten DeInterlacer bieten die kostenfreien Yadif-Filter mit temporaler und spatialer
Steuerung. Damit macht man aus 50i sehr gutes 50p, fast wie echt.



Antwort von mash_gh4:


wobei anteilig nur die interfield-Differenz etwas in der Auflösung reduziert wird.

nein! -- tut mir leid -- bitte schau dir einfach an, was ich da gerade vorhin nocheinmal als ergänzung unter dem stichwort: interline twitter eingefügt hab...

zum Bild https://upload.wikimedia.org/wikipedia/ ... erlace.gif

da geht's wirklich um eine form des bewussten verringerns der vertikalen auflösung direkt in der kamera od. beim umwandeln von progessivem videomaterial, um störende effekte zu minimieren.

derartige information, die einmal verloren gegangen ist, bringst du aber auch mit den besten techniken im nachhinein nicht mehr wieder rein!

dass man derartige kompromisse trotzdem in kauf nimmt, hat u.a. damit zu tun, dass man sich im rundfunkumfeld ja nicht alleine nur nach den besten geräten am markt und deren deinterlacing-fähigkeiten orientieren kann, sondern vielmehr eine form der ausstrahlung anstreben muss, die möglichst auch noch auf den einfachsten empfängern störende effekte vermeidet.

zum glück ist aber all das ohnehin nur mehr eine debatte um mühselige altlasten bzw. rückwärtskompatibilität, für die es in der gegenwart kaum mehr eine existenzberechtigung gibt, so fern einem tatsächlich an der bildqualität der resultate gelegen ist.

ich glaub auch nicht, dass jemand, der mit resolve arbeitet und entsprechend hochwertige resultate liefert, ernsthaft probleme bekommen wird, weil sein material nicht vorsorglich als interlaced-müll rausgerendert bzw. verunstaltet wurde. in jeder rundfunkanstalt sitzen gewöhnlich vernünftige und erfahrene techniker, die im bedarfsfall ohne viel aufleben darum zu machen, eine weitaus sauberere und zweckmäßigere diesbezügliche umwandlung hinbekommen, als es den meisten unbedarften usern alleine nur durch das ankreuzen einer entsprechenden checkbox im export-dialog ihres NLEs möglich gewesen wäre...



Antwort von Jott:


Kannst Du das erklären und belegen?

Im Ernst jetzt? Es gibt nur 50 Bildphasen interlaced als Videosignal. Egal, ob das jetzt 50i, 25i oder Eugen heißt. Wieso die EBU (und nur die EBU, ein Verband/Verein halt) das Baby vor einigen Jahren plötzlich unlogisch umbenannt hat, kann ich dir allerdings nicht erklären. Beamtenfurz. In der realen Welt ist es 50i geblieben, wie man auch in Kameramenüs sieht.

Was psf ist, wissen noch weniger Leute, obwohl sie es täglich auf dem Fernseher sehen. Nämlich ganz einfach 25p für die Sendenorm in 50i verpackt, jeweils zwei identische Halbbilder/Bildphasen. Spielfilme werden vorher von 24p auf 25p beschleunigt und danach verpackt.

Es gibt überhaupt keinen Unterschied zwischen 50i und 25i, auch wenn Mash verzweifelt einen sucht.

Dass Leute bei dem Thema regelmäßig straucheln, liegt nur daran, dass Ausbildung oder gar Studium in dem Bereich völlig aus der Mode gekommen sind. Zum Trost: ist nur für Broadcast relevant, sonst nirgends mehr.

Korrektur: auch DVD und Blu-ray haben noch InterlacedInterlaced im Glossar erklärt an der Backe - sind aber auch schon sehr angejahrte Medien.

Ich lese nicht nach, ob oder wie gut Resolve mit dem Kram klar kommt. Vielleicht sch... sie ja wirklich drauf, denn ein TV-Editor à la AVID will es doch gar nicht sein, oder?



Antwort von TomStg:



Kannst Du das erklären und belegen?

Im Ernst jetzt? Es gibt nur 50 Bildphasen interlaced als Videosignal. Egal, ob das jetzt 50i, 25i oder Eugen heißt. Wieso die EBU das Baby vor einigen Jahren plötzlich unlogisch umbenannt hat, kann ich dir allerdings nicht erklären. Beamtenfurz. In der realen Welt ist es 50i geblieben, wie man auch in Kameramenüs sieht.

Was psf ist, wissen noch weniger Leute, obwohl sie es täglich auf dem Fernseher sehen. Nämlich ganz einfach 25p in 50i verpackt, jeweils zwei identische Halbbilder/Bildphasen. Spielfilme werden vorher von 24p auf 25p beschleunigt und danach verpackt.

Es gibt überhaupt keinen Unterschied zwischen 50i und 25i, auch wenn Mash verzweifelt einen sucht.

Dass Leute bei dem Thema regelmäßig straucheln, liegt nur daran, dass Ausbildung oder gar Studium in dem Bereich völlig aus der Mode gekommen sind. Zum Trost: ist nur für Broadcast relevant, sonst nirgends mehr.

Exakt so ist es.

Wirklich merkwürdig, dass dieses Thema hier immer wieder so viel Unwissende und Weltverbesserer offenbart. Liegt wohl daran, dass 50i einfach "Pfui!" ist, obwohl es sich um einen ganz normalen weitverbreiteten üblichen TV-Standard handelt.



Antwort von mash_gh4:


Es gibt überhaupt keinen Unterschied zwischen 50i und 25i, auch wenn Mash verzweifelt einen sucht.

tu ich das? -- oder pflegst nicht etwa du das zeilensprungverfahren und die damit verbundenen unschärfen bzw. informationsverluste auch beim lesen von texten zu strapazieren?



Antwort von Bruno Peter:


Liegt wohl daran, dass 50i einfach "Pfui!" ist, obwohl es sich um einen ganz normalen weitverbreiteten üblichen TV-Standard handelt.

Pfui ist es wegen der Interlaced-Kämme.
Wenn man aus 50p zwei Halbbilder im Schnittprogramm macht gibt es diese Kämme nicht!



Antwort von Alf302:

Die meisten hier filmen doch für Geld, da ist doch der Kunde König
und wenn der gerne InterlacedInterlaced im Glossar erklärt will, dann kriegt er es



Antwort von Jott:


Wenn man aus 50p zwei Halbbilder im Schnittprogramm macht gibt es diese Kämme nicht!

Aua.

Ganz im Gegenteil. Genau so erzeugt man sie doch, mit voller Absicht! Sieht man am PC-Monitor "Kämme", ist das Signal korrekt von 50p zu 50i umgesetzt! Sieht man keine Kämme bei Bewegung, ist es nicht 50i. Am Fernseher/TV-Monitor sieht man die "Kämme" natürlich nachher nicht mehr.

Nur wenn man 25p in 50i verpackt, sieht man keine Kämme. Weil dann jeweils zwei Halbbilder gleich sind (psf).

Die Interlaced-Technik ist viel, viel älter als die Idee, Videomaterial mit Computern schneiden zu wollen. Sender-Cutter (bzw. Cutterinnen, das war damals ein reiner Frauenberuf) hatten erstmals Mitte der 90er ratlos auf eine Maus gestarrt.








Antwort von Bruno Peter:



Nur wenn man 25p in 50i verpackt, sieht man keine Kämme. Weil dann jeweils zwei Halbbilder gleich sind (psf).

Das meine ich doch, hast mich missverstanden, es muss aber lauten: zwei 25p Halbilder werden miteinander verschachtelt zu 50p...



Antwort von Jörg:

Die Freude über die Vorschau auf 2.Monitor währte nur kurz, funktioniert zwar prächtig, aber nur im single Monitor Betrieb...
Sobald umgeschaltet wird auf Dualbetrieb, sitzt die Vorschau wieder auf Monitor 1 statt 2, obwohl der gewählt bleibt.
Hoffnungsschimmer wäre dann ein dritter Monitor, wenn dann auch ein Dritter zur Option gestellt wird.
Sollte ich etwas falsch gemacht haben?



Antwort von iasi:

So ganz problemlos will es wirklich nicht:
Monitore erwachen aus dem Schlaf, aber Resolve liefert keine Vorschau mehr. Erst nach Hin und Hergeschalte klappt"s wieder.

Funktionieren eigentlich 3 Monitore?
Also Dual und Vorschau?



Antwort von srone:


Sobald umgeschaltet wird auf Dualbetrieb, sitzt die Vorschau wieder auf Monitor 1 statt 2, obwohl der gewählt bleibt.
Hoffnungsschimmer wäre dann ein dritter Monitor, wenn dann auch ein Dritter zur Option gestellt wird.
Sollte ich etwas falsch gemacht haben?

resolve benutzt eine eigene monitornummerierung, die nicht immer mit der von windows übereinstimmt, das mal überprüft?
hatte schon 5 monitore an resolve hängen, somit müsste das mit dem 3. problemlos funktionieren.

lg

srone



Antwort von AndySeeon:


Funktionieren eigentlich 3 Monitore?
Also Dual und Vorschau?

Bei mir funktioniert es schon. Genau wie oben beschrieben, Dual und Vorschau:
Resolve 3 Monitor.jpg

Gruß, AndySeeon



Antwort von Jörg:

das mal überprüft?

hab ich, stimmt überein.
Wenn bei multimonitorbetrieb ALLE angeschlossenen zur Auswahl stehen, wäre ja alles ok.
ich probiere es einfach ;-))



Antwort von klusterdegenerierung:



Kannst Du das erklären und belegen?

Im Ernst jetzt?

Was soll denn dieses Oberlehrer getue, ist es Dir als erfahrener Schnittmeister noch nicht in den Sinn gekommen, das es User mit weniger Ahnung von der Materie gibt?

Ich sag ja, das Forum ist weder was für Leute die gerne lernen wollen, noch für Leute die dieses vermitteln könnten, schade drum, nur Hilfssheriffe in Deutschland!



Antwort von mash_gh4:

hier muss ich dem kluster wirklich recht geben!

sachlich nachvollziehbare belege und links zu weiterführender information würde ich auch sehr oft als deutlich hifreicher erachten, statt dem aufplustern der kindergartenhäuptlinge.



Antwort von Alf302:

Weiterführende Links kannst Du Dir doch selber vorab (bevor Du in die Diskussion einsteigst) beschaffen.








Antwort von klusterdegenerierung:

Damit man sogar dann weiterhin eins an die Mappe bekommen kann und das Forum als eigentliches sogar noch obsolet wird.
Ich sags ja, de Belege für meine Ansichten folgen auf den tritt!



Antwort von iasi:


Weiterführende Links kannst Du Dir doch selber vorab (bevor Du in die Diskussion einsteigst) beschaffen.

Ein schönes Argument hat aber doch den Aufbau:
Behauptung
Begründung
Beleg



Antwort von Jott:

Hm. Ich hab‘s in ein paar Zeilen zu erklären versucht. So wie es auch im Forum schon hundert mal erklärt wurde.

Interlaced-Video läuft mit 50 Bildphasen pro Sekunde. Also genauso flüssig wie 50p. Kann jeder ausprobieren, dessen Kamera im Menü zwischen 50p und 50i wählen lässt. Kein Unterschied auf dem Fernseher in Sachen Bewegung (der gewünschte Beleg in Eigeninitiative).

Die 50 Bilder pro Sekunde werden in jeweils geraden und ungeraden Zeilen verpackt.

Wer die "Flüssigkeit" betonen will, sagt 50i. Wegen der 50 Bildphasen.

Wer in Frames denken will - egal ob ein FrameFrame im Glossar erklärt zwei verschiedene Bewegungsphasen enthält - sagt wie die EBU 25i. Irgendwann vor zehn Jahren oder so wurde aus Raider Twix, warum auch immer.

Offensichtlich ist "50i" die eindeutig weniger verwirrende Bezeichnung.

"50" für 50 Bewegungsphasen pro Sekunde: 50i/50p.

"25" für 25 Bewegungsphasen pro Sekunde: 25p.



Antwort von Alf302:

Iasi
In jeden zweiten Thread wird behauptet, man ist schon 20 Jahrwe in Geschäft, da müßte doch eigentlich
die Internetrecherche und das Filmen in Fleisch und Blut übergegangen sein.
Vor 20 Jaahren hatte man übrigends die Miro-Karten DV500/DC1000/DC2000 - ob man diese Erfahrungen heute noch einbringen kann ? ;-))



Antwort von Jott:

15 Jahre zurück: die gängigen Consumer-Camcorder (AVCHD, HDV) kannten nur 1080i50, Fernsehtechnik halt.

Nächster Schritt: einzelne Camcorder konnten plötzlich wahlweise auch 25p, dann die ersten Videoknipsen. Die Geburtsstunde des Ruckel-Jammerns - gab‘s ja bisher nicht.

Vor etwa zehn Jahren dann wurde 1080p50 in kleinen Camcordern eingeführt. Wichtiger Schritt, damit man auch progressiv genauso flüssig filmen konnte wie mit 50i.

In diese Zeit fiel die Umbenennung von 50i zu 25i durch die EBU. Wozu, weiß ich nicht. Die meisten Kamerahersteller blieben bei der Bezeichnung 50i.



Antwort von Alf302:

Ziehmlich rassante Entwicklung



Antwort von Jott:

Ob es 1080p50 jemals in die Fernsehtechnik schaffen wird? Ich glaube nicht. Die bleiben bei InterlacedInterlaced im Glossar erklärt bis zum Untergang bzw. bis zur Umstellung auf UHD. Da gibt‘s dann kein InterlacedInterlaced im Glossar erklärt mehr. Endgültig. Yeah! Untergang ist aber wahrscheinlicher, wir sind ja hier nicht in Japan.



Antwort von iasi:



"50" für 50 Bewegungsphasen pro Sekunde: 50i/50p.

"25" für 25 Bewegungsphasen pro Sekunde: 25p.

Müsste es nicht heißen:

"25" für 25 Vollbilder pro Sekunde: 25i/25p. ?



Antwort von Alf302:

DVB T2 macht 1080p50 und HEVC

Ich kann mir allerdings nicht vorstellen dass sich 40 Millionern Haushalte neue Geräte füe alte Sendungen anshaffen will.








Antwort von iasi:


Ob es 1080p50 jemals in die Fernsehtechnik schaffen wird? Ich glaube nicht. Die bleiben bei InterlacedInterlaced im Glossar erklärt bis zum Untergang bzw. bis zur Umstellung auf UHD. Da gibt‘s dann kein InterlacedInterlaced im Glossar erklärt mehr. Endgültig. Yeah! Untergang ist aber wahrscheinlicher, wir sind ja hier nicht in Japan.

Aber wir sind doch beim StreamingStreaming im Glossar erklärt längst bei 1080p50. ;)

Mit 5G kommt doch auch die neue "Funktechnik", die SAT-Schüssel und Antenne ersetzen könnte.



Antwort von Jott:

Wie du meinst. Solange dir klar ist, dass auch 25i 50 (!) Bewegungsphasen pro Sekunde bedeuten, nicht etwa nur 25, nenne es wie du willst. Nur nicht verwirren lassen! :-)



Antwort von Jott:


DVB T2 macht 1080p50 und HEVC

Ich kann mir allerdings nicht vorstellen dass sich 40 Millionern Haushalte neue Geräte füe alte Sendungen anshaffen will.

Lies mal ganz genau nach, was da gemacht wird! :-)

Außerdem reden wir von Broadcast, nicht von Streaming. Genau das läutet ja den Untergang von Broadcast ein. Und nur mit dessen Untergang wird InterlacedInterlaced im Glossar erklärt verschwinden.



Antwort von Jott:


Müsste es nicht heißen:

"25" für 25 Vollbilder pro Sekunde: 25i/25p. ?

25i mit Vollbildern in Bezug zu bringen ist völlig neben der Kappe. i besteht aus 50 zeilenverschränkten Fields, nie aus "Vollbildern".

Ich weiß aber, dass viele das so sehen. Geht mir nicht in den Schädel, aber bitte.

Wir kommen ja nur auf das Thema, weil Kamerafreund daran scheitert, mit Resolve ein Interlaced-Sendefile zu erstellen. Das sollten doch die Resolve-Spezialisten klären können? Wenn‘s wirklich nicht geht, wäre das ja auch mal gut zu wissen.

Und wenn’s so ist, könnte der Kamerafreund als Mac-Besitzer mal den naheliegendsten NLE ausprobieren - der kann‘s auf jeden Fall.



Antwort von Kamerafreund:

Danke für die Erinnerung an die Frage :)
Der Kamerafreund ist leider kein FinalCutFreund. ;)
Bevor ich aber die nächste Nebendiskussion lostrete argumentiere ich hier nicht weiter. :)
Der Resolve Support Kam aber auch nicht weiter und hatte das als Feature request weitergeleitet. Also vielleicht gibt in Version 20 dann endlich 25i - oder sogar 50i. ;)
Aber wie gesagt: es wird gar nicht in 50i gesendet sondern in 720 50p.
Also wäre ein umstellen auf die Produktion in 1080 50p ohne weiteres möglich.
Auch in 25p ließe sich produzieren, dann müssen die Bilder auf dem Sendewege einfach verdoppelt werden. Das Problem ist nur die interne Konvertierung in 50i und DANACH in 50p, die 25p so übel aussehen lässt.


Müsste es nicht heißen:

"25" für 25 Vollbilder pro Sekunde: 25i/25p. ?

25i mit Vollbildern in Bezug zu bringen ist völlig neben der Kappe. i besteht aus 50 zeilenverschränkten Fields, nie aus "Vollbildern".

Ich weiß aber, dass viele das so sehen. Geht mir nicht in den Schädel, aber bitte.

Wir kommen ja nur auf das Thema, weil Kamerafreund daran scheitert, mit Resolve ein Interlaced-Sendefile zu erstellen. Das sollten doch die Resolve-Spezialisten klären können? Wenn‘s wirklich nicht geht, wäre das ja auch mal gut zu wissen.

Und wenn’s so ist, könnte der Kamerafreund als Mac-Besitzer mal den naheliegendsten NLE ausprobieren - der kann‘s auf jeden Fall.




Antwort von Bruno Peter:

Ohne weiterer Worte:
https://www.film-tv-video.de/term-word/ ... verfahren/
und Basta!



Antwort von Jott:

"Aber wie gesagt: es wird gar nicht in 50i gesendet sondern in 720 50p."

Nur von den Öffis. Weil die EBU das mal so empfohlen hatte - in grauer Vorzeit, als es noch keine Fernseher mit 1080er-Panel gab! :-)

Alle anderen senden 1080i50, so wie sie es auch angeliefert haben wollen.



Antwort von Kamerafreund:

Ja. Die privaten senden SD wenn man nicht bezahlt. ;)

"Aber wie gesagt: es wird gar nicht in 50i gesendet sondern in 720 50p."

Nur von den Öffis. Weil die EBU das mal so empfohlen hatte - in grauer Vorzeit, als es noch keine Fernseher mit 1080er-Panel gab! :-)

Alle anderen senden 1080i50, so wie sie es auch angeliefert haben wollen.




Antwort von iasi:



Müsste es nicht heißen:

"25" für 25 Vollbilder pro Sekunde: 25i/25p. ?

25i mit Vollbildern in Bezug zu bringen ist völlig neben der Kappe. i besteht aus 50 zeilenverschränkten Fields, nie aus "Vollbildern".

Ich weiß aber, dass viele das so sehen. Geht mir nicht in den Schädel, aber bitte.

Nur weil"s dir nicht in den Schädel will, bedeutet es ja nicht, dass es falsch ist. :)
Ist doch eh nur eine Definitionsfrage.

Aber egal wie man es nun nennen will, das i ist eh bald Geschichte. Die ÖR haben sich davon ja schon verabschiedet und die Privaten lassen es so lange am Leben, wie es ihre Zuschauer nicht interessiert - und denen liegt ja eh nicht viel an Qualität :)








Antwort von Alf302:

In der Theorie
Tatsächlich senden die 25p, interlaced geflaggt.
Interlacedstreifen habe ich zumindest seit 2016 nicht mehr gesehen,
Ausser bei SD und die SD Sender wurden inzwischen abgeschaltet.



Antwort von Alf302:

Tatsächlich schauts so aus.



Antwort von klusterdegenerierung:


Iasi
In jeden zweiten Thread wird behauptet, man ist schon 20 Jahrwe in Geschäft, da müßte doch eigentlich
die Internetrecherche und das Filmen in Fleisch und Blut übergegangen sein.
Vor 20 Jaahren hatte man übrigends die Miro-Karten DV500/DC1000/DC2000 - ob man diese Erfahrungen heute noch einbringen kann ? ;-))

Kann man denken, aber es gibt eben auch die, die ganz anders groß geworden sind bzw gelernt haben.
Ich zb!
Ich habe auf Großbild gelernt und ab und an kam 6x9 dazu und max 6x7!
6x4,5 war schon eine ganze andere Welt und die F1 die trotzdem im Regal lag, diente mehr als beweiß dafür, das man ganz weit weg war von dieser Art Technik und Anwendung, denn bei Großformat gab es ganz andere Gesetzmässigkeiten und selbt Fotografenkünstler (BFF) fotografierten fasst nichts auf KB, das war Mickymaus für uns. Das war so vor ca. 30 Jahren!

So da kannst Du natürlich wenn man diese lange Jahre Erfahrung um Großbild und E6 weg ignoriert schön auf den Trichter kommen das ich vom fotografieren keine Anhnung habe!!

Anders verhält sich das bei Film, kommt aber am Ende aufs gleiche raus, denn ich filme jetzt seit ca. 12 Jahren, bin aber mit interlaced nur kurze Zeit in Berührung gekommen und habe mich nicht sonderlich dafür interessiert, was aber nicht heißt, das ich keine Ahnung vom filmen habe. Aber was liegt da näher mal in einem Forum zu fragen?

Ich finde hier manche nicht nur kompromitierend, sondern auch ganz schön überheblich und kurzsichtig!!



Antwort von Alf302:

Kluster

Großbild
ich hab mal in den Ferien in einer Reprofirma gearbeitet, die hatten eine Kamera, da hatten drinnen 2 Mann und jede Menge Verbrauchsmaterial Platz.



Antwort von iasi:


Tatsächlich schauts so aus.

Wobei:

https://www.prosieben.de/service/empfang-technik/uhd



Antwort von Kamerafreund:

Immerhin denke ich dass das verringern der vertikalen Auflösung um ArtefakteArtefakte im Glossar erklärt zu verhindern kein Problem sein sollte wenn man am Ende eh nur 720p haben möchte. Ich glaube, echtes 1080 50i lässt sich relativ sauber in 720 50p wandeln, also an sich war das damals nicht schlecht. Und der Hauscodec xdcam HD 422 50i war schon immer ein guter Kompromiss aus DatenrateDatenrate im Glossar erklärt und Schnelligkeit im Schnitt da der mpeg2 CodecCodec im Glossar erklärt ja schon früh Hardwarebeschleunigt verarbeitet werden konnte. Ist halt nur wirklich in die Jahre gekommen. Jetzt schielen alle gleich auf UHD, da sich umsteigen auf HD 50p nicht mehr lohnt. Aber da gibt es Probleme weil man einen CodecCodec im Glossar erklärt braucht der auch auf jedem älteren Rechner läuft und gleichzeitig ist Server Speicher für diese Massen an Daten nicht gerade günstig, außerdem müssen sich die Daten noch schnell übertragen lassen. Ich gehe als nächsten Hauscodec von XAVC-L oder XAVC-i aus. Ersteres braucht in UHD aber doch noch relativ viel Leistung, letzteres deutlich mehr Speicher als der bisherige 50mbits Codec. Es kann also noch ein bisschen dauern bis sich was ändert. Bis dahin ist XEVC von Sony bestimmt schon gängig aber der Hardware-Support hängt immer etwas nach. Ist halt immer eine Kosten-Frage. und bis dahin brauchen wir sauberes 50i - und das muss eben ein NLE wie Resolve exportieren können.



Antwort von Jott:

Aber egal wie man es nun nennen will, das i ist eh bald Geschichte. Die ÖR haben sich davon ja schon verabschiedet

Haben sie nicht. Angeliefert werden muss auch bei den Öffis 1080i50 (wegen der Qualität, hihi, 720p als QUELLMATERIAL oder Masterformat ist schon lange nicht mehr zulässig). Also MUSS man sich damit beschäftigen.

Nur die Öffis wandeln das zum Senden in 720p50 um, im Fernseher wird's dann wieder aufgeblasen. So ziemlich alle anderen in Europa senden 1080i50. Wer mal via Satellit vergleichen will: ARTE in Deutschland 720p50, in Frankreich 1080i50, einfach hin- und herschalten.

Ich sehe nicht, dass daran irgend etwas bald Geschichte sein wird. Die Entscheidung für 1080i50 (bzw. 1080i29,97) ist ja bis auf wenige Ausnahmen weltweit gefallen, wer soll denn da jetzt einen milliardenschweren Hebel umlegen? Alle Ü-Wagen neu bauen? Alle Sendezentren? Das hat sich festgefahren. Mein Tipp: interlaced bleibt und geht erst, wenn TV in Europa auf UHD umgestellt wird. Also vielleicht 2030.



Antwort von Jott:


In der Theorie
Tatsächlich senden die 25p, interlaced geflaggt.
Interlacedstreifen habe ich zumindest seit 2016 nicht mehr gesehen,
Ausser bei SD und die SD Sender wurden inzwischen abgeschaltet.

In Sachen interlaced gibt es keinen Unterschied zwischen SD und HD, das wurde wunderbar weitervererbt. Keine Streifen gibt's nur dann, wenn 24/25p-Programme (Filme, Serien) als psf übertragen werden. Filme auf DVD - ein SD-Medium, das technisch nur 50i kann - zeigen auch keine Streifen.



Antwort von Bruno Peter:

Bis dahin ist XEVC von Sony bestimmt schon gängig aber der Hardware-Support hängt immer etwas nach. Ist halt immer eine Kosten-Frage. und bis dahin brauchen wir sauberes 50i - und das muss eben ein NLE wie Resolve exportieren können.

Hast Du das schon Blackmagic geschrieben?

Ich mache das so, ich exportiere in DVR in HQX-Kodierung den 50p Schnitt raus.
In EDIUS lege ich ein 50i Projekt an und importiere das HQX-File und exportiere es hier dann auch so.








Antwort von Alf302:

Jott

Vermutlich hab ich mich falsch ausgedrückt als ich Interlacedsreifen schieb.
Aber nun hab ich ein Bild damit Du sehen kannst was ich meine.
Beim normalen abspielen sieht man die Streifen nicht, so eine Option gibts scheinbar nur bei Nero Showtime ala 2007 ;-)



Antwort von Jott:

Bei der ganzen Interlaced-Nummer geht's nur um das Zielgerät Fernseher, um keine andere Endgeräte-Gattung.

Auf einem PC fernsehen zu wollen ist wieder ein ganz anderes Thema. Sollte man besser nicht wollen, aus einem ganzen Strauß von Gründen.



Antwort von iasi:

Warum wird hier eigentlich so intensiv über das i diskutiert?
Mittlerweile wird doch fast nur noch in p gedreht und angeliefert.

Und die 50p kommen auch mehr und mehr in Fahrt.



Antwort von Alf302:

Warum
Der Auftraggeber des TO fordert Interlaced
und uns Anderen ist Langweilig.



Antwort von iasi:


Warum
Der Auftraggeber des TO fordert Interlaced
und uns Anderen ist Langweilig.

Er bekommt doch sein InterlacedInterlaced im Glossar erklärt problemlos aus 50p gebacken.



Antwort von Jott:

Darum geht's doch: er kriegt es mit Resolve eben NICHT gebacken.
Einfach andere Software dazu nehmen, und der Thread ist zu Ende.

"
Warum wird hier eigentlich so intensiv über das i diskutiert?

Weil auch in den Pflichtenheften von 2019 noch verlangt wird, so anzuliefern.



Antwort von Kamerafreund:

Hab ich längst. Nach ein paar Mails hin und her haben sie das Problem auch verstanden und eben einen Feature Request draus gemacht. Ich halte das eher nicht für einen Feature Request sondern eine absolute Basisfunktion. Ich freue mich aber über jeden der auch nachfragt und das Feature InterlacedInterlaced im Glossar erklärt auf der Liste nach oben rutschen lässt. :)

Bis dahin ist XEVC von Sony bestimmt schon gängig aber der Hardware-Support hängt immer etwas nach. Ist halt immer eine Kosten-Frage. und bis dahin brauchen wir sauberes 50i - und das muss eben ein NLE wie Resolve exportieren können.

Hast Du das schon Blackmagic geschrieben?

Ich mache das so, ich exportiere in DVR in HQX-Kodierung den 50p Schnitt raus.
In EDIUS lege ich ein 50i Projekt an und importiere das HQX-File und exportiere es hier dann auch so.




Antwort von iasi:


Hab ich längst. Nach ein paar Mails hin und her haben sie das Problem auch verstanden und eben einen Feature Request draus gemacht. Ich halte das eher nicht für einen Feature Request sondern eine absolute Basisfunktion. Ich freue mich aber über jeden der auch nachfragt und das Feature InterlacedInterlaced im Glossar erklärt auf der Liste nach oben rutschen lässt. :)


Hast Du das schon Blackmagic geschrieben?

Ich mache das so, ich exportiere in DVR in HQX-Kodierung den 50p Schnitt raus.
In EDIUS lege ich ein 50i Projekt an und importiere das HQX-File und exportiere es hier dann auch so.

Vielleicht sollte man sich doch lieber an die wenden, die in ihrem Pflichtenheft noch immer dieses i mitschleppen. :)



Antwort von mash_gh4:


Hab ich längst. Nach ein paar Mails hin und her haben sie das Problem auch verstanden und eben einen Feature Request draus gemacht.

wenn du ein bisserl suchst, wirst du unmengen von älteren diskussionen zu diesem thema im resolve-forum und ein paar ähnlich gelagerten diskussionsplattformen finden. du bist also wirklich nicht der erste, der derartiges anspricht. allerdings gibt es in diesem fall wirklich gute nachvollziehbare gründe, warum man derartiges heute nicht mehr in ein derartiges programm hinein nimmt. es als als unverzichtbares feature zu betrachten, wirkt auf mich fast so absurd, als würde man plötzlich einen 8bit-verabeitungsmodus im resolve einfordern. ;)

für die paar ewig-gestrigen, die tatsächlich noch immer auf derart zweifelhafte austauschformate angewiesen sind, gibt's ohnehin genug andere möglichkeiten, ihr material mit externen lösungen nachträglich zu verunstalten.








Antwort von Jott:

Warum so polemisch? Diese ewig Gestrigen sind nicht ein paar Spinner, sondern praktisch die gesamte TV-Branche weltweit. Hunderttausende.

Um interlaced auszurotten, muss man sich erst mal vor den häßlichen Betonklotz der EBU in Genf stellen und ein Plakat hochhalten. Der Freitag ist für so was schon vergeben, also vielleicht "Tuesdays against Interlaced"? Mit Glück wird eine weltweite Bewegung draus, protestierende Massen vor allen Sendeanstalten des Globus, die mit noch mehr Glück dann sogar etwas bewirken.



Antwort von Kamerafreund:

Und demnächst schaffen wir den HD-Export ab weil wir ja eh alle schon in UHD arbeiten?



Antwort von iasi:

Es gibt keinen Grund mehr, i zu nutzen.

Schlimm ist doch, dass man solchen Blödsinn weiterhin unterstützt, indem man ihn weiterhin liefert.
Statt von BM i-Export zu fordern, sollte man doch lieber die Abschaffung einfordern.



Antwort von iasi:


Und demnächst schaffen wir den HD-Export ab weil wir ja eh alle schon in UHD arbeiten?

Es gibt immerhin noch Displays, die nur HD schaffen. Und im Fensterchen lassen sich HD-Videos auch schön abspielen. Aber am i-Material würgt doch heute jedes Wiedergabegerät.



Antwort von Jott:

Fordern kann man ja, bitte gerne. Aber wenn man an einen Sender liefern muss und InterlacedInterlaced im Glossar erklärt nun mal diskussionslos und vertraglich gefordert ist - völlig normal - dann sagt der Iasi vielleicht "ätsch, mache ich nicht", aber der Iasi muss ja auch aus irgend welchen Gründen kein Geld verdienen! :-)

Kein Fernseher würgt an Interlaced. Wer einen hat, der kann ihn ja mal anschalten. Und? Siehste. Deswegen haben die Broadcaster keinen Grund, etwas zu ändern.



Antwort von Funless:

Also mein Fernseher macht bei interlaced Material keinerlei Probleme und der hat nicht mal 300,- Euro gekostet.



Antwort von Jott:

Du kannst auch einen für 100 Euro nehmen.



Antwort von dosaris:


Vielleicht sollte man sich doch lieber an die wenden, die in ihrem Pflichtenheft noch immer dieses i mitschleppen. :)

das greift mE etwas zu kurz.

ganz allgemein:
Man kann nicht forsch den dortigen Verantwortlichen Unkenntnis unterstellen, weil dieses Feature
in vielen Produkten/programmen miserabel unterstützt ist. Das bewirkt eine Abwärts-Spirale:
alle warten darauf, dass es stirbt und deswegen unternimmt auch niemand mehr etwas dazu,
die positiven Aspekte zu nutzen, weil es ja vermeintlich eh sterben wird.

Dabei sehe ich hier bei vielen doch ein profundes Unverständnis zu den Parametern von I.
Oft werden einfach die Symptome von analog-I auf Digital-I übertragen, was zwangsläufig in die Irre führt.
Die kurzschlüssige Logik, dass schlecht realisiertes I-encoding einiger Geräte die Ursache für schlechte
Qualitäten bei der Wiedergabe ist hat nix mit dem I-Prinzip zu tun. Es ist einfach nur schlecht umgesetzt,

So werden viele positive Aspekte des Interlacings verschenkt.

Seht mal auf Astra gute Video-Vorlagen von Servus-TV an, die können Spitzenqualität
ohne Ruckeln beim Schwenk und ohne Kamm-Artefakte liefern, wenn das Display nur sinnvolles
DeInterlacing beherrscht, was aber eben nicht bei allen Geräten gegeben ist.

Also sollte man laut bessere Geräte fordern anstatt die schlechte Umsetzung für
die Abschaffung von Interlacing her zu nehmen.



Antwort von Funless:


Du kannst auch einen für 100 Euro nehmen.

Mir brauchste das nicht sagen, ich weiß das.








Antwort von Jott:

Dann sind wir schon zwei.



Antwort von iasi:


Fordern kann man ja, bitte gerne. Aber wenn man an einen Sender liefern muss und InterlacedInterlaced im Glossar erklärt nun mal diskussionslos und vertraglich gefordert ist - völlig normal - dann sagt der Iasi vielleicht "ätsch, mache ich nicht", aber der Iasi muss ja auch aus irgend welchen Gründen kein Geld verdienen! :-)

Kein Fernseher würgt an Interlaced. Wer einen hat, der kann ihn ja mal anschalten. Und? Siehste. Deswegen haben die Broadcaster keinen Grund, etwas zu ändern.

Aha - aber von BMD diesen Blödsinn fordern.

Die wenigen Röhrenfernseher, die noch in den Haushalten herumstehen, muss man natürlich versorgen. Und dann fordert man den Geräten, die seit Jahren verkauft werden, eben ab, dass sie den i-Mist wieder rückgängig machen.
Gedreht wird p, dann gewandelt und in i an die Sender geliefert, die es dann an die TV-Geräte schicken, welche es wieder in p umwandeln.
Ja - daran müssen wir natürlich festhalten und von BMD den i-Export fordern.



Antwort von iasi:



Seht mal auf Astra gute Video-Vorlagen von Servus-TV an, die können Spitzenqualität
ohne Ruckeln beim Schwenk und ohne Kamm-Artefakte liefern, wenn das Display nur sinnvolles
DeInterlacing beherrscht, was aber eben nicht bei allen Geräten gegeben ist.

Also sollte man laut bessere Geräte fordern anstatt die schlechte Umsetzung für
die Abschaffung von Interlacing her zu nehmen.

DeInterlacing ist eigentlich überflüssig. Es würde auch weit besser bei i-Ausgangsmaterial von den Sendern umgesetzt werden, als von den TV-Geräten in den Haushalten.

Die beste Lösung ist nun einmal 50p an 50p-TVs zu schicken.
Da wird von 8k-TV gesprochen und man bekommt noch nicht mal das geliefert, was das übliche TV-Gerät wiedergeben könnte.

Noch ist auch das UHD, welches die Streamingdienste liefern, nicht wirklich gut, aber ...



Antwort von Jott:

Die wenigen Röhrenfernseher, die noch in den Haushalten herumstehen, muss man natürlich versorgen.

Es geht nicht um Röhrenfernseher. Du hast ja mal überhaupt keine Ahnung, wie Fernsehen funktioniert, oder?
https://www.irt.de/fileadmin/media/Neue ... v_2016.pdf

Plane lieber deine Kamerakäufe und deinen Spielfilm. Da kommt InterlacedInterlaced im Glossar erklärt garantiert nicht vor, und alles ist gut.

Die beste Lösung ist nun einmal 50p an 50p-TVs zu schicken.

Klar. Gibt's aber halt nicht (mehr) in der Fernsehwelt. Das 720p-Experiment (als Produktionsformat) des ZDF hat schon lange ausgedient. Heute produzieren sie in 1080i50 und konvertieren nur noch zum Senden zu 720p, was der Fernseher dann wieder aufblasen muss. Außer den Öffis finden alle Sender diesen Umweg pervers.
Und 1080p50 - dein Favorit - wäre natürlich wünschenswert, ist aber in der Broadcast-Welt Science Fiction.

Wie wär's mit gewaltlosem Widerstand und einfach nicht mehr fernsehen? Die Bedeutungslosigkeit droht den Broadcastern ja sowieso, sie sind schon heute zum Überleben auf eine Zwangssteuer angewiesen.



Antwort von TomStg:



Seht mal auf Astra gute Video-Vorlagen von Servus-TV an, die können Spitzenqualität
ohne Ruckeln beim Schwenk und ohne Kamm-Artefakte liefern, wenn das Display nur sinnvolles
DeInterlacing beherrscht, was aber eben nicht bei allen Geräten gegeben ist.

Also sollte man laut bessere Geräte fordern anstatt die schlechte Umsetzung für
die Abschaffung von Interlacing her zu nehmen.

DeInterlacing ist eigentlich überflüssig. Es würde auch weit besser bei i-Ausgangsmaterial von den Sendern umgesetzt werden, als von den TV-Geräten in den Haushalten.

Die beste Lösung ist nun einmal 50p an 50p-TVs zu schicken.
Da wird von 8k-TV gesprochen und man bekommt noch nicht mal das geliefert, was das übliche TV-Gerät wiedergeben könnte.

Stellt Ihr Euch nur so ignorant oder habt Ihr wirklich immer noch nicht verstanden, was Jott seit mindestens 10 Posts geschrieben hat?

TV-Sender weltweit fordern interlaced - nicht verhandelbar. Das von Lieferantenseite ändern zu wollen, ist so nutzlos, wie vom Finanzamt Steuererlass zu verlangen.



Antwort von Jott:

Och, "Tuesdays against Interlaced" wäre schon okay. Ich wüßte auch schon, wer da die Greta geben könnte! :-)
Und allen EB-Teams, die darüber berichten wollen, am besten die Interlaced-Kameras zertrümmern. Sind ja versichert.



Antwort von Alf302:

Man könnte auch ein Deutsche Einheitssignal oder ein Fernsehverbot forden.



Antwort von Kamerafreund:

Demnächst wird Hausstandard einfach blackmagic raw oder prores raw. Kann ja jeder Youtuber mit seiner 1000 Euro Kamera oder Recorder auch schon und alles andere ist Steinzeit. Dass man in Resolve überhaupt noch etwas anderes exportieren kann.. tzzz...



Antwort von iasi:



TV-Sender weltweit fordern interlaced - nicht verhandelbar. Das von Lieferantenseite ändern zu wollen, ist so nutzlos, wie vom Finanzamt Steuererlass zu verlangen.

Weltweit?
Da schließt jemand von der deutschen Provinz auf die weite Welt.

Aber eh egal.
BMD bietet es nicht. Also eben anderweitig konvertieren.

Wenn ein Promi stolpert und in der Pfütze landet, ist"s doch eh egal, in welchem FormatFormat im Glossar erklärt du das lieferst.
Da musst du dir auch gar keine Mühe machen, es in Resolve zu bearbeiten.



Antwort von iasi:


Demnächst wird Hausstandard einfach blackmagic raw oder prores raw. Kann ja jeder Youtuber mit seiner 1000 Euro Kamera oder Recorder auch schon und alles andere ist Steinzeit. Dass man in Resolve überhaupt noch etwas anderes exportieren kann.. tzzz...

Vielleicht können wir uns erstmal auf UHD/50p einigen. Das schmeckt meinen TVs besonders gut. Ich glaube sogar, sie sind dafür sogar gebaut.



Antwort von Frank Glencairn:



Es geht nicht um Röhrenfernseher. Du hast ja mal überhaupt keine Ahnung, wie Fernsehen funktioniert, oder?
https://www.irt.de/fileadmin/media/Neue ... v_2016.pdf

Ahhh - das berühmte Märchenbuch.

TV-Sender weltweit fordern interlaced - nicht verhandelbar.

LOL - ich hab seit über 15 Jahren nichts mehr interlaced produziert - wie bekomm ich mein Zeug bloß über all die Jahre ins Fernsehen, und das auch noch weltweit?



Antwort von Jott:

Selber LOL. Irgendjemand hat immer ein Interlaced-Sendefile draus gemacht, auch von 25p oder 50p kommend. Wenn nicht du, dann jemand anders. Sendefile!

Interlaced produzieren muss natürlich niemand (außer EB-Teams), nur am Ende vor dem Senden erfolgt die Interlaced-Verwurstung nach Vorschrift.

Ich glaube, ich geb‘s auf, ich bin ja nicht Wikipedia. Vielleicht hat der TomStg weiter Lust.



Antwort von Frank Glencairn:

Da liefert man einfach 1080psf/25 und fertig.



Antwort von Jott:

Ganz genau. 1080i50. Bingo.
psf ist genau das, nur halt InterlacedInterlaced im Glossar erklärt mit jeweils zwei gleichen Halbbildern. So werden seit Jahrzehnten als Workaround 25p-Programme in ein Interlaced-Signal gepackt. Weil die TV-Infrastruktur nun mal interlaced verlangt.

LOL, Frank Glencairn hat seit 15 Jahren interlaced geliefert, ohne es zu wissen. Schon cool.



Antwort von dosaris:


Ganz genau. 1080i50. Bingo.
psf ist genau das, nur halt InterlacedInterlaced im Glossar erklärt mit jeweils zwei gleichen Halbbildern. So werden seit Jahrzehnten 25p-Programme in ein Interlaced-Signal gepackt.

warum sollten da zwei gleiche Halbbilder drin sein?

Anstandshalber sollte da TF und BF drin sein, aber eben aus dem selben Quellbild abgeleitet.



Antwort von Frank Glencairn:

Oh mei...

wir sind uns aber schon einig, daß zwei gleiche Halbbilder am Ende qualitativ was völlig anderes ergeben (ein sauberes Vollbild, daß ein Fernseher auch so darstellen kann als ob gleich Vollbilder gesendet wurden), als zwei ungleiche (die interlaced aufgenommen wurden) und deren Versatzartefakte dann vom TV wieder verschlimmbessert werden müssen?

PSF ist doch nur ein Trick, um Vollbilder auf ner Halbbild-Infrastruktur senden zu können.



Antwort von Jott:

Du meine Güte. Guck‘s dir doch an. Am NLE kannst du die 50 Bildphasen durchsteppen. Der Time Code zeigt’s auch (Fields). Bei psf sind‘s auch 50 Fields, nur jeweils in inhaltsgleichen Pärchen (deswegen natürlich auch kein Zeilenversatz. Das 50i-Signal kriegt das nicht mit, dem ist das egal. Sieht dann aus wie 25p. Das ist der Trick.



Antwort von Jott:

Frank, du stellst dich absichtlich doof. Wieso nur.



Antwort von Frank Glencairn:


Das 50i-Signal kriegt das nicht mit, dem ist das egal. Sieht dann aus wie 25p. Das ist der Trick.

Ist doch genau das was ich sage.



Antwort von Jott:

Dann sag nicht, dass deine Werke nicht als Interlaced-Signal gesendet werden. Werden sie nämlich sehr wohl. Ganz nach "Märchenbuch".

Nur die Öffis senden 720p50. Für deine Werke dort auch mit jeweils gleichen Framepärchen, also visuell 720p25.

ARTE ist spannend: 720p ist in Frankreich unbekannt, dort wird parallel in 1080i50 gesendet, was du für die drehst. Verrückte Welt, was?



Antwort von Frank Glencairn:

Das hab ich auch nicht gesagt, sondern daß ich seit Jahren nicht mehr interlaced produziert habe.
Wenn ich das dann raus rechne, sind es immer noch Vollbilder, die halt interlaced geflagged sind, damit die veraltete Infrastruktur der Sender was damit anfangen kann.



Antwort von Jott:

So kannst du das ausdrücken, auch wenn’s technisch nicht stimmt. Mediainfo wird 1080i50 sagen, echte Vollbilddr sind es nicht, nur visuell halt. Was ja völlig in Ordnung ist. Das weißt du auch alles.



Antwort von Frank Glencairn:

Nochmal zum Verständnis

Interlaced: es werden 2 verschiedene Halbbilder aufgenommen - der TV versucht dann wieder ein Vollbild daraus zu erzeugen, was bei starker Verschränkung zu Artefakten und Qualitätseinbußen führt.

PSF: es wird ein Vollbild aufgenommen, und zwei Halbbildern gesendet, die keinerlei Verschränkung haben (das Vollbild wird praktisch in zwei halben Paketen übertragen) - der TV kann die beiden Halbbilder ohne ArtefakteArtefakte im Glossar erklärt und Qualitätsverlust wieder zum Vollbild zusammensetzen.

Obwohl beides mit interlaced zu tun hat, reden wir von zwei völlig verschiedenen Sachen.



Antwort von mash_gh4:


Gedreht wird p, dann gewandelt und in i an die Sender geliefert, die es dann an die TV-Geräte schicken, welche es wieder in p umwandeln.

wenn es wenigstens so ablaufen würde, wäre die sache ohnehin nur halb so schlimm, aber die richtigen hardcore-broadcaster verlangen ja deutlich "mehr". dort muss man dann auch gleich unbedingt interlaced aufnehmen und auch die bildverarbeitung an in dieser weise vorliegendem material durchführen. :(

siehe z.b. s. 45 jener richtlinen, die jott verlinkt hat:

"Das Material sollte so früh wie möglich in das hausinterne Produktionsformat konvertiert
werden. Alle eingesetzten Filter (z.B. zur Rauschreduzierung) sollten erst nach der
Transkodierung eingesetzt werden."


das ist insofern eine ausgesprochen problematische forderung, weil sehr viele komplexere bildbearbeitungsoperationen in interlaced-darstellung gar nicht erst vernünftig durchgeführt werden können! man muss dann die bilder also wenigstens teporär deinterlacen, die operation ausführen und dannach wieder in interlaced-darstellung umwandeln. eine sinnloses theater, das mit unglaublichen vertikalen auflösungsverlusten verbunden ist -- zumindest dann, wenn tatsächlich zeitlich verschobene halbbilder ohne störende artifakte prozessiert werden sollen.

mir geht's hier wirklich nur um genau diese faktischen nachteile und auflösungsverluste, die im zusammenhang mit den entsprechenden legacy brodacast standards so gerne in demagogischer absicht verschwiegen werden (o-ton jott: "Kein Unterschied auf dem Fernseher..."). in wahrheit sind sie aber ohnehin jedem vertraut, der sich um solche sachen kümmern muss.

entgegen der zahlenangabe bzw. den damit verbundnen erwartungen verhält sich 1080i in puncto vertikaler auflösung in wahrheit fast immer schlechter als 720p (!), und je nach deinterlacer auch in der horizontalen achse. die bildwiederholrate braucht man dabei übrigens gar nicht in die diskusion einzubeziehen, da sie in diesem zusammenhang überhaupt keine rolle spielt!

anzumerken ist allerdings, dass diese auflösungseinschränkung natürlich nur bei nutzung zeitversetzter halbbilder zu beachten sind. dort wo in wahrheit ohnehin nur progressives material ohne abzubildenden zeitlichen versatz zwischen den halbbildern quasi nur der form nach in halbbildern übertragen wird, empfangsseitig aber sofort wieder als progressiven bildsequenz mit halben fieldrate behandelt wird, fällt die notwendigkeit auflösungsvermindernder filter natürlich genauso weg wie der einsatz aufwendiger deinterlacer. in wahrheit deckt aber genau diese übertragungsvariante ohnehin den größte teil der ausgestrahlten hochwertigen produktionen ab.

der einzige punkt, wo ich übrigens tatsächlich der strenge der entsprechenden produktionsrichtlinien einiges abgewinnen kann, ist die forderung:

"Die Qualität des Ergebnisses sollte im HD-SDI Signal 1080i/25 beurteilt werden."

es macht nämlich schon sinn, dass man tatsächlich sieht, wie sich das ergebnis unter den gegebenen rahmenbedingungen visuell ausnimmt. sich einfach nur darauf zu verlassen, dass die verwendete software das schon richtig machen wird -- es also beim export blind in irgendwas anderes umzuwandeln --, ist natürlich ein ziemlicher unfug.

trotzdem bleibe ich dabei, dass es generell sinnvoller sein dürfte, möglichst hochwertig zu produzieren, so dass dann immer noch eine minderwertige 'i'--version von verhältnismäßig geringer auflösung und qualität davon abgeleitet werden kann, ohne dabei nennenswerte einbußen in kauf zu nehmen. immerhin fordern ja auch die angesprochnen rundfunkanstalten mittlerweile in den anforderungen an material für die digitalen verwertung im netz fast durchgängig höhere maßstäbe ein -- etwas, das man mit der traditionellen herangehensweise kaum gleichzeitig abzudecken vermag.



Antwort von iasi:



PSF: es wird ein Vollbild aufgenommen, und zwei Halbbildern gesendet, die keinerlei Verschränkung haben (das Vollbild wird praktisch in zwei halben Paketen übertragen) - der TV kann die beiden Halbbilder ohne ArtefakteArtefakte im Glossar erklärt und Qualitätsverlust wieder zum Vollbild zusammensetzen.

Das scheint mir aber doch sehr optimistisch formuliert.

Immerhin ist hier u.a. auch Komprimierung mit im Spiel.



Antwort von klusterdegenerierung:

Uuund, waas gibts soonst soo neues in Resolve????
Junge Junge hoffentlich sind die bald durch mit ihrer kindischen interlaced Nummer



Antwort von Kamerafreund:

Technisch stimmt das alles. Durch das interlacing entstehen aber zwei Fake halbbilder, die zeitlich identisch sind. Wenn man daraus wieder zwei Vollbilder berechnet, die eigentlich identisch sein sollten es aber nicht sind, da sie aus verschiedenen Zeilen gerechnet werden, shuttert oder ruckelt das Bild vor allem bei schwenks. Richtig wäre es hier, erst das Original 25p Bild zu rekonstruieren und es dann für 720 50p einfach zu verdoppeln. Das passiert aber nicht da der Sender von echten 25p ausgeht und darum aus den Halbbildern zwei verschiedene Bilder berechnet. Es ist also ein Workflow-Problem. Und darum sieht 25 psf auf dem Sender bei Bewegungen einfach bescheiden aus.


Gedreht wird p, dann gewandelt und in i an die Sender geliefert, die es dann an die TV-Geräte schicken, welche es wieder in p umwandeln.

wenn es wenigstens so ablaufen würde, wäre die sache ohnehin nur halb so schlimm, aber die richtigen hardcore-broadcaster verlangen ja deutlich "mehr". dort muss dann auch gleich unbedingt interlaced aufnehmen und auch die bildverarbeitung an derart vorliegendem material durchführen. :(

siehe z.b. s. 45 jener richtlinen, die jott verlinkt hat:

"Das Material sollte so früh wie möglich in das hausinterne Produktionsformat konvertiert
werden. Alle eingesetzten Filter (z.B. zur Rauschreduzierung) sollten erst nach der
Transkodierung eingesetzt werden."


das ist insofern eine ausgesprochen problematische forderung, weil sehr viele komplexere bildbearbeitungsoperationen in interlaced-darstellung gar nicht erst vernünftig durchgeführt werden können! man muss sie also wenigstens teporär deinterlacen, die operation ausführen und dann wieder in interlaced-darstellung umwandeln. eine sinnloses theater, dass, mit unglaublichen vertikalen auflösungsverlusten verbunden ist -- zumindest dann, wenn tatsächlich zeitlich verschobene halbbilder ohne störende artifakte prozessiert werden sollen.

mir geht's hier wirklich nur um genau diese faktischen nachteile und auflösungsverluste, die im zusammenhang mit den entsprechenden legacy brodacast standards so gerne in demagogischer absicht verschwiegen werden (o-ton jott: "Kein Unterschied auf dem Fernseher..."). in wahrheit sind sie aber ohnehin jedem vertraut, der sich um solche sachen kümmern muss.

entgegen der zahlenangabe bzw. den damit verbundnen erwartungen verhält sich 1080i in puncto vertikaler auflösung in wahrheit fast immer schlechter als 720p (!), und je nach deinterlacer auch in der horizontalen achse. die bildwiederholrate braucht man dabei übrigens gar nicht in die diskusion einzubeziehen, da sie in diesem zusammenhang überhaupt keine rolle spielt!

es ist nur wichtig zu beachten, dass diese auflösungseinschränkung natürlich nur bei nutzung zeitversetzter halbbilder zu beachten sind. dort wo in wahrheit ohnehin nur progressives material ohne abzubildenden zeitliche versatz zwischen den halbbildern quasi nur der form nach in halbbildern übertragen wird, empfangsseitig aber sofort wieder als progressiven bildsequenz mit halben fieldrate behandelt wird, fällt die notwendigkeit auflösungsvermindernder filter natürlich genauso weg wie der einsatz aufwendiger deinterlacer. in wahrheit deckt aber genau diese übertragungsvariante ohnehin den größte teil der ausgestrahlten hochwertigen produktionen ab.

der einzige punkt, wo ich übrigens tatsächlich der strenge der entsprechenden produktionsrichtlinien einiges abgewinnen kann, ist die forderung:

"Die Qualität des Ergebnisses sollte im HD-SDI Signal 1080i/25 beurteilt werden."

es macht nämlich schon sinn, dass man tatsächlich sieht, wie sich das ergebnis unter den gegebenen rahmenbedingungen visuell ausnimmt. sich einfach nur darauf zu verlassen, dass die verwendete software das schon richtig machen wird -- es also beim export blind in irgendwas anderes umzuwandeln --, ist natürlich ein ziemlicher unfug.

trotzdem bleibe ich dabei, dass es generell sinnvoller sein dürfte, möglichst hochwertig zu produzieren, so dass dann immer noch eine minderwertige 'i'--version von verhältnismäßig geringer auflösung und qualität davon abgeleitet werden kann, ohne dabei nennenswerte einbußen in kauf zu nehmen. immerhin fordern ja auch die angesprochnen rundfunkanstalten mittlerweile in den anforderungen an material für die digitalen verwertung im netz fast durchgängig höhere maßstäbe ein -- etwas, das man mit der traditionellen herangehensweise kaum gleichzeitig abzudecken vermag.




Antwort von Kamerafreund:

Die neural Engine die das Time Warp Tool verbessert. Damit kann man dann aus 25p ganz einfach 50p machen. Daraus aber leider kein 50i. ;)

Uuund, waas gibts soonst soo neues in Resolve????
Junge Junge hoffentlich sind die bald durch mit ihrer kindischen interlaced Nummer




Antwort von iasi:

@mash_gh4

Volle Zustimmung.

Aber eine Frage stellt sich mir:
das hausinterne Produktionsformat
Ist dies denn wirklich das Sendeformat?

Mir ist schon klar, dass die Sender Übertragungsbandbreiten sparen wollen und daher die Halbbildübertragung wählen. Dies bedeutet aber doch nicht, dass das Produktionsformat dem Sendeformat entspricht.
Wenn sendefertiges Material angeliefert wird, wollen sie"s natürlich im Sendeformat, um Zeit und Geld zu sparen.

Anmerkung: UHD geht in D ja mittlerweile auch über SAT.



Antwort von Jott:

Das Sendeformat ist das, was verlangt wird als Sendefile: 1080i50 (ich bin stur wie ein Japaner und bleibe bei der internationalen Bezeichnung).

Quelle 50i, wie EB, Sport, Livesendungen aller Art:
freut das Senderherz, ist schon wie gewünscht.

Quelle 25p: Vollbilder werden in zwei (inhaltsgleiche) Halbbilder aufgeteilt/segmentiert (das "s" in psf) und so in einen normgerechten Interlaced-Strom (eben 1080i50) verpackt.

Quelle 24p (Spielfilme): erst Beschleunigung zu 25p, dann wie oben. Spielfilme sind im TV tatsächlich ein paar Minuten kürzer als im Kino (so wie auch auf DVD).

Quelle 50p: Re-Interlacing zu 1080i50. Aus jedem Vollbild wird ein echtes HalbbildHalbbild im Glossar erklärt gemacht. Ergibt das 1080i50-Signal. Die 50 Bewegungsphasen werden so beibehalten.

Vier verschiedene Quellen, einheitliches Masterformat zum Senden. Das von den Sendern gewünschte.

Ich verstehe nicht, wie man das nicht verstehen kann?

Deutsche Öffis wandeln dann noch nach 720p zum Senden (obwohl die Produktion in 720p schon lange untersagt ist), aber das ist aus europa- und weltweiter Sicht eine exotische Schnapsidee. Filme kommen dann nur in 720p25 in die Wohnungen - ein fast zwanzig Jahre alter Standard. 1080i50 ist in 2019 natürlich auch eine, aber so ist es nun mal.



Antwort von iasi:

Weil Produktionsformat meist nicht gleich dem Sendeformat ist.

Schon klar, dass das Quellmaterial in das Sendeformat gebracht wird.

Aber lieferst du dann den Privaten neben dem HD-Sendematerial auch das ganze in eingedampftem SD, für die armen Zahlungsunwilligen. ;) :)



Antwort von MK:

Und während hier noch diskutiert wird, hat SAT.1 gerade bei Akte mal wieder interlaced Archivmaterial mit falscher Halbbildreihenfolge gesendet so dass es die ganze Sendung durch immer wieder schön vor- und zurück geruckelt hat :)



Antwort von Jott:

Die Silberrücken gehen in Rente, die Generation mit YouTube-Ausbildung rückt nach. Ist ein allgemeiner gesellschaftlicher Umbruch. Allemal spannend.



Antwort von dosaris:


Weil Produktionsformat meist nicht gleich dem Sendeformat ist.

ja, das ist der Normalfall.
Erst für den Playout-Stream entsteht das Zielformat on-the-fly.
(incl Logo einstanzen, news-subtitel, etc, heißt bei uns DISA)

Als ich zuletzt auf dem Lärschebärsch war wurde mir dort 1080p50 als hausinternes Standardformat genannt.



Antwort von Jott:

Echt? Schau an.



Antwort von Darth Schneider:

Wozu braucht es dann eigentlich die 6K und 8K Kameras wenn am Schluss mit 720p 1080i gesendet wird ?
Macht ja den Workflow nur komplizierter.
Gruss Boris



Antwort von Jott:

6K/8K und Fernsehen haben mal so gar nichts miteinander zu tun. Da musst du dir keinen Kopf machen.



Antwort von Bruno Peter:


Wozu braucht es dann eigentlich die 6K und 8K Kameras...
Gruss Boris

Na ja, ich mache aus UHD wegen der Schnittreserven des Materials Videos in 1920x1080.
Man kann mit interessanten Ausschnitten arbeiten auch den Digitalzoom im Videoschnittprogramm
einsetzen, Verkantungen beheben und man hat Randreserven für die Stabilisierung, ferner bekommt
man mittels Resamplig eine Klasse Bildqualität wie sie keine Hobby Videokamera in 1920x1080
je aufnehmen konnte.

Wenn ich mich auf den finalen UHD-Schnitt umstellen sollte, dann mit einer 6K-Kameraufnahme
um wieder diese Schnittreserve zu genießen...

Jeder Fotograf profitiert ebenfalls von hoch aufgelösten Digitalbildern die er mittels Schnitt
in sein Liebligsformat bringt in der Nachbearbeitung.

Die Gehirne der Videofilmer sind immer noch konditioniert auf:
- aus der FHD-Aufnahme werden FHD-Videos erstellt...
- aus UHD-Aufnahmen werden UHD-Videos erstellt...

da ist nichts kreatives dabei!



Antwort von klusterdegenerierung:

Bug Info,
wenn ich in Fusion paintremovemal Bild für Bild betreibe, hängt sich Resolve nach einiger Zeit auf.



Antwort von Kamerafreund:

Genau!
Ideal wäre im Moment die Aufnahme in UHD 50p,
damit kann man Ausschnitte machen und auch Zeitlupen,
und dann in echten 50i ausgeben.
Warum 6k oder 8k Kameras momentan Sinn machen erschließt sich mir nicht wirklich,
zumal man ziemlich sicher die Schärfe einer 8k Kamera beim Dreh nicht beurteilen kann,
und dann auch das Reinzoomen keinen Sinn macht.


Wozu braucht es dann eigentlich die 6K und 8K Kameras...
Gruss Boris

Na ja, ich mache aus UHD wegen der Schnittreserven des Materials Videos in 1920x1080.
Man kann mit interessanten Ausschnitten arbeiten auch den Digitalzoom im Videoschnittprogramm
einsetzen, Verkantungen beheben und man hat Randreserven für die Stabilisierung, ferner bekommt
man mittels Resamplig eine Klasse Bildqualität wie sie keine Hobby Videokamera in 1920x1080
je aufnehmen konnte.

Wenn ich mich auf den finalen UHD-Schnitt umstellen sollte, dann mit einer 6K-Kameraufnahme
um wieder diese Schnittreserve zu genießen...

Jeder Fotograf profitiert ebenfalls von hoch aufgelösten Digitalbildern die er mittels Schnitt
in sein Liebligsformat bringt in der Nachbearbeitung.

Die Gehirne der Videofilmer sind immer noch konditioniert auf:
- aus der FHD-Aufnahme werden FHD-Videos erstellt...
- aus UHD-Aufnahmen werden UHD-Videos erstellt...

da ist nichts kreatives dabei!




Antwort von iasi:



Warum 6k oder 8k Kameras momentan Sinn machen erschließt sich mir nicht wirklich,
zumal man ziemlich sicher die Schärfe einer 8k Kamera beim Dreh nicht beurteilen kann,
und dann auch das Reinzoomen keinen Sinn macht.

Weil man erst mit einem 6k-Bayer-Sensor auch wirklich echte 4k erzielen kann.



Antwort von klusterdegenerierung:

Sorry Leute, aber ging es hier nicht um die Neuerungen in 16.1 statt 50i vs 25p, langsam nervts?



Antwort von iasi:


Sorry Leute, aber ging es hier nicht um die Neuerungen in 16.1 statt 50i vs 25p, langsam nervts?

Genau - und warum fängst du nun wieder mit diesem Thema an?



Antwort von Kamerafreund:

Dann ein neues Thema.
Resolve 16 startet bei mir überhaupt nicht.
Nachdem "Ready" auf dem Startbildschirm erscheint, schließt es einfach kommentarlos. Habe ein älteres MacBook mit Nvidia karte und die Treiber aktualisiert. Aber natürlich gibt's keine neuen Nvidia Treiber für den Mac.



Antwort von klusterdegenerierung:

Kenne ich, auf meinem schwachen Primebook raucht die Studioversion direkt ab, die kostenlose aber nicht, dafür kommt sie aber auch, wie zu erwarten, nicht aus die puschen.



Antwort von klusterdegenerierung:

Frage an die Experten, warum wird kleinschreibung bei den Projekt Ordnern anders sortiert als Großschreibung?
Klein b ist nicht bei groß B, sehr irritierend.



Antwort von mash_gh4:


Frage an die Experten, warum wird kleinschreibung bei den Projekt Ordnern anders sortiert als Großschreibung?
Klein b ist nicht bei groß B, sehr irritierend.

das ist nicht ganz unüblich, wenn man filesysteme verwendet, die case-sensitive sind .

wenn du dir zum bsp. anschaust, wo die buchstaben in ASCII code tabelle angeordnet sind, kommen zuerst die ganzen großbuchstaben und dann erst die kleinen. aus diesem grunde ist eine derartige sortierreihenfolge in der anzeige auch am allereinfachsten zu realisieren.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic DaVinci Resolve / Fusion-Forum

Antworten zu ähnlichen Fragen:
DaVinci Resolve chromatische Aberrationen
DaVinci Resolve mit Komplett-PC möglich?
DaVinci Resolve 16.2.4 released
Probleme mit Davinci Resolve .... wiedermal
DaVinci Resolve 16.2.1 Update
Davinci aus einem anderen Raum steuern
DaVinci Resolve 16 Rauschentfernung
NEU – DaVinci Resolve Online-Anwendertreffen
DaVinci: In/Out loopen
DaVinci: Modifier löschen
DaVinci: Warum funktioniert die Alpha Maske nicht?
Davinci Resolve - Lücke schließen beim Löschen
Blackmagic DaVinci Resolve 16 Beta 6 bringt viele Bugfixes
Neue Beta-Versionen von Blackmagic DaVinci Resolve und Fusion 16
Blackmagic DaVinci Resolve 16.3 Beta 3 bringt geringeren GPU-Speicherverbrauch und BRAW 12K für Linux
Blackmagic DaVinci Resolve 14 Beta 9
Blackmagic DaVinci Resolve 15 Beta 6 verfügbar
Blackmagic DaVinci Resolve Beta 2 veröffentlicht
Blackmagic DaVinci Resolve 15 Beta 7 verfügbar
Blackmagic DaVinci Resolve 14 Beta 8 ist da
Blackmagic DaVinci Resolve 15 Beta 8 verfügbar
Blackmagic DaVinci Resolve 15 Beta 7 verfügbar
Blackmagic DaVinci Resolve 14 Beta 7 verfügbar
Blackmagic DaVinci Resolve 15 als Beta 6 verfügbar
Neue Beta und neue stable Release von Blackmagic DaVinci Resolve 14/12.5
Blackmagic DaVinci Resolve 16 Beta 7: noch mehr Bugfixes

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
15. August - 15. November / Düsseldorf
upfront! young european video award
30-31. Oktober / Espelkamp
Filmfestival SPITZiale
6-8. November / Freyung
Kurzfilmfest Dreiländereck
27. November / Bielefeld
31. Bilderbeben zum Thema „Abschied“
alle Termine und Einreichfristen