Ich finde den Preis ein wenig heftig, da geht auch eine GH5 darum. Der Formfaktor ist halt ein anderer aber damit kann man umgehen.Roland Schulz hat geschrieben: ↑Sa 28 Okt, 2017 20:50 @Wolfgang: Die HLG Clips sehen nicht so schlecht aus, richtig, schafft man mit ner X70 aber schon seit ein paar Monden in Cinegamma! Man hat hier lediglich die AX100 "entriegelt", sonst nix. Der AF ist natürlich ne andere Nummer!
Na ja, was soll's, ich kauf das Ding so nicht.
Bis jetzt immer x265. Leider hat es bei mir noch nicht geklappt, dass ich die "current settings" irgendwie speichern konnte. Ich gebe sie zwar inzwischen fast im Schlaf ein aber ein Abspeichern wäre natürlich Klasse.Whazabi hat geschrieben: ↑So 29 Okt, 2017 06:46 ...
Also mal abgesehen von den ganzen Settings in Davinci Resolve, die von Projekt zu Projekt immer leicht abweichen, exportiere ich von da eigentlich immer in DnxHR HQX 10 bit und konvertiere das dann mittels Hybrid entweder per NVenc wenn's schnell gehen muss, oder x265.
Bei mir 1000 + 180Oder man bleibt bei den standard Settings von 1000,300
10bit geht schon mit E8.52, hab das tatsächlich kürzlich für mich und meine Videos als kleine Verbesserung entdeckt.
:-)) Roland, ich hatte jetzt eigentlich gedacht das Du seit 2 Jahren einen 8K 16Bit HDR HLG+ Fernseher hast!! ;-)))))Roland Schulz hat geschrieben: ↑Sa 28 Okt, 2017 22:04 Na ja, ich hab schon fast nen Jahr nen 4K 12bit HDR HLG fähigen Fernseher...
Gehst du dann direkt über die Konsole oder nutzt du auch eine GUI. In Hybrid kann ich meine Settings auf jeden FAll speichern. Sonst kann man sich aber auch schnell ein Skript schreiben oder einfach das x265 Kommando in nem Textfile speichern.
...kann ich Geld sch...... oder was ;-)?!?!? Bin armer "Angestellter"!!! Sowas kostet min. 1.000.000.000€ ;-)!!!!!klusterdegenerierung hat geschrieben: ↑So 29 Okt, 2017 10:45:-)) Roland, ich hatte jetzt eigentlich gedacht das Du seit 2 Jahren einen 8K 16Bit HDR HLG+ Fernseher hast!! ;-)))))Roland Schulz hat geschrieben: ↑Sa 28 Okt, 2017 22:04 Na ja, ich hab schon fast nen Jahr nen 4K 12bit HDR HLG fähigen Fernseher...
Habe auch schon mit Potplayer und MPC-BE rumhantiert die ja eigentlich alle sehr ähnlich sind, madVR ist ebenfalls drauf. Irgendwie hatte ich da bisher aber immer mal irgendwo nen Huster dazwischen, MPC-HC läuft bei mir irgendwie doch am rundesten wobei ich madVR da noch mal mit reinnehmen werde...Whazabi hat geschrieben: ↑So 29 Okt, 2017 12:08 @Roland
Zum Abspielen über den PC verwende ich persönlich den Potplayer in Verbindung mit madVR. Dürfte also auch auf was sehr Ähnliches wie bei dir rauslaufen. Das funktioniert soweit auch ganz stabil mit 10bit.
Das Schöne bei madVR ist ja, dass er nicht nur HDR Metadaten weiterreichen kann, sondern auch eine, je nach Einstellung, ziemlich aufwändige SDR Konvertierung machen kann. Das kann man für jedes angeschlossene Display individuell einstellen.
Alternativ schiebe ich einfach mein Video auf nen USB-Stick und schau's direkt am TV an.
Ich hatte mal vor ein Wochen hier einen Fred aufgemacht über die HDR-Bearbeitung mit Resolve - vielleicht können wir ja da weitermachen ohne diesen thread voll zu müllen:Roland Schulz hat geschrieben: ↑So 29 Okt, 2017 12:51 Irgendwie müllen wir jetzt den Thread hier zu, scheint aber keinen zu stören...
CameraRick hat geschrieben: ↑Fr 27 Okt, 2017 12:23Das ist ein reiner Konter für das immer währende Totschlagargument "8bit wird geliefert, also muss nur 8bit gedreht werden". Was halt totaler Quatsch ist, aber spricht auch Bände dass Du Dich lieber drüber lustig machst als beim Thema zu bleiben. Tut mir halt auch leid, dass man bei euch das Signal schon beim Einliefern massakrieren muss.Kamerafreund hat geschrieben: ↑Do 26 Okt, 2017 12:24 OK ich gebe nach: Wenn du den hobbit drehst, nimm besser keine a7s. ;)
Was ich damit sagen wollte ist, dass mancheiner (vermutlich nicht Du) 3500€ auf den Tisch legt und dennoch alte Kamellen wie 8bit-only verteidigt, als ob es keinen Sinn ergeben könnte (gerade mit dem Aufkommen von HDR etc). Wirkt wie reines Stockholm-Syndrom.Bruno Peter hat geschrieben: ↑Do 26 Okt, 2017 12:25
Nicht jeder kann "dreieinhalb Lappen" auf den Tisch legen, insgesamt wird man sogar noch mehr ausgeben müssen wenn man mehr möchte als den künftigen HLG-TV-Standard.
Ich bin doch selber GH5 User, weil Panasonic anscheinend verstanden hat, dass es auch Leute gibt die gerne was für ihr Geld bekommen.
Natürlich ist nicht mehr Bit gleich besser, aber dann ist das Problem eben nicht die Bittiefe sondern weil es anderen Orts fehlt.Kamerafreund hat geschrieben: ↑Mo 30 Okt, 2017 21:42 Nein, für das Argument: Mehr bit ist bessere Qualität. Jeder Kamerahersteller kann seinen Codec aufblasen, aber das Bild wird dadurch nicht besser. Hast du den Vergleich im Video gesehen, dass ich vorher gepostet habe? Bildrauschen und Kompressionsartefakte sind die grösseren Probleme als die Bitrate..
Dein Beitrag hier zeigt mal wieder, dass du dich weit mehr mit der Theorie der Codecs als mit der Produktionspraxis beschäftigst.WoWu hat geschrieben: ↑Di 31 Okt, 2017 22:52 Jau, damit bestätigst Du, dass es sich bei 8 Bit um kein schlechtes Signal handelt, nur wer auf „I’ll fix it in the post“ aus ist, oder möglichst schnell und billig produzieren will oder keine wirkliche Ahnung von dem hat, was er da am Set technisch zu leisten hat, 8 Bit kaum geeignet ist, sofern hohe Qualitätsansprüche gestellt werden.
Damit ist doch klar, dass es nicht an 8Bit liegt, sondern an den (mehr oder weniger schlechten) Rahmembedingungen, unter denen produziert wird.
Alles klar, dann soll sich aber auch keiner über 8Bit beschweren, wenn sie nicht vernünftiges damit anfangen können.
Es geht darum, ob 8bit noch zeitgemäß ist.
Die GH5 ist besser.Roland Schulz hat geschrieben: ↑Mi 01 Nov, 2017 09:42
Ist eine GH5 jetzt deshalb besser als eine a6500 oder Top-a7?! Ich denke nicht da der Sensor immer noch ein schlechteres SNR und weniger DR aufweist.
Das kann man so behaupten - aber vielleicht sollte man "besser" auch mal definieren. Denn nur weil man "technisch" mehr Spielraum für die Post bekommt - erhält man nicht automatisch den interessanteren oder gar "besseren" Look... denn auch letzteres ist wieder Definitions bzw. Auslegungssache.iasi hat geschrieben: ↑Mi 01 Nov, 2017 10:03Die GH5 ist besser.Roland Schulz hat geschrieben: ↑Mi 01 Nov, 2017 09:42
Ist eine GH5 jetzt deshalb besser als eine a6500 oder Top-a7?! Ich denke nicht da der Sensor immer noch ein schlechteres SNR und weniger DR aufweist.
Und du willst im Ernst behaupten, so ein lapidarer Eingriff sei mit 8 Bit-Material nicht möglich? Den Keine-Ahnung-Ball spiele ich da aber mit hohem Bogen zurück! :-)
Die GH5 ist von den Specs auf dem Papier besser - in vielen (relevanten) Punkten verliert sie klar.iasi hat geschrieben: ↑Mi 01 Nov, 2017 10:03Die GH5 ist besser.Roland Schulz hat geschrieben: ↑Mi 01 Nov, 2017 09:42
Ist eine GH5 jetzt deshalb besser als eine a6500 oder Top-a7?! Ich denke nicht da der Sensor immer noch ein schlechteres SNR und weniger DR aufweist.
Allein schon, da sie die Möglichkeiten der Post eröffnet.
DR? Hohen Kontrasten kann man recht leicht entgegen wirken - oft genügt schon ein Reflektor. Wenn man überhaupt mal so hohen Kontrast hat und dann auch noch Zeichnung von den tiefsten Schatten bis in die hellsten Lichter erwartet.
SNR? Ganz ähnlich: Warum sollten die Schatten keine NR vertragen?
Die Möglichkeit, die Augen um eine halbe Blende anzuheben oder die Mitten in einen bestimmten Bildbereich um 1 Blende hochzuziehen und ihn so zu betonen, zählt weit mehr.
Das mache ich ganz einfach Anhand deren eingenem Tech Sheet in dem man uns uninterpretierbar mitteilt dass HDR die 8bit Limitierung aufhebt und 10- oder 12bit nutzt. Da gibt´s kein Sternchen oder eine Fußnote welche 8bit erlaubt. Ebenso ist das mit sämtlichen Specs die es zu HDR und HLG gibt, bisher konnte hier niemand eins mit 8bit vorzeigen.wolfgang hat geschrieben: ↑Mi 01 Nov, 2017 17:15 Na nach den Meinungen hier ist eine 10bit fähige Kamera deshalb besser, weil man sich damit genau den gewünschten Look problemloser schaffen kann den man eben haben will. Und wenn ein Roland von Betrug spricht, sind das starke Vorwürfe. Möge er nicht in die Verlegenheit kommen diesen Vorwurf nachweisen zu müssen.
....nicht deswegen ;-)!
Ab Minute 7:40... Dort heißt es: 10Bit bei der Z90 und jeweils "Nur" 8bit bei der NX80 und AX700. Wenn's stimmt was der Herr von Sony dort erläutert - dürfte deine gewünschte AX700 wohl mit "fiesen und falschen" Machenschaften beworben worden sein.Roland Schulz hat geschrieben: ↑Mi 01 Nov, 2017 17:41....nicht deswegen ;-)!
Verstehe nach wie vor nicht die Akzeptanz solcher Machenschaften hier...
Nicht Akzeptanz - ich sagte dir ja schon mehrfach dass ich das auch nicht gut finde. Aber realistisch die Unmöglichkeit da irgend etwas zu bewirken.Roland Schulz hat geschrieben: ↑Mi 01 Nov, 2017 17:41....nicht deswegen ;-)!
Verstehe nach wie vor nicht die Akzeptanz solcher Machenschaften hier...