Sama wieder mal aggressiv, Montag?dienstag_01 hat geschrieben: ↑Do 28 Dez, 2023 18:41Bestimmt. Und den Test haben sie auf ihrem Toaster gemacht ;)
Sama wieder mal aggressiv, Montag?dienstag_01 hat geschrieben: ↑Do 28 Dez, 2023 18:41Bestimmt. Und den Test haben sie auf ihrem Toaster gemacht ;)
Die S5 kann auch (MP4) H265 10Bit, allerdings alles 420 (24 - 60p) und so wie es aussieht ist das bei S5II(x) nicht anders? https://www.panasonic.com/de/consumer/f ... specs.htmlcantsin hat geschrieben: ↑Do 28 Dez, 2023 17:48Da täuschst Du Dich. Die alte S5 nimmt auch 10bit 4:2:2 auf, allerdings nur in h264.blueplanet hat geschrieben: ↑Do 28 Dez, 2023 13:15 Videocodec-Typ: MOV mit H.264 10 bit 4:2:2, UHD 25fps oder crop 50fps, LongGOP, 150Mbps.
Also eigentlich kein "Hexenwerk" bzw. ist für mich nicht ersichtlich, was Panasonic gegenüber der S5 da anderes reingepackt haben könnte? (möglich, aus H.264 10 bit 4:2:0 wurde jetzt 4:2:2?!).
Die S5ii nimmt .mov mit h265/HEVC auf und mp4 in h264/AVC.
Schalte doch Deine Kamera von .mov- auf .mp4-Videoaufnahme um, und dann lösen sich wahrscheinlich alle Deine Probleme.
Ich finde es eher lustig, dass ausgerechnet du es bist, der faktisch faktenfrei Fakten faked ;)wolfgang hat geschrieben: ↑Do 28 Dez, 2023 18:47Sama wieder mal aggressiv, Montag?dienstag_01 hat geschrieben: ↑Do 28 Dez, 2023 18:41
Bestimmt. Und den Test haben sie auf ihrem Toaster gemacht ;)
Du hast da die Spec-Page der S5ii-x verlinkt, @blueplanet hat aber die S5ii.roki100 hat geschrieben: ↑Do 28 Dez, 2023 18:53 Die S5 kann auch (MP4) H265 10Bit, allerdings alles 420 (24 - 60p) und so wie es aussieht ist das bei S5II(x) nicht anders? https://www.panasonic.com/de/consumer/f ... specs.html
Ja das kann sie in .mov und anscheinend steckt tatsächlich ein H.265 dahinter. Das würde mein "Problem" vollens klären. Hier hilft nur ein i9 der 13. oder 14. Generation.
Ist doch nicht schlecht in HLG wenn man direkt aus der Kamera auf HDR Bildschirme abspielt :)blueplanet hat geschrieben: ↑Do 28 Dez, 2023 19:31 MP4 ist bei der S5II ist keine Alternative. Wie schon geschrieben: max. 4:2:0 in 10 Bit und mit 72(!)Mbps. Das willste' nicht wirklich ;)
Schatz, da ist nix gefaked.dienstag_01 hat geschrieben: ↑Do 28 Dez, 2023 19:15Ich finde es eher lustig, dass ausgerechnet du es bist, der faktisch faktenfrei Fakten faked ;)
Hmm, laut Panasonic gibt es alle relevanten Codec-Einstellungen, auch mit 10bit 4:2:2 150Mbps, auch mit h264:blueplanet hat geschrieben: ↑Do 28 Dez, 2023 19:31 MP4 ist bei der S5II ist keine Alternative. Wie schon geschrieben: max. 4:2:0 in 10 Bit und mit 72(!)Mbps. Das willste' nicht wirklich ;)
roki100 hat geschrieben: ↑Do 28 Dez, 2023 18:53Die S5 kann auch (MP4) H265 10Bit, allerdings alles 420 (24 - 60p) und so wie es aussieht ist das bei S5II(x) nicht anders? https://www.panasonic.com/de/consumer/f ... specs.htmlcantsin hat geschrieben: ↑Do 28 Dez, 2023 17:48
Da täuschst Du Dich. Die alte S5 nimmt auch 10bit 4:2:2 auf, allerdings nur in h264.
Die S5ii nimmt .mov mit h265/HEVC auf und mp4 in h264/AVC.
Schalte doch Deine Kamera von .mov- auf .mp4-Videoaufnahme um, und dann lösen sich wahrscheinlich alle Deine Probleme.
Dann ist es doch Dummheit.wolfgang hat geschrieben: ↑Do 28 Dez, 2023 19:45Schatz, da ist nix gefaked.dienstag_01 hat geschrieben: ↑Do 28 Dez, 2023 19:15
Ich finde es eher lustig, dass ausgerechnet du es bist, der faktisch faktenfrei Fakten faked ;)
Deine?
Hast du meinen ergänzenden Post nicht gelesen? Die Tabelle wird ständig aktualisiert, ohne Update des kompletten Beitrags. Deswegen steht auch die aktuelle Generation drin.
Wenn man sich nur auf das "Qualitativste" konzentriert, liegt die Unklarheit im Detail.cantsin hat geschrieben: ↑Do 28 Dez, 2023 19:46 Hmm, laut Panasonic gibt es alle relevanten Codec-Einstellungen, auch mit 10bit 4:2:2 150Mbps, auch mit h264:
https://www.panasonic.com/de/consumer/f ... specs.html
Ich lese das so, dass alle 10bit 4:2:2-Aufnahmen in h264/AVC sind und alle 10bit 4:2:0-Aufnahmen in h265/HEVC. Und tatsächlich, wie Du oben schreibst, in .mov. Meine weiter oben gepostete Aussage, dass man nur im .mp4-Container h264 bekommt, war also falsch.blueplanet hat geschrieben: ↑Fr 29 Dez, 2023 10:29Wenn man sich nur auf das "Qualitativste" konzentriert, liegt die Unklarheit im Detail.cantsin hat geschrieben: ↑Do 28 Dez, 2023 19:46 Hmm, laut Panasonic gibt es alle relevanten Codec-Einstellungen, auch mit 10bit 4:2:2 150Mbps, auch mit h264:
https://www.panasonic.com/de/consumer/f ... specs.html
[4K] 3840 x 2160
29,97 p, 150 Mbit/s (4:2:2 10-Bit LongGOP) (H.264/MPEG-4 AVC, LPCM)
29,97 p, 150 Mbit/s (4:2:0 10-Bit LongGOP) (H.265/HEVC, LPCM)
23,98 p, 150 Mbit/s (4:2:2 10-Bit LongGOP) (H.264/MPEG-4 AVC, LPCM)
23,98 p, 150 Mbit/s (4:2:0 10-Bit LongGOP) (H.265/HEVC, LPCM)
Im Kameramenü findet sich dann keine Unterscheidung zwischen H.264 und H.265. Wenn überhaupt, ginge dies auch nur im .mov-Container. Als .mp4 gäbe es kein 4:2:2 10-Bit LongGOP und schon gar nicht in 150Mbit.
Einzige Erkärung (für mich): gibt man davon etwas extern aus, besteht vielleicht die Möglichkeit, zwischen H.264 und H.265 zu wechseln. Intern wird aber immer in H.265 aufgenommen - was wegen der Datenmenge und dem Verhalten meines PC's ;) sinn macht.
Hast Du mit Deiner alten S5 auch nur 4:2:0 aufgenommen? Die konnte ja schon 4:2:2.blueplanet hat geschrieben: ↑Fr 29 Dez, 2023 16:56 ...da wirst Du wohl recht haben. Als ich den PC vor 5 Jahren zusammengestellt habe, gab es im Prinzip keine Consumerkameras die 4:2:2 konnten. Ergo wird sich Intel und Co. darüber keine Gedanken gemacht haben.
Deshalb: Augen auf beim Kamerakauf (den neuen PC gleich mit bestellen) oder halt mit 8Bit oder 4:2:0 glücklich bleiben.
Nur bezweifle ich etwas, dass unter Premiere 10bit HEVC nur 420 und 422 von den letzten Generationen unterstützt werden. Da die Dekodierung eine Sache der i-GPU ist, sollte hier mehr gehen. Wie man ja auch in der Intel-Publikation selbst nachlesen kann;
Also erst mal handelt es sich bei deinem Link um Encoder - Decoder gibt's hier:
Für @blueplanet dürfte aber entscheidender sein, ob seine GTX1070 h264 10bit 4:2:2 per CUDA decodieren kann.Frank Glencairn hat geschrieben: ↑Fr 29 Dez, 2023 19:12 Also erst mal handelt es sich bei deinem Link um Encoder - Decoder gibt's hier:
https://www.intel.com/content/www/us/en ... CODE-OTHER
Daß H265 in allen möglichen Varianten unterstützt haben wir ja schon ganz am Anfang geklärt, aber hier ging's um H264, und da geht halt außer 8bit 4:2:0 überhaupt nichts.
Zumindest finde ich es schon besonders, dass die auf Slashcam am meisten gehypte Kamera so eine eigenwillige Codecausstattung bekommen hat und das noch niemandem aufgefallen zu sein scheint ;)Frank Glencairn hat geschrieben: ↑Fr 29 Dez, 2023 19:12Also erst mal handelt es sich bei deinem Link um Encoder - Decoder gibt's hier:
https://www.intel.com/content/www/us/en ... CODE-OTHER
Daß H265 in allen möglichen Varianten unterstützt haben wir ja schon ganz am Anfang geklärt, aber hier ging's um H264, und da geht halt außer 8bit 4:2:0 überhaupt nichts.
Ist halt echt ungünstig, wenn man sich ne Kamera kauft deren Codec von keiner CPU oder GPU unterstützt wird. Also ohne jetzt schnippisch sein zu wollen, aber ich denke ich hätte das vor dem Kauf mal überprüft.
Leider nicht - da war nicht genug Platz.
Convert decoded surface (NV12 format or YUV 4:2:0 format) to RGBA.
Das bezieht sich auf Nvenc (Encoder), nicht den Decoder.Frank Glencairn hat geschrieben: ↑Fr 29 Dez, 2023 19:56Leider nicht.
image_2023-12-29_195731786.png
Für 10 Bit h264 gibt es unter Windows von keinem Hersteller Hardwareunterstützung, egal welches Subsampling. Wäre mir zumindest neu. Und Decodieren mit CUDA gibt es sowieso nicht, entweder Hardwaredecoder oder CPU.cantsin hat geschrieben: ↑Fr 29 Dez, 2023 19:42Für @blueplanet dürfte aber entscheidender sein, ob seine GTX1070 h264 10bit 4:2:2 per CUDA decodieren kann.Frank Glencairn hat geschrieben: ↑Fr 29 Dez, 2023 19:12 Also erst mal handelt es sich bei deinem Link um Encoder - Decoder gibt's hier:
https://www.intel.com/content/www/us/en ... CODE-OTHER
Daß H265 in allen möglichen Varianten unterstützt haben wir ja schon ganz am Anfang geklärt, aber hier ging's um H264, und da geht halt außer 8bit 4:2:0 überhaupt nichts.
Guggst du hier (und dienstag auch):
H.264/AVCHD Support
‣ Baseline, Main, and High Profile, up to Level 4.1
‣ Full Bitstream Decoding in hardware including HD (1080i/p) Bluray content
‣ Supports B-Frames, bitrates up to 45 mbps
Das erstens ist genau der Intel Link, den ich gepostet habe.Frank Glencairn hat geschrieben: ↑Fr 29 Dez, 2023 19:12Also erst mal handelt es sich bei deinem Link um Encoder - Decoder gibt's hier:
https://www.intel.com/content/www/us/en ... CODE-OTHER
Daß H265 in allen möglichen Varianten unterstützt haben wir ja schon ganz am Anfang geklärt, aber hier ging's um H264, und da geht halt außer 8bit 4:2:0 überhaupt nichts.
Ist halt echt ungünstig, wenn man sich ne Kamera kauft deren Codec von keiner CPU oder GPU unterstützt wird. Also ohne jetzt schnippisch sein zu wollen, aber ich denke ich hätte das vor dem Kauf mal überprüft.
Natürlich geht das (auch mit der iGPU). Allerdings scheint blueplanet ja auf 422 fixiert zu sein.cantsin hat geschrieben: ↑Fr 29 Dez, 2023 20:22 Alles klar. Laut dieser Tabelle:
https://www.pugetsystems.com/labs/artic ... emiere_Pro
... geht Hardware-Decoding mit einer GTX1070, wenn der Codec h265 10bit 4:2:0 ist.
Das geht mit der S5ii auch, bzw. h265 wird automatisch gewählt, wenn man 10bit 4:2:0 statt 10bit 4:2:2-Aufzeichnung wählt.
Das sollte dann @blueplanet's Probleme lösen (hoffentlich)...