Newsmeldung von slashCAM:
Die Sony PXW-Z90 ist eine professionelle Variante des Consumer-4K-Camcorders FDR-AX700. Lohnt sich der Aufpreis?
Hier geht es zum slashCAM Artikel:
Test: Sony PXW-Z90 - 4K oder 10 Bit FullHD(R)
 Antwort von  Drushba:
Das einzige, was mich bei Tests derzeit wirklich interessiert, ist der Kontrastumfang. Schade, daß der nicht mit getestet wird.
 Antwort von  Roland Schulz:
...endlich mal nen vernünftiges Bild hier in der Datenbank (Z90, 1200 LUX im HLG2-Profil) !!!
Bei Lowlight kann das Ding allerdings erwartungsgemäß nicht mit S35 o.ä. mithalten. Rauschen tat die X70 auch immer etwas mehr als die AX100, da wird halt weniger gefiltert.
Die Vergleiche mit ner GH5 hinken, das sind zwei völlig unterschiedliche Paar Schuhe. Vollintegriertes Komplettpaket gegen Wechseloptik "ohne Ton" "ohne Zoom" ohne ohne ohne Paket. Mit nem Camcorder sind die meisten immer noch schneller, und eine aufmunitionierte GH5 kostet am Ende mehr - liefert aber ohne Frage mehr Möglichkeiten.
Die Nachteile der Haptik der Z90 kann ich nicht nachvollziehen, meine X70 hab ich nach ein paar Stunden ebenfalls blind bedient! Eine UX180 ist zudem noch mal ein ganz anderer Klopper (Größe).
Um so erstaunlicher wie die "billige" Z90 eine UX180 in Bezug auf Bildqualität abbürstet wie nur was, da macht sich der Auflösungsvorteil der Z90 voll bemerkbar.
Das Testchart mit der Defaultschärfe ist tatsächlich etwas zu heftig. Irgendwo mal nen Kompromiß zwischen weich wie Butter und aufgesteilt wie Daniela Katzenberger finden...
 Antwort von  patrone:
Wenn diese Sony Experten doch nur 50p spendiert hätten oder von mir aus (damit sie in 3 Jahren nochmal was verkaufen) auch "nur" 25p 4K mit 10bit. 
Ansonsten hab ich gegenüber dem Test der AX700 nicht viel gelernt (Text war ja fast copy and paste). Interessant wäre für mich ob man einen Unterschied zwischen dem XAVC- long der Z90 und dem XAVC -s der NX80 sieht. Bei FHD ist der ja klar weil die Z90 hier mit XAVC-long  10bit kann, aber bei 4K machen beide nur 8bit nur halt die eine in XAVC-long (Z90) und die andere XAVC –s (NX80/AX700). 
VG, die Patrone
 Antwort von  Roland Schulz:
UHD 50p FEHLT für nen Run"n Gun Camcorder als Nachfolger der X70 - keine Frage!!!
Auf der anderen Seite haben wir nen guten AF auf der Habenseite - der schlägt wenn der so wie bei der AX700 funktioniert ohne Frage nen GH5 AF!
 Antwort von  -paleface-:
Das sieht ja aus als wäre der 100p schöner als das 25p Bild...weil das 25p Bild viel mehr nachschärft.
 Antwort von  Roland Schulz:
Zum Verständnis: 100fps ist wieder nur FHD, 25p ist UHD mit default Schärfe die reduziert werden kann - kann man also nicht vergleichen!
 Antwort von  -paleface-:
"Roland Schulz" hat geschrieben:
Zum Verständnis: 100fps ist wieder nur FHD, 25p ist UHD mit default Schärfe die reduziert werden kann - kann man also nicht vergleichen!
Ah....ok. War mir nicht ganz klar.
 Antwort von  Roland Schulz:
Ich finde das 1200Lux Testbild SO wie dargestellt absolut beeindruckend! 
Endlich mal keine graue Log Suppe bei der man sich denken muss was vielleicht bei rauskommt.
Viele Kameras werden hier bzgl. der Testbilder deutlich unter Preis gehandelt.
Wenn man sich z.B. die Bilder der a6500 ansieht könnte man meinen dass das der letzte Mist wäre. Warum man da die Res Tests nur in S-LOG macht (was man da ohnehin nicht benutzen sollte) ist mir auch nicht klar. Zudem sind die LowLight Tests da bei ISO1600 und ISO3200 auch daneben, besser wäre da ISO2000  bzw. ISO4000 gewesen.
 
 Antwort von  JohannesM:
Kleiner, ergänzender Beitrag zur Z90:
Wie bereits Roland Schulz richtigerweise sagt, können die "Originaleinstellungen" in Sachen Schärfe jederzeit nach Gusto geändert werden.
Lustiger Test: Versucht mal 1080p auf 4K upzuscalen (bitte bei etwas herunterreduzierter Schärfe) - sieht nicht viel schlechter aus  als das 4K aus der UX180. Und das geht auch bei 50fps. Mit der Z90 vermisse ich persönlich kein 4K 50fps. 
100p aus der Z90 wischt den Flur mit 100p aus der A6500.
Ich mag die Kamera, empfinde sie aber zuweilen als etwas "fummelig" (da sehr klein) wenn es um die schnelle Erreichbarkeit einiger Controls geht.
AF ist hervorragend, auch in Sachen Sport.
Nicht zu vergessen: Ein unschätzbarer Codec-Vorteil mit dem (leider nicht ganz billigen) Update CBKZ-SLMP. Da erhält man Zugang zum Hauscodec des Staatsfunks.
Farben sind OOC nicht ganz schlecht, 1080p lässt sich hervorragend graden und hält auch einige Biegemanöver aus.
Hervorragend geeignet für Live-Events / Live-Übertragung. Durch den abnehmbaren Griff und Miniaturmaße, ideale Kamera für Flugreisen.
 Antwort von  Jörg:
Lustiger Test: Versucht mal 1080p auf 4K upzuscalen (bitte bei etwas herunterreduzierter Schärfe) - sieht nicht viel schlechter aus als das 4K aus der UX180. Und das geht auch bei 50fps.
Da ich partout keinen Unterschied zwischen UHD downsampled zu FHD und FHD aus der cam bei meiner Fuji erkennen kann, habe ich am WE genau das Gleiche gemacht...;-))
Ich war beeindruckt, was alles möglich ist.
 Antwort von  Roland Schulz:
Die Dinger haben ihre Berechtigung, und auch wenn wir leider kein UHD 50p oder echtes 10bit HDR in 25p gekriegt haben irgendwo schon ein Update zu den Vorgängern.
Und ja, a6300 und a6500 ziehen nur in UHD bis 25p richtig durch, die anderen Bildraten sind eher Murks!
 Antwort von  WoWu:
JohannesM hat geschrieben:
Kleiner, ergänzender Beitrag zur Z90:
Lustiger Test: Versucht mal 1080p auf 4K upzuscalen (bitte bei etwas herunterreduzierter Schärfe) - sieht nicht viel schlechter aus  als das 4K aus der UX180. Und das geht auch bei 50fps. Mit der Z90 vermisse ich persönlich kein 4K 50fps. 
Das ist genau das, was Steve Yedlin auch schon beeindruckend in seinem Test vorgeführt hat.
Wir machen das seit einem guten Jahrzehnt, als auch FullHD nur auf dem Papier stand und alles Andere als full Hd war.
Aus 720p50 ließen sich so deutlich bessere „FlullHD“s machen und noch dazu mit 50p, als alle mit Interlace in fake FH / 1440 rummachten.
Das ist heute nicht Anders. Kommt noch dazu, dass heute zusätzlich deutlich höhere Objektivanforderungen die Sache nicht leichter, sondern schwieriger machen.
 Antwort von  patrone:
WoWu hat geschrieben:
JohannesM hat geschrieben:
Kleiner, ergänzender Beitrag zur Z90:
Lustiger Test: Versucht mal 1080p auf 4K upzuscalen (bitte bei etwas herunterreduzierter Schärfe) - sieht nicht viel schlechter aus  als das 4K aus der UX180. Und das geht auch bei 50fps. Mit der Z90 vermisse ich persönlich kein 4K 50fps. 
Das ist genau das, was Steve Yedlin auch schon beeindruckend in seinem Test vorgeführt hat.
Wir machen das seit einem guten Jahrzehnt, als auch FullHD nur auf dem Papier stand und alles Andere als full Hd war.
Aus 720p50 ließen sich so deutlich bessere „FlullHD“s machen und noch dazu mit 50p, als alle mit Interlace in fake FH / 1440 rummachten.
Das ist heute nicht Anders. Kommt noch dazu, dass heute zusätzlich deutlich höhere Objektivanforderungen die Sache nicht leichter, sondern schwieriger machen.
Na voila, alle Probleme gelöst,
Ich nehme also das rattenscharfe FHD (siehe slashcam test) der GX10/XF400 mach ein upscaling und hab eine schärferes 4K als OOC? Das ist ein Spaß jetzt WoWo oder?
Und 4K zum cropen/virtuelle Kamera moves benutzt man das dann so:
0. Aufnahme in FHD
1. upscaling FHD-> 4K 
2. cropen & virtuelle Fahrten
3. Ausgabe in FHD
ihr wollt mich echt veräppeln.
VG, die Patrone
 Antwort von  Roland Schulz:
Das UHD der Z90 ist um Längen detaillierter als das FHD, beinnahe Faktor 2!!
Macht einfach mal nen FHD Downscale vom Z90 1200Lux UHD Bild und danach wieder UHD draus...
 Antwort von  WoWu:
Nee, das ist kein Spaß.
Das was Du siehst, ist ja nicht die Pixelmatrix sondern die Auflösung, die das Objektiv projiziert.
Schau Dir mal den EBU Test zum Thema RED an. Da macht eine 4K Kamera auch gerade mal HD.
Und das bei guten Kamerakopf und hochwertigem Objektiv.
Was meinst Du, was bei „Mitteklasse“ da noch übrig bleibt.
Und was das „cropped“ betrifft. Du crops immer nur in der Bildauflösumg und wenn die in 4K auch nur HD-Bilddetails hat und Du da hinein crops, dann hast Du weniger als HD hinterher.
Klammer Dich doch nicht so an die Pixelmatrix ... die ist ziemlich schnurtz.
Es kommt auf die Menge der verarbeiteten Bilddetails an.
(Schau Dir mal den Yedlin Test an und lies Dir mal den EBU Test zur RED durch)
 Antwort von  Roland Schulz:
Spaß?! Du hast doch wieder mit der EBU angefangen, die haben wir doch letztens schon in der Pfeife geraucht ;-)!
Nix für Ungut, aber das "UHD gibt"s nicht Thema" werden wir hier noch irgendwann mal lösen. 
Anbei das Z90 Bild von UHD -> FHD - > UHD, daneben das native UHD Bild einer immerhin 14,2MP 4K Upsamplingkamera. Selbst diese Billiglinse löst am Bildrand noch deutlich mehr als FHD auf!! 
Davon ab würde das FHD Bild auch max. ne 3-Chip oder Oversamplingkamera so leisten.
Z90_UHD100.jpg
 Antwort von  patrone:
WoWu hat geschrieben:
Nee, das ist kein Spaß.
Das was Du siehst, ist ja nicht die Pixelmatrix sondern die Auflösung, die das Objektiv projiziert.
Schau Dir mal den EBU Test zum Thema RED an. Da macht eine 4K Kamera auch gerade mal HD.
Und das bei guten Kamerakopf und hochwertigem Objektiv.
Was meinst Du, was bei „Mitteklasse“ da noch übrig bleibt.
Und was das „cropped“ betrifft. Du crops immer nur in der Bildauflösumg und wenn die in 4K auch nur HD-Bilddetails hat und Du da hinein crops, dann hast Du weniger als HD hinterher.
Klammer Dich doch nicht so an die Pixelmatrix ... die ist ziemlich schnurtz.
Es kommt auf die Menge der verarbeiteten Bilddetails an.
OK, ich hör mal auf zu klammern und teste das. Sollte doch ganz einfach sein.
1. GX10 orginal FHD 50p (rattenscharf wie gesagt) - ich mache einen upscale zu 4K 50p -> video A
2. GX10 orginal 4K 50p (na ja ich finds soft) -> video B 
Also wenn video A schärfer als video B ist hat zumindest Canon was falsch gemacht. Denn wenn es so ist wie Du sagst WoWo, dass es auf die 
"Auflösung, die das Objektiv projiziert" ankommt und die in 4K schlechter ist dann ist doch jeder Hersteller total dämlich, wenn er "echt" 4K aufzeichnet.
Einfach das FHD intern in der Cam zu 4K hochskaliert und alles in Butter - merk keine Sau - im Gegenteil die feiern das.
Wenn das nicht sehr sehr weit hergeholt klingt weiss ich auch nicht. Aber wie gesagt ich test ja so gerne ... grrrr
VG, die Patrone
 
 Antwort von  patrone:
"Roland Schulz" hat geschrieben:
Spaß?! Du hast doch wieder mit der EBU angefangen, die haben wir doch letztens schon in der Pfeife geraucht ;-)!
Nix für Ungut, aber das "UHD gibt"s nicht Thema" werden wir hier noch irgendwann mal lösen. 
Anbei das Z90 Bild von UHD -> FHD - > UHD, daneben das native UHD Bild einer immerhin 14,2MP 4K Upsamplingkamera. Selbst diese Billiglinse löst am Bildrand noch deutlich mehr als FHD auf!! 
Davon ab würde das FHD Bild auch max. ne 3-Chip oder Oversamplingkamera so leisten.
Z90_UHD.jpg
Och, jetzt war der Roland schon schneller. Aber natürlich hat es es in der Hast "falsch" gemacht. Roland du must beim FHD anfangen und auf UHD gehen und das mit org UHD vergleichen.
Weil UHD -> FHD - > UHD wird natürlich von einer internen Abschaltesoftware als Prüfstandtest erkannt und was dann passiert wissen wir ja ...
Also schön sauber bei UHD starten (-;
Danke, die Patrone
wenn ich mir die Bilder von Roland nochmal genau ansehe scheint es fast so als wären die vielen Haarbüschel von der Cam künstlich aus dem FHD rausgerechnet - also diese KI's werden auch immer besser ...
 Antwort von  WoWu:
@Patrone“
„Einfach das FHD intern in der Cam zu 4K hochskaliert und alles in Butter - merk keine Sau - im Gegenteil die feiern das.“
.... stimmt
Schau Dir mal die beiden erwähnten Tests an. 
Da waren Leute am Werk, deren Aussagefähigkeit hier keiner anzweifeln dürfte, wenn er sich nicht selbst lächerlich machen will. (sowas soll’s ja geben).
Kommt hinzu, dass Yedlin auch mit derzeit bestmöglichem Ausgangsmaterial gearbeitet hat ( Alexa 65/6K, Alexa XT/3k, RED 6k, Sony F55/4k, IMAX 11k und  35mm Film/4k) und nicht mit fragwürdiger Kaufhausware aus irgendwelchen Fotoknipsen, das Ergebnis also (auch praxisbezogen) eine derzeit bestmögliche Qualität hat und damit von gewisser Repräsentanz sein dürfte weil sowohl spatiale Auflösung als auch verarbeitungsbezogene Algorithmen hier ausserfrage stehen dürften.
Ganz sicher repräsentativer, als eigene Tests. 
(Betrifft übrigens auch die Tests der BBC, wenn man sich allein schon die Auswirkungen kleinster Ungenauigkeiten in der Justierung der Testtafeln ansieht denn die Verkippung der Kamera um einen Pixel führt bereits zu deutlichen Fehlern in der MTF und damit zu messfehlern in der Auflösung).
 Antwort von  Roland Schulz:
WoWu hat geschrieben:
Schau Dir mal die beiden erwähnten Tests an. 
Da waren Leute am Werk, deren Aussagefähigkeit hier keiner anzweifeln dürfte, wenn er sich nicht selbst lächerlich machen will. (sowas soll’s ja geben).
Kommt hinzu, dass Yedlin auch mit derzeit bestmöglichem Ausgangsmaterial gearbeitet hat ( Alexa 65/6K, Alexa XT/3k, RED 6k, Sony F55/4k, IMAX 11k und  35mm Film/4k) und nicht mit fragwürdiger Kaufhausware aus irgendwelchen Fotoknipsen, das Ergebnis also (auch praxisbezogen) eine derzeit bestmögliche Qualität hat und damit von gewisser Repräsentanz sein dürfte weil sowohl spatiale Auflösung als auch verarbeitungsbezogene Algorithmen hier ausserfrage stehen dürften.
Ganz sicher repräsentativer, als eigene Tests. 
(Betrifft übrigens auch die Tests der BBC, wenn man sich allein schon die Auswirkungen kleinster Ungenauigkeiten in der Justierung der Testtafeln ansieht denn die Verkippung der Kamera um einen Pixel führt bereits zu deutlichen Fehlern in der MTF und damit zu messfehlern in der Auflösung).
Wolfgang, ich denke es steht hier außer Frage dass Du ein hohes Maß an Kompetenz an den Tag legst und ich mir manchmal auch Posts von Dir durchlese und denke - Respekt!!
Warum Du dann aber wieder deinen eigenen Augen nicht traust und sowas wie im letzten Satz von Dir gibst erschließt sich mir nicht. 
Wenn wir uns noch mal an "4K-4All" hier erinnern und da besonders an den Test der EBU welche an ner Baumarkt Sony a6300 den Rolling Shutter mit nem Tischventilator bewerten und das Testchart zu groß abgefilmt haben weil a) nur ne 100er Optik vorhanden und b) der Raum zu kurz war um die richtige Entfernung einzustellen, brauchen wir uns um "kleinste Ungenauigkeiten in der Justierung der Testtafeln" bzw. um Verkippung von Kameras KEINE Gedanken mehr machen!! 
Das ist Disqualifikation (des EBU Testers) wie sie im Buche steht!! Den Bericht nehme ich von vorne bis hinten auseinander, bzgl. Rauschen und ISO Einstellungen ebenso!
Nochmal zurück zur Z90 deren Bilder ich nicht wie im "8bit wird 10bit ohne dass es einer nachweisen kann" - Post frisiert habe. Das Bild kannst Du hier selbst runterladen und das Vorgehen nachvollziehen!
Z90_UHD2.jpg
(klick mich)
Hier zeigt die 14,2MP/~5K Kamera nochmals dass das native UHD Sample sogar im Rotkanal sichtbar mehr Details liefert als es FHD überhaupt könnte (FHD Sample wieder als 50% Downscale des UHD mit anschließendem 200% Upscale des FHD auf UHD, anschließende Nachschärfung beider (!!) Samples auf UHD Basis um 67%, Radius 0,7 Pixel). Dabei bleibt dieser Kaufhauscamcorder sogar frei von Moiré! Schon mal die referenzierte "SUPER-F55" auf dem Tisch gehabt?! Versuch das mal damit so sauber hinzukriegen ;-)!
Und nochmal, was ich sehe stelle ich immer noch selbst fest! 
Mir tut die arme "Sau" leid die hier nix "merkt" - der entgeht was im Leben.
 Antwort von  JohannesM:
@patrone
Eine saubere Differenzierung könnte helfen, bekannte Reflexe - so beispielsweise die sofort aufkommende Diskussion 4K vs FullHD in Sachen Auflösung, Bedarf, etc. - zu vermeiden.
Die Z90 ist das was sie ist. Sie ist keine Cinema-Kamera (hat auch kein Mensch behauptet, nicht einmal Sony) und sie ist ein 1'-Gerät mit fest verbautem Objektiv. Mit allen Einschränkungen und Vorteilen, die sich daraus ergeben. Warum muss man in einem vermeintlichen "Profiforum" immer wieder darauf hinweisen?
Ich nutze sie für Videojournalismus und Dokumentationen in bestimmten Bereichen und dafür war sie herstellerseitig auch konzipiert. Ich brauche kein 4K, dafür 422 10bit, bestimmte Codec-Vorgaben müssen erfüllt werden, es ist eine gewisse IQ notwendig. Nix 4K-"Cinema", dafür gibt es viele andere, weitaus geeignetere Lösungen.
Ich benötige (wobei benötige auch nicht stimmt - es gefällt mir einfach) 4K detaillierte Landschafts- und Architekturaufnahmen, Cityscapes, etc. Und dafür reichen mir und vielen anderen Kollegen 4K 25p. ABER: Wenn ich für YT etc. Videos (auch FullHD) hochlade, lade ich sie grundsätzlich (nach dem Upscaling auf 4K) seit einiger Zeit als 4K hoch. Weil es dadurch bei YT - meiner bescheidenen Meinung nach - weniger Artefakte gibt und weil
- die wenigsten Betrachter, diese Videos auf Pixelebene oder auf 300% betrachten, auch wenn sie über hochauflösende Displays verfügen
- die wenigsten Betrachter, die sich Internetvideos anschauen, über 4K Geräte (PC-Displays, TV-Geräte) verfügen - und die wenigen UHD-TV-Zuschauer haben überhaupt keine Probleme damit, 99 Prozent der Standard-Konsumentengeräte gehen damit qualitätstechnisch bestens um
- weit über 70 Prozent der Internetvideos heutzutage auf mobilen Geräten (Smartphones / Tablets) betrachtet werden und da gibt es keine sichtbare Qualitätsunterschiede
Ich bestreite nicht die grundsätzlichen Unterschiede zw. 4K und hervorragendem FullHD auf 4K hochskaliert, ich sage nur, dass dieser für über 99 Prozent der Betrachter nicht bemerkbar oder wesentlich ist. Mag im Cinema-Bereich oder aus Sicht von uninspirierten, arbeitslosen und gelangweilten Pixelpeepern, die sich nicht um Inhalte scheren,  komplett anders sein, keine Frage. Aber darüber reden wir im Zusammenhang mit der Z90 nicht.
Nochmal: Meine Aussagen zu 4K <> upscaled FullHD beschränken sich auf "normale" Ausgabegeräte (Monitore, moderne TVs, mobile Geräte, etc.) und Internet-Delivery. Nix Hollywood, nix Oscar-Nnominierungsambitionen, nicht einmal gewöhnliches Kino.
 Antwort von  Jott:
"an den Test der EBU welche an ner Baumarkt Sony a6300 den Rolling Shutter mit nem Tischventilator bewerten und das Testchart zu groß abgefilmt haben weil a) nur ne 100er Optik vorhanden und b) der Raum zu kurz war um die richtige Entfernung einzustellen, brauchen wir uns um "kleinste Ungenauigkeiten in der Justierung der Testtafeln" bzw. um Verkippung von Kameras KEINE Gedanken mehr machen!!„
Ein Tischventilator mit fester Drehzahl ist ja nicht doof zum Beurteilen/Vergleichen von Rolling Shutter. Bei den anderen Nummern aber - hups, Raum ist zu klein! - musste ich auch herzhaft lachen. Wie man solche Leute als unfehlbare Hohepriester des Broadcastkamera-Testings verehren kann, erschließt sich mir nicht. Auch der von wowu immer wieder (selektiv) zitierte Red-Test ist teilweise ähnlich hemdsärmelig. Unbedingt im Original lesen!
Ansonsten: geht‘s wieder darum, dass es 4K nicht gibt? Rolands liebevoller Versuch mit dem Leuchtpunkt, der ein einzelnes aus den 3840x2160 Pixeln anregt, war doch hübsch. Entspricht dem von wowu immer eingeforderten „Kacheltest“. Abgesehen davon ist es hilfreich, die angesprochenen kleinen 4K-Sonys einfach mal zu benutzen. Wer das angeekelt niemals tun würde, muss schon einräumen, dass er lediglich Theoretiker und sich zu fein ist, Aufnahmen tatsächlich mal selbst zu machen und anzuschauen.
 Antwort von  Roland Schulz:
Der Tischventilator ist deshalb ungeeignet weil der Asynchronmotor darin je nach Typ (Spaltmotor, Kondensatormaschine...) in den allermeisten Fällen nicht wie eine Synchronmaschine der Netzfrequenz folgt, damit je nach "Tageslaune" eine merklich andere Drehzahl aufweisen kann. 
Das macht einen objektiven Vergleich schwierig bis unmöglich.
Sinnvoll wäre eine Angabe zur Auslesezeit des Rolling Shutters in , wie es z.B. der "Bastler" hier tut: 
http://www.dvxuser.com/V6/showthread.ph ... his-issue!
Davon ab liegt "hier" mit Sicherheit nicht die Stärke der a6300 und a6500! 
Es geht aber eigentlich mal wieder um das leidige Thema Auflösung - und das was "man" nicht (ein-)sehen will.
 Antwort von  patrone:
JohannesM hat geschrieben:
@patrone
Nochmal: Meine Aussagen zu 4K <> upscaled FullHD beschränken sich auf "normale" Ausgabegeräte (Monitore, moderne TVs, mobile Geräte, etc.) und Internet-Delivery. Nix Hollywood, nix Oscar-Nnominierungsambitionen, nicht einmal gewöhnliches Kino.
Moin moin Johannes,
Ja das hat mir enorm weitergeholfen. Die Z90 ist also schon bestellt  - aus genau den von Dir erwähnten Gründen. Wenn ich dann mal wirklich 4K50p brauche "blase" ich jetzt das FHD auf & gut ist. Sieht lustiger weise wirklich nicht schlechter als das 4K 50p der GX10 aus. Aber das OOC 4K der Z90 ist natürlich schärfer (siehe Rolands Beispiele). Obwohl also WoWo mit seinem "… stimmt" innerhalb einer Kamera sicher Unrecht hat kann er also beim Interkameravergleich durchaus richtig liegen.  Da ich aber selbst mit dem "butterweichen" Canon 4K recht gut leben kann ist natürlich der von Euch beschriebene Weg perfekt für mich. Da ich mit der Z90 10bit FHD 4:2:2 bekomme brauche ich auch kein 4k 8bit Material mehr auf 10bit umzumodeln  (geht aber an sich in Edius super & merken tut das eh keiner – siehe Nachbar Thread (-;  )
Also Danke nochmal für Eure Tipps, hat mir wirklich sehr geholfen. 
VG, die Patrone
 Antwort von  Roland Schulz:
...und wieder die Blinden und das Sehen ;-):
GX10.jpg
Die Canon GX10 bietet zwar nicht die UHD Auflösung der Z90 oder die einer WELTKLASSEKAMERA a6500 ;-) - bietet in UHD aber trotzdem sichtbar (!!) mehr Auflösung als FHD!
Das sind doch völlig simple Vorgänge die jeder mit GIMP oder Photoshop Elements selbst nachvollziehen kann.
Das Z90 FHD 50p Bild haben wir nicht, da wird sich aber nicht mehr ergeben als beim GX10 Downscale.
P.S.: Der Downscale berücksichtigt nicht die Farbunterabtastung, bedeutet die Farbauflösung sähe in FHD noch schlechter aus!
 Antwort von  Roland Schulz:
JohannesM hat geschrieben:
Ich bestreite nicht die grundsätzlichen Unterschiede zw. 4K und hervorragendem FullHD auf 4K hochskaliert, ich sage nur, dass dieser für über 99 Prozent der Betrachter nicht bemerkbar oder wesentlich ist.
Glaube das sehen die ganzen "Schwerverbrecher" die 2K Content auf 4K HDR BluRays teuer verkaufen (leider) genau so.
Hoffentlich hast Du nie eine Begegnung mit 99 Prozent der Betrachtern (die viel Geld für 4K Equipment investiert haben) im Dunkeln!
Vielleicht einfach mal Geld in die Hand nehmen und nen 4K Display/TV kaufen und die Aussage nochmal neu bewerten. 
Ne Z90 sollte in UHD nicht die schlechteste Vorraussetzung sein da was zu erkennen...
 
 Antwort von  patrone:
Hallo Roland,
dann mal eine Frage vom Blinden. Du holst die Bilder woher? Ich kann bei slashcam nur ein 110 KB jpg runterladen. Starte doch mal mit dem orginal FHD Bild in Xf405 test,
https://www.slashcam.de/images/texte/16 ... _stabi.jpg
 das sieht bei mir jedenfalls besser als das UHD->FHD aus (mache aber vielleicht was falsch ?). Ich hab UHD original Material von der GX10 benutzt  und da ist UHD auch besser als FHD->UHD aber nicht sooo gravierend wie ich glaubte.  Bei der Z90 zeigen Deine Bilder das der Unterschied schon deutlich ist – was noch mehr für die Sony spricht. Zur WELTKLASSEKAMERA a6500 – orginal UHD->4k  liefert da aber Grütze (-; Ich finde man kann außer UHD den Rest bei der Sony (leider) vergessen.
VG, die Patrone
 Antwort von  patrone:
"Roland Schulz" hat geschrieben:
JohannesM hat geschrieben:
Ich bestreite nicht die grundsätzlichen Unterschiede zw. 4K und hervorragendem FullHD auf 4K hochskaliert, ich sage nur, dass dieser für über 99 Prozent der Betrachter nicht bemerkbar oder wesentlich ist.
Vielleicht einfach mal Geld in die Hand nehmen und nen 4K Display/TV kaufen und die Aussage nochmal neu bewerten. 
Ne Z90 sollte in UHD nicht die schlechteste Vorraussetzung sein da was zu erkennen...
... Oder sparen, warten bis man älter wird - dann kann man bei seiner Meinung bleiben ((-;
VG, die Patrone
 Antwort von  Roland Schulz:
patrone hat geschrieben:
Hallo Roland,
dann mal eine Frage vom Blinden. Du holst die Bilder woher? Ich kann bei slashcam nur ein 110 KB jpg runterladen. Starte doch mal mit dem orginal FHD Bild in Xf405 test,
https://www.slashcam.de/images/texte/16 ... _stabi.jpg
 das sieht bei mir jedenfalls besser als das UHD->FHD aus (mache aber vielleicht was falsch ?). Ich hab UHD original Material von der GX10 benutzt  und da ist UHD auch besser als FHD->UHD aber nicht sooo gravierend wie ich glaubte.  Bei der Z90 zeigen Deine Bilder das der Unterschied schon deutlich ist – was noch mehr für die Sony spricht. Zur WELTKLASSEKAMERA a6500 – orginal UHD->4k  liefert da aber Grütze (-; Ich finde man kann außer UHD den Rest bei der Sony (leider) vergessen.
VG, die Patrone
Da muss slashcam wirklich mal was machen, das führt hier wirklich sehr oft zu Verwechselungen! Da sollte man mal nen Abbildungsmaßstab daneben schreiben, wieviel Prozent das Testchart der Bildhöhe einnimmt!
Das FHD Testchart welches Du verlinkt hast ist doppelt so groß aufgenommen wie das UHD Testchart! Beide bei slashcam geposteten Aufnahmen haben nämlich eine Bildhöhe von 507 Pixeln!!
Richtig, außer in UHD ist mit ner a6300/a6500 nix zu holen.
 Antwort von  Roland Schulz:
patrone hat geschrieben:
"Roland Schulz" hat geschrieben:
Vielleicht einfach mal Geld in die Hand nehmen und nen 4K Display/TV kaufen und die Aussage nochmal neu bewerten. 
Ne Z90 sollte in UHD nicht die schlechteste Vorraussetzung sein da was zu erkennen...
... Oder sparen, warten bis man älter wird - dann kann man bei seiner Meinung bleiben ((-;
VG, die Patrone
Na ja, ich sehe auch mit 42 ohne Brille den Unterschied noch SEHR deutlich ;-)!!
 Antwort von  JohannesM:
@patrone
Für meine Bedürfnisse ist diese Kamera ideal. Weit entfernt von "perfekt", aber doch ideal. Ich reise viel - meist allein oder zu zweit - und im Flieger gibt es bekanntlich Vorgaben hinsichtlich Gewicht des Gepäcks. Mein "kleines Besteck" für Foto- + Videoreportagen:
- Z90
- Richtmikro dafür
- Funkstrecke
- Zoom H6 (auch für O-Ton)
- Stativkopf
- Sony A7R iii + 10-18 f4 OSS + 24-105 f4 OSS + 70-200 f4 OSS + 55mm f1.8 Z 
- OnCamera-Mic dafür
- Moza Air + Zweihandgriff + Remote
- Saramonic Mini Pre Amp
 - Carbon-Tripod, Carbon-Monopod
- 4 LED-Panels (2 Mini + 2 größere)
- 1x Godox Flash
- Laptop + Mobile Festplatte (auch zur Datensicherung)
- RX100 V - für unauffällige Shots + Emergency-Backup
...dazu kommen Akkus, Lesegeräte, Kabel, Dongles, Kleinkram (Speicherkarten, Lesegeräte, etc.), Sonstiges. Da sind die 20kg nicht mehr weit. Da spielt jedes noch so kleine Zusatzgewicht eine ziemliche Rolle. Für diese Anforderungen, ist das Sony-Setup wie oben beschrieben ideal. Damit kann ich auch nahezu jedes erdenkliche Szenario - für meine Bedürfnisse - abdecken.
 Antwort von  Roland Schulz:

Nochmal zum Verständnis der Testcharts die hier anscheinend öfter zu Verständnisschwierigkeiten führen. 
Sowohl das UHD als auch das FHD Testchart weisen bei Slashcam z.B. im GX10 Test eine Breite von 507 Pixeln auf. 
Bezogen auf die Bildhöhe von UHD (3840 Pixel horiz.) entspricht das 13,2%. Auf FHD (1920 Pixel horiz.) bezogen haben wir dann aber 26,4%. 
Damit wurde das Testchart in UHD halb so groß aufgenommen wie es ursprünglich mal zur Auflösungsbestimmung (nach ISO) vorgesehen war. 
Gemacht hat man das, da man kein alternatives, bekanntes und vergleichbares Chart zur Verfügung hatte und die horiz. UHD Systemauflösung genau der doppelten FHD Auflösung entspricht.
Meine Downsamplings (oben) zeigen wie das Testchart aussehen würde, wenn man es genau so groß wie bei der UHD Messung (13,2% Bildhöhe) in FHD aufgenommen  hätte (theoretisch, da die Kamera den Sensor ggf. anders ausliest) bzw. was beim Downscale des UHD Bildes auf FHD in gleicher Darstellungsgröße übrig bleibt.
So wird der Auflösungsgewinn von UHD gegenüber FHD nachvollziehbarer.
Bei Kameras die in UHD jetzt noch höher auflösen als die GX10 (z.B. die Z90, a6500) wird der Unterschied UHD > FHD folglich noch größer ausfallen.
 Antwort von  WoWu:
@ Patrone
"Da ich mit der Z90 10bit FHD 4:2:2 bekomme brauche ich auch kein 4k 8bit Material mehr auf 10bit umzumodeln (geht aber an sich in Edius super & merken tut das eh keiner – siehe Nachbar Thread (-; )"
Da hast Du etwas falsch verstanden.
Das Material bleibt 8Bit und wird nicht durch Hinzufügen von Rauschen zu 10 Bit.
Den Betrug, dass Du 8Bit als 10Bit verkaufst kann man nur schwer feststellen.
 Antwort von  Jott:
TV (normaler Bereich) verlangt ja gar kein 10Bit. Daher für diese Clientel die optionale Freischaltung von XDCAM HD 422 in den Sonys.
 Antwort von  Roland Schulz:
@Jott: die kostenpflichtige Option (CBKZ-SLMP) bietet MPEG2 HD422 (...für ewig gestrige Hinterweltsender ;-) )
Die Z90 kann aus dem Karton 10bit 4:2:2 in FHD/H.264(XDCAM) - auch wenn ich bei der ähnlichen Vorgängerin X70 da nie einen wirklichen Vorteil aus den 10bit ableiten konnte. 
Denke das gibt der DR bzw. SNR hier einfach nicht her, wobei die Z90 hier nen Quentchen besser sein wird.
 
 Antwort von  Jott:
Weiß ich, dass die in HD 10Bit kann, ich hab ja die X70. War nur eine Anmerkung wegen der 8Bit-Angst - für Broadcast HD nach Pflichtenheft muss die Kamera kostenpflichtig zu MPEG 2 8Bit quasi downgegradet werden. Hat was.
 Antwort von  Roland Schulz:
Hinterweltpflichtenheft halt - was noch nicht in die Kette investiert wurde (H.264 Fähigkeit) muss in die Kamera gedübelt werden ;-)...
 Antwort von  patrone:
WoWu hat geschrieben:
@ Patrone
Da hast Du etwas falsch verstanden.
Das Material bleibt 8Bit und wird nicht durch Hinzufügen von Rauschen zu 10 Bit.
Den Betrug, dass Du 8Bit als 10Bit verkaufst kann man nur schwer feststellen.
Deshalb der Smiley. Mir ist schon klar, dass da nicht plötzlich 2 informationstragende Bits im Hogwarts-Stealth Modus von Edius erzeugt werden. Da ich diese 10bit aber nur an die NLE zum besseren graden "weiterverkaufe" halten sich Skrupel und Gewissensbisse in Grenzen. Ist doch auch mal schön sich an Software zu rächen & zurück zu schummeln – denn seltsamerweise graded sich das geschummelte 10bit irgendwie besser. Oder ich bilde mir das alles nur ein (-;
VG, die Patrone
 Antwort von  Roland Schulz:
...ist tatsächlich so, einige LUT‘s funktionieren in EDIUS zudem erst in 10bit richtig!
 Antwort von  Jott:
patrone hat geschrieben:
denn seltsamerweise graded sich das geschummelte 10bit irgendwie besser. Oder ich bilde mir das alles nur ein (-;
Nö, keine Einbildung.
 Antwort von  godehart:
PREISINFO
wer warten kann sollte das tun. Bei der PXW-X70 gab es einen Preisdrop um fast 400€ nach ca 3-4 Monaten. Ich denke das wird hier auch wieder so sein. 
Ergonomie: eindeutig Gewöhnungsbedürftig. Aber mit der Zeit gewöhnt man sich dran. 
Den Vergleich mit der GH5 find ich allerdings nicht ganz fair. Ich habe einen Henkelmann, weil ich mir 100% sicher sein kann, dass der auch mal 90minuten oder mehr durchläuft. Und Lichttechnisch ist man mit ND-Filter und 1" Chip doch ganz gut aufgestellt.
 Antwort von  Roland Schulz:
Jan, trainiere noch ne Runde damit‘s läuft beim ADAC - nicht dass ihr den GT3 wegwerft ;-)!!
Also wenn was preisstabil war dann die X70.
Da gab‘s damals allerdings mit viel Einsatz und Hartnäckigkeit für die Early Birds noch nen ECM-MS2, Actioncam oder ne Funkstrecke dazu. Musste nen bisschen kämpfen für"s ECM-MS2, ist für"umsonst" aber echt nen gutes Ding wie ich finde!!
 Antwort von  iMac27_edmedia:
das Mikro ECM-MS2 zu bekkommen, war doch ganz einfach, klingt sogar besser als das was am Zubehörschuh des Sony Alpha 6500 Mikro-XLR-Halters steckt. Am Anfang kam es mir ein wenig rauschig vor, das hat sich aber mit der Zeit gelegt, das ECM-MS2 hatte am Anfang leicht gerauscht, kann aber auch sein, dass die Updates bia auf Version 3, das Rauschen des Handgriffs an der X70 letztendlich ausgeschalten hatten.
Jedenfalls ist die X70 ihr Geld wert, habe auch für Drehs noch zusätuzlich neben der FS7, auch die AX700, nebbst der Sony Alpha 6500.
 Antwort von  iMac27_edmedia:
Die Z90 ist mittlerweile ja auch schon für 2.800 Euro beim Sony-Händler zu haben.
 
 Antwort von  pixelschubser2006:
godehart hat geschrieben:
 Und Lichttechnisch ist man mit ND-Filter und 1" Chip doch ganz gut aufgestellt.
Du glaubst garnicht, wie! Ich bin defektbedingt auf 3x 1/3 Zoll umgestiegen und vermisse meine HXR-NX100. Die werde ich nach der Reparatur trotz neuer Kamera mit Sicherheit noch oft einsetzten. Die Sensorgröße ist einfach ein super Kompromiss zwischen EB- und Largesensor-Look. Und die Schärfe springt so deutlich, daß Du ohne Probleme beim O-Ton sauber auf das Gesicht fokussieren kannst. Das ist bei meiner neuen echt grauenhaft. Die hat auch ihre Vorteile, die Sony wiederum im Handling nicht hat, aber die 1-Zoll-Chips sind einfach geil!
 Antwort von  JohannesM:
"Roland Schulz" hat geschrieben:
Bei Lowlight kann das Ding allerdings erwartungsgemäß nicht mit S35 o.ä. mithalten. Rauschen tat die X70 auch immer etwas mehr als die AX100, da wird halt weniger gefiltert.
Kleiner Tipp gegen das Rauschen derartiger Kameras: Bekommt man die Kamera (neu) erstmalig zu fassen, einfach auf ein Tischstativ stellen, für Dauerstromversorgung sorgen, einschalten und auf eine weiße Wand oder Tuch mit ca. 6000K-Ausleuchtung  fokussieren und korrekte Belichtung einstellen, etc. Danach unbedingt defokussieren und alles 48 Stunden so stehen lassen (Kamera läuft vor strahlend weiß ausgeleuchtetem Motiv).
Mache ich und einige erfahrene Kollegen seit Jahren so (auch mit der x70) und die Geräte rauschen hinterher viel weniger. Nennt man "Sensor ausbrennen".
Disclaimer: Diese Erfahrung bezieht sich auf diese Art Kameras. Mit S35, FF, DSLR, DSLM liegen keinerlei Erfahrungswerte vor.
 Antwort von  WoWu:
Gibt es da Vergleichsmessungen oder ist das ein subjektiver Eindruck ?
 Antwort von  Roland Schulz:
...klingt nach Audio-CDs einfrieren ;-)...
Erklärung: Kamera rauscht durch die Dauerbestrahlung und damit verbundene Aufheizung mehr (!), die adaptive NR erkennt das und regelt dagegen.
 Antwort von  godehart:
JohannesM hat geschrieben:
"Roland Schulz" hat geschrieben:
Bei Lowlight kann das Ding allerdings erwartungsgemäß nicht mit S35 o.ä. mithalten. Rauschen tat die X70 auch immer etwas mehr als die AX100, da wird halt weniger gefiltert.
Kleiner Tipp gegen das Rauschen derartiger Kameras: Bekommt man die Kamera (neu) erstmalig zu fassen, einfach auf ein Tischstativ stellen, für Dauerstromversorgung sorgen, einschalten und auf eine weiße Wand oder Tuch mit ca. 6000K-Ausleuchtung  fokussieren und korrekte Belichtung einstellen, etc. Danach unbedingt defokussieren und alles 48 Stunden so stehen lassen (Kamera läuft vor strahlend weiß ausgeleuchtetem Motiv).
Mache ich und einige erfahrene Kollegen seit Jahren so (auch mit der x70) und die Geräte rauschen hinterher viel weniger. Nennt man "Sensor ausbrennen".
Disclaimer: Diese Erfahrung bezieht sich auf diese Art Kameras. Mit S35, FF, DSLR, DSLM liegen keinerlei Erfahrungswerte vor.
Tolle Idee. Ich lass meine SD-Karten vom ISO-Shamanen Lux Globolie segnen. Das bringt mindestens 1,5 Blenden.
 Antwort von  Jott:
Klingt esoterisch. Wie soll man vorher/nachher vergleichen, wenn dieses „Ausbrennen“ die erste Aktion nach dem Auspacken ist?
 Antwort von  JohannesM:
Indem man Aufnahmen die absolut gleich sind (100% gleiche Einstellungen wie Motiv, Belichtung, Blende, PP, etc.) von zwei baugleichen Kameras vergleicht: Z90 ("ausgebrannt") vs. Z90 eines Kollegen (nicht ausgebrannt). Dann einfach Night-Cityscapes bei dürftigem Licht unter absolut gleichen Bedingungen und anschließend das Footage der zwei Kameras miteinander vergleichen. Der Unterschied ist nicht esoterischer Natur und auch nicht nur für Pixelpeeper sichtbar.
Das ist einfach ein Erfahrungswert (auch mit der X70, früher mit der EX1), Vorgehensweise findet sich öfters auch in englischsprachigen Foren.
PS: Muss nicht unmittelbar nach dem Auspacken sein. ICH mache es mit jeder neuen Kamera (in dieser Klasse) unmittelbar danach.
 Antwort von  JohannesM:
WoWu hat geschrieben:
Gibt es da Vergleichsmessungen oder ist das ein subjektiver Eindruck ?
Ich bin Journalist. Die Unterschiede sind allerdings mehr als deutlich.
@godehard
Das ist nicht einmal mit großer Mühe verbunden. Gemessen an monatelangen Sinnlosdiskussionen und Hinterhoftests um Zauber-Farbprofile, wundersamen Gamma-Einstellungen, LOG-Verbiegerei & Co., eine richtig simple und mühelose Angelegenheit.
 Antwort von  Jott:
Angenommen, da ist was dran: ich würde wie Roland eher auf eine durch diese Situation irgendwie getriggerte Rekalibrierung der Rauschunterdrückung tippen.
Sollte tatsächlich am Sensor was passieren, her mit der physikalischen Erklärung. Und dann auch dazu, wieso der segensreiche Effekt dann nur bei diesen Kameras und nicht bei anderen baugleichen Sensoren eintreten soll. Man lernt ja nie aus.
 
 Antwort von  JohannesM:
@jott
Jott hat geschrieben:
Angenommen, da ist was dran: ich würde wie Roland eher auf eine durch diese Situation irgendwie getriggerte Rekalibrierung der Rauschunterdrückung tippen.
Sollte tatsächlich am Sensor was passieren, her mit der physikalischen Erklärung. Und dann auch dazu, wieso der segensreiche Effekt dann nur bei diesen Kameras und nicht bei anderen baugleichen Sensoren eintreten soll. Man lernt ja nie aus.
Wie bereits gesagt, ich bin Journalist und berichte hier über meine Erfahrungswerte. Hierzu kann ich leider keinerlei technische Erklärungen liefern.
Ich habe auch niemals behauptet, dies ginge nur bei diesen Kameras. Vielmehr habe ich gesagt, dass ich über diesbezügliche Erfahrungen lediglich im Zusammenhang mit der X70, HPX250 und Z90 berichten kann. Ich weiß von anderen Kollegen, die von ähnlichen Erfahrungen berichtet haben. Allerdings kann ich mich unmöglich an erwähnten Modellen erinnern. Es waren allerdings immer klassische ENG Kameras.
Weiterhin habe ich diese Methode bei meiner A7R iii, RX100 v und sonstigen genutzten S35-Kameras noch nie angewendet. Vielleicht habe ich mich weiter oben diesbezüglich missverständlich ausgedrückt.
 Antwort von  Jott:
Als Jungspund habe ich noch gesehen, wie so was von EB-Eminenzen bei Röhrenkameras gemacht wurde, um Einbrenner loszuwerden. Ob das damals jemand „Ausbrennen“ genannt hat, weiß ich nicht mehr ... vielleicht ein Urban Myth mit Wurzeln aus diesen Zeiten?
Nimm‘s nicht persönlich, wenn ich zweifle. Unsere kleine X70 rauscht für so eine Konstruktion extrem wenig, ganz ohne solche Aktionen. Serienstreuung?
 Antwort von  JohannesM:
@jott
US-Kollegen nennen das "burning out the sensor". Allerdings nur die owner. Festangestellte bei Sendern machen das eher nicht - zumindest nicht mit Wissen des Kasmerabesitzers/ihres Arbeitgebers (Sender).
Urban myth? Eher nicht, wenn man Vergleiche selbst gesehen hat. Serienstreuung? Möglich, keine Ahnung.
Jott hat geschrieben:
Unsere kleine X70 rauscht für so eine Konstruktion extrem wenig, ganz ohne solche Aktionen.
Da muss man lediglich damit nachts ins Bergwerk, dann rauscht die x70 / Z90 auch - filming in a dark coal mine at midnight. ;-)
Jott hat geschrieben:
ganz ohne solche Aktionen
So schlimm ist es nicht, noch nie etwas passiert und wenn, dann geht das gute Stück postwendend zum Pro Service. "Doesn't work as advertised". :-)))
Man sollte nicht so empfindlich sein, für das Geld müssen die Möhren auch einiges aushalten. Eine derart beworbene Kamera, müsste normalerweise eine ganze Woche unterbrechungsfrei aufnehmen können, ohne Schaden davon zu tragen. Und wenn doch, haben die Sony-Ingenieure schlampig gearbeitet. Wäre nicht das erste Mal. No mercy. ;-)
 Antwort von  iMac27_edmedia:
Ich finde die X70 rauscht wenig, wie auch die AX700, eine EX3 rauscht da schon mehr.
Solche Aktionen wie 2 Tage am Stück bringt bei einigen CCD-Sensoren oft als Folge, dass Bildelemente schneller altern, ausfallen und dann mit interner Prüfroutine wie bei JVC HM700 erkannt werden müssen,
da man sonst an den Stellen sichtbar defekte Pixel im Bild hat. Als Techniker sage ich, dass bei Dauerbetrieb ein Sensor eher mehr altert, gut dann rauscht vielleicht der Sensor mehr, das bekommt Elektronik mit und steuert dagegen.
Wenn man mit der Kamera fast 900 Betriebsstunden hat, stellt man fest, dass die X70 im Betrieb weniger Bildrauschen hat als alles andere, mechanisch fangen da dann schon Probleme an, Display-Aufhängung, Optik etc.
Aber andere Kameras hatten manchmal schon nach 450 Aufnahmestunden ihre ersten Macken.
 Antwort von  iMac27_edmedia:
filme oft nachts, bei 27 dB begrenzen und dann sieht es gut aus.
 Antwort von  pixelschubser2006:
Bei meiner HXR-NX100 sind 21db "Normalzustand", da habe ich bei Feuerwehreinsätzen mit vergleichsweise gut ausgeleuchteten Einsatzstellen einwandfreie Bilder, bei denen kein Rauschen auf Sendung stört. Bei 24 dB sieht man es schon spürbar stärker, ist gerade noch vertretbar.
Darf man nur nicht mit anderen Kameras vergleiche. Meine HM650 ist nur bei -6db rauschfrei, bei 0 db dB ist es schon deutlich. Bei 9dB hat die ein Bild wie die Sony bei 21. Ist dann allerdings auch genauso hell, insofern ist die Leistung beider Kameras diesbzüglich gleichzusetzen.
 Antwort von  Jott:
JohannesM hat geschrieben:
@jott
US-Kollegen nennen das "burning out the sensor“
Hast du mal irgend einen Link? Google findet dazu auf die Schnelle nichts, nur Diskussionen zu dem, was der Begriff normalerweise bedeutet(e): Sensor beschädigen durch Einbrennen.
 Antwort von  Roland Schulz:
pixelschubser2006 hat geschrieben:
Bei meiner HXR-NX100 sind 21db "Normalzustand", da habe ich bei Feuerwehreinsätzen mit vergleichsweise gut ausgeleuchteten Einsatzstellen einwandfreie Bilder, bei denen kein Rauschen auf Sendung stört. Bei 24 dB sieht man es schon spürbar stärker, ist gerade noch vertretbar.
Darf man nur nicht mit anderen Kameras vergleiche. Meine HM650 ist nur bei -6db rauschfrei, bei 0 db dB ist es schon deutlich. Bei 9dB hat die ein Bild wie die Sony bei 21. Ist dann allerdings auch genauso hell, insofern ist die Leistung beider Kameras diesbzüglich gleichzusetzen.
21dB ist noch "top" und die nächstmögliche Einstellung (24dB) ist "unbrauchbar" ;-)?! Sowas kann es eigentlich kaum geben.
Umgekehrt macht"s Sinn wenn die Kamera Multi-ISO hat, also verschiedene native ISO Stufen. 
Bei ner a6500 ist ISO400 z.B. schlechter als ISO 500 und ISO1600 schlechter als ISO2000.
 Antwort von  pixelschubser2006:
Roland, was willst Du mir da in den Mund legen? Das habe ich weder gemeint noch geschrieben.
21 dB = Rauschen sichtbar wenn man genauer hinschaut, aber unproblematisch. "Nicht sört" heißt nicht "NICHT VORHANDEN"!!
24 dB = Rauschen deutlicher, schon leicht störend, dennoch für entsprechende Situationen durchaus verwendbar.
Alles, was darüber kommt, wird nur selten benötigt, und das ist auch gut so. Ganz selten komme ich zu Einsätzen, wo das Licht so beschissen ist, daß ich die Verstärkung weiter hochdrehen muss. 
Wieviel man aber in der ganzen Kette am Ende noch davon sieht ist eine andere Frage. Meine technische Beurteilung beruht darauf, was ich auf meinem Monitor sehe. Die praktische Beurteilung bezieht sich auf das, was man "on air" noch sieht. Und da habe ich ganz andere Probleme als Rauschen, zumal der größte Teil meines Krams noch in Lokalfenstern in SD läuft. Dadurch, daß ich tlw. mit 12 MBit und weniger übertrage (dem tollen LTE- & Breitbandbandausbau in meiner Region geschuldet...) habe ich manchmal ziemliche Bildstörungen durch Kompression. Bei Tageslicht-Material fällt das nicht weiter auf. Da ich aber eben viel "Blaulicht" drehe - und das oft abends und nachts - erzeugen genau diese Lichter kuriose Störungen.
Bei alledem darf man aber nicht vergessen: Ich bin selbst sehr streng. Herumgemeckert hat an meinem Material bislang noch keiner. Höchstens wenn ich selbst mal einen Bock geschossen habe, wofür dann aber meine Kamera nichts konnte.
 
 Antwort von  Roland Schulz:
Jott hat geschrieben:
JohannesM hat geschrieben:
@jott
US-Kollegen nennen das "burning out the sensor“
Hast du mal irgend einen Link? Google findet dazu auf die Schnelle nichts, nur Diskussionen zu dem, was der Begriff normalerweise bedeutet(e): Sensor beschädigen durch Einbrennen.
Also ich habe dazu a) auch weder was gefunden noch erklärt sich das mir b) irgendwie technisch. Ich kann nen Sensor durch zu viel Licht verbrennen (Laser, Sonne...), aber wirklich schwächen oder verändern - eigentlich nicht.
Ganz ausschließen würde ich sowas aber nicht da z.B. Hifi-Junkies Verstärker etc. auch einspielen ("burn in", besonders Kondensatoren...). Viele "spielen" Hifi-Kabel "ein", andere sind dagegen noch nicht mal davon überzeugt dass Kabel überhaupt einen Einfluss auf den Klang haben.
Davon ab nimmt selbst die NASA burn-in Prozesse an elektronischen Schaltungen vor (auch hier wurden Kondensatoren genannt), mitunter dient das aber auch einfach der Feststellung der Zuverlässigkeit von Komponenten.
Bei Herstellern sieht das ähnlich aus: https://www3.panasonic.biz/ac/e_downloa ... pdf?via=ok
Auch dort "burn-in" oder aging, also künstliche Alterung die auch im Anfang meiner beruflichen Laufbahn bei Ergänzungsnetzwerken der Nachrichtentechnik (ebenfalls mit Kondensatoren) vorgenommen wurden.
Zu Silizium bzw. Bildsensoren selbst kann man vielleicht eine etwas weit hergeholte Parallele zu Solarzellen suchen. Dort wird auch von Alterung gesprochen, allerdings sind die Faktoren die dafür verantwortlich sind doch sehr verschieden. 
Soweit ich das verfolgt habe hat dem Silizium selbst bisher niemand relevante Alterung nachweisen können sondern der Verlust der Leistung liegt meist an verschmutzten/gerauten Schutzscheiben oder korrodierten Anschlusskontakten.
Bei anamorphem Silizium ist dagegen schon eine Degration nachweisbar. Hier steht seit 1977 auch der Staebler-Wronski-Effekt in der Luft - wirkliche Ursachen und Zusammenhänge sind aber wohl bis heute nicht vollständig geklärt.
Alle eventuell möglichen Zusammenhänge sprechen aber stets von einer Schwächung, wir wollen hier eine Verbesserung durch den Betrieb erzielen. 
Da selbst der ESR von Kondensatoren bei Alterung steigt würde sich auch eine Verbesserung der Spannungsversorgung hin zu weniger Rauschen der Versogrungsspannung und damit weniger Rauschen der Kamera nicht bzw. eher umgekehrt erklären.
Kurzum, vielleicht muss man wie im Hifibereich auch einfach mal fest dran glauben. Ich gehöre da auch zu denen die einiges glauben und auch "hören", ohne das immer erklären zu können. Habe sienerzeit unabhängig mit einem Freund die positive Wirkung des "Bedini Clarifiers" rausgehört (!!), und das mit nem Player dessen Laufwerk eigentlich immun gegen alles hätte sein müssen (TEAC CMK3.2). 
Zudem hören einige im Bekanntenkreis nachweislich durch Blindtest den Unterschied zwischen verschiedenen, passiven "Hifi" - USB Kabeln zwischen Rechner und DAC - alles völlig bekloppt!!!
Ich gehe "hier" weiter den Weg und behaupte dass die "heißgeschossene" Kamera mehr rauscht und damit die interne NR adaptiv stärker bügelt. Mehr "Erklärungen" habe ich dazu jetzt nicht.
Gelesen habe ich von "Sensor burn in" auch noch nichts.
 Antwort von  Roland Schulz:
pixelschubser2006 hat geschrieben:
Roland, was willst Du mir da in den Mund legen? Das habe ich weder gemeint noch geschrieben.
...mich wunderte nur:
pixelschubser2006 hat geschrieben:
...21db "Normalzustand".      gegen      Bei 24 dB ... gerade noch vertretbar.
...alles gut, wahrscheinlich falsch interpretiert!!
 Antwort von  pixelschubser2006:
@Roland
Bezüglich der "Hifi-Mythen" liegen wir wohl auf einer Wellenlänge. Vieles ist pure Esoterik, vieles eben auch nicht. Manche Sachen sind physikalisch noch erklärbar, wenn man sich denn bemühen würde. So wird man immer belächelt bez. der ohmschen Widerstände von Lautsprecherkabeln und der geringen Leitungsverluste etc. Was von den Zweiflern aber völlig ignoriert wird, ist das Thema "Ausschwingverhalten" der Lautsprecher. Der Rückschlag, wo die Lautsprecher wie Mikrofone wirken und elektrische Energie selbst erzeugen. Wenn man das mal nachrechnet, wird einem Angst und Bange. Mit dem Dämpfungsfaktor der Verstärker wurde die Thematik zwar schon ansatzweise aufgegriffen, aber in der Zeit, in der ich noch Hifi-Magazine las, nie so richtig erklärt. Jedenfalls machen ordentliche Kabel bis zu eine gewissen Grad Sinn.
Ob man Netzwerk- und USB-Kabel raushören kann... ich bin skeptisch, sage aber niemals nie. Ich habe am Rande noch beruflich mit Industrielasern zu tun. K.A. wer so krank war, die Dinger per USB ansteuern zu müssen, aber genau diese Verbindung macht dermaßen viel Ärger, wie ich es mit normaler Computertechnik noch nie erlebt habe. Jedenfalls kann ich mich an keinen Fall erinnern, wo ein heiles Gerät mit sauber funktionierenden Treibern ständig Streß wegen USB-Kabeln gemacht. Jedenfalls nicht bei 2-Meter-Leitungen. Daher halte ich in diesem Bereich einiges für möglich.
Letztendlich ist manches Vodoo, vieles aber auch physikalisch erklärbar. Nur vielleicht noch nicht jetzt und in der Oberflächlichkeit. Und wie sich viele Faktoren in der Wechselwirkung verhalten, ist noch eine ganz andere Frage. Mir hat mal ein Gespräch mit Ingo Hansen (Phonosophie) zu denken gegeben. Übrigens ein interessanter Querkopf, muss man echt mal erlebt haben! Der hat nem Kumpel und mir mal die Wirkung von Ferrit vorgeführt. Mit Ergebnissen, da wurde einem Angst und Bange. Mit Naturgesetzen auch nur schwer zu erklären, aber überzeugend.
 Antwort von  rabe131:
... jetzt 'mal ein Sprungs zur Lebensdauer aktueller bzw. nicht mehr aktueller Kameras.
Früher war es wohl eher die Auflösung oder das Bandlaufwerk, das den Geist aufgab. Wird
das Rauschverhalten der Sensoren im Laufe der Zeit schlechter? Im direkten Vergleich mit
aktuellen Kameras ist es wohl begründet, doch war die ältere Kamera anfangs besser? 
Und wie hoch wären dann die Betriebsstunden bis zu einer merklichen Verschlechterung anzusetzen?
 Antwort von  dosaris:
rabe131 hat geschrieben:
Früher war es wohl eher die Auflösung  , das den Geist aufgab. 
versteh ich nicht:
wie soll sich die Auflösung verschlechtern?
rabe131 hat geschrieben:
Wird das Rauschverhalten der Sensoren im Laufe der Zeit schlechter? ... war die ältere Kamera anfangs besser? 
Und wie hoch wären dann die Betriebsstunden bis zu einer merklichen Verschlechterung anzusetzen?
naja ,
das mit dem EInbrennen war ja schon in Vidicon-, Plumbicon-Zeiten als Problem bekannt.
Besteht bei Silizium-Chip im Prinzip (abgeschwächt) auch.
Aber es parkt ja niemand seine Cam so, dass die ständig in die Sonne sieht.
Also immer Deckel drauf.
Genaue Angaben zur Empfindlichkeit-Degression kann wohl nur
der Sensor-Hersteller rausrücken (aber der tut das wohl nicht).
Hängt ab von der Chip-Silizium-Legierung bzw -Dotierung, CCD vs CMOS, usw
Aber wenn man nicht in die Sonne schaut würde ich eine merkbare Degression 
frühestens ab 5'000 Betriebsstunden erwarten. 
Mit Angst-UV-Filter davor eher noch später.
 Antwort von  godehart:
rabe131 hat geschrieben:
... jetzt 'mal ein Sprungs zur Lebensdauer aktueller bzw. nicht mehr aktueller Kameras.
Früher war es wohl eher die Auflösung oder das Bandlaufwerk, das den Geist aufgab. Wird
das Rauschverhalten der Sensoren im Laufe der Zeit schlechter? Im direkten Vergleich mit
aktuellen Kameras ist es wohl begründet, doch war die ältere Kamera anfangs besser? 
Und wie hoch wären dann die Betriebsstunden bis zu einer merklichen Verschlechterung anzusetzen?
Nach 3 Jahren mit der PXW-70 kann ich keine Verschlechterungen feststellen. Wer seine Kamera esoterisch (weil ohne Fakten) so pimpen möchte kann das tun, ich würde sojemanden jedoch keine gebrauchte Technik abkaufen. Ich kann bestätigen, dass die X70 auch noch bei +21db brauchbare Bilder liefert. 
"Einbrennen" an sich kann sehr problematisch sein. Eine 5D MKIII hat bei einem Dreh in Äquatornähe ziemlich gelitten. 2 winzige Staubkörner haben sich so auf den Sensor gesetzt, dass selbst der Canon Pro Service meinte "Sensorwechsel bitteschön, 600€" 
Das passiert wenn man die Cam lange in Betrieb hat und die Sensortemp dadurch konstant hoch ist. Mit ML kann man die ja sehen. Ärgerlich. Aber daran sieht man ganz gut, dass DSLR eben nicht für Dauerbetrieb ausgelegt sind.
 Antwort von  dosaris:
"Roland Schulz" hat geschrieben:
Zudem hören einige im Bekanntenkreis nachweislich durch Blindtest den Unterschied zwischen verschiedenen, passiven "Hifi" - USB Kabeln zwischen Rechner und DAC - alles völlig bekloppt!!!
oft setzen hierzu die Berichte auf Schein-Korrelationen:
in einem HiFi-Magazin las ich über die "Übertragungsqualität von Audiokabeln"
Verglichen wurden aber (wenn man genau gelesen hat) LS-Kabel der gleichen Preisklasse.
Und dann war es auch nicht mehr esoterisch, denn der Leitungsquerschnitt war nicht deklariert.
Zu geringer Querschnitt hat höheren Widerstand, was zu schlechterer Rückdämpfung führt.
Aber den Preis für den Vergleich zu referenzieren war natürlich Unfug.
Wahrscheinlich wäre das billigste 2.5 mm² NYMHY besser gewesen aus das teuerste
1.5 mm² superduper Audio-Ultra-Plus-Kabel.
Ähnliches konnte ich mit unterschiedlichen HDMI-Kabeln feststellen:
reproduzierbar schlechteres Bild auf dem Monitor mit einem spez Kabel.
Aber es spukt wohl trotzdem nicht:
höhere (frequenzabhängige!) Kabeldämpfung führt uU auch zu höheren Bitfehlern in der Übertragung,
die auf HDMI-Strecken nicht per FEC korrigiert werden.
Dasselbe miese Kabel kann aber durchaus an einem anderen Display
problemlos funktionieren: vielleicht bessere Impedanzanpassung, 
vielleicht bessere Signal-Regenerierung auf der RX-Seite usw.
Das gleiche gilt für USB-Kabel, deren Übertragungsqualität für etliche
Verbindungen gerade so an der Kante sein kann, sodass mehr oder weniger Bitfehler auftreten.
Die Übertragungsgeschwindigkeit wird bei USB ausgehandelt. Beim nächsten Releaseupdate 
kann also dieser Aushandlungsprozess bei derselben Hardware wieder andere Resultate liefern, 
mit mehr od weniger Übertragungs-Fehlern.
Leider ist auf den Kabeln (fast) nie aufgedruckt um welche Qualitätsklasse es sich handelt.
 Antwort von  Roland Schulz:
Soviel dazu, der Kabelquerschnitt von analogen Audioleitungen hat keinen zwingenden Zusammenhang aus steigendem Querschnitt folgt "besserer" Qualität! Auch der Dämpfungsfaktor eines Verstärkers muss nicht zwingend niedrig = besser sein. 
Denke Accuphase hat nicht den schlechtesten Ruf - deren Dämpfungsfaktor liegt vergleichsweise niedrig/Impedanz hoch. 
Also brauche ich auch kein Kabel mit möglichst niedrigem Innenwiderstand.
Beim Test mit dem USB Audiokabel war ich selbst mit dabei und habe auch selbst nicht nachvollziehbar umgesteckt. Das Kabel wurde jedes Mal eindeutig herausgehört! 
Ich hab da auch was "gehört", allerdings waren bei mir auch einige "Blindgänger" dabei in denen ich mich anders entschieden hatte.
Ich hab allerdings auch so"n Kabel dran - zur Optik und für"s gute Gewissen ;-)!
Gerade bei einer USB Verbindung mit asynchroner Übertragung steige ich aus warum es da besser werden könnte. Ich meine wenn ich Daten auf ne USB HDD kopiere sind die auch bitgenau - oder die Platte hat nen Schaden.
Bei analogen Audiokabeln bin ich allerdings überzeugt dass es da heftige Unterschiede gibt. Selbst meine Partnerin die mit dem ganzen Zeugs nix an der Backe hat hat Veränderungen ähnlich beschrieben wie ich.
Das erklärt alles aber nicht warum die Kamera nach "burn in" oder "out" weniger rauschen soll als aus dem Karton. Üblicherweise müsste das Rauschen steigen, nämlich mit der Erwärmung der Komponenten.
Denke wir werden dazu hier aber auch nichts mehr weiter hören oder referenziert bekommen...
Esoteric halt... zurück im Audiobereich dann z.B. mit der TEAC Tochter https://www.esoteric-highend.eu/.
 Antwort von  iMac27_edmedia:
man stellt z.B. fest, dass die höherwertigeren SonyKabel das Update zulassen, bei einfacheren USB-Kabeln, klappt es nicht mal das Update richtig zu starten oder korrekt abzuschliessen, deswegen gibt es da schon deutliche Qualitätsunterschiede.
 
 Antwort von  JohannesM:
@Roland Schulz
Esoterisch? Verfolgt man bis zu einem gewissen Grad exzessiv geführte Forendiskussionen zu PPs, LOG, etc. und betrachtet man anschließend die nüchterne Realität, wohl kaum. Ich habe hier lediglich eine eigene Erfahrung dargelegt - nicht abgeguckt oder kopiert von irgendwelchen halbgaren Reviewern oder 40-jährigen Noch-Pubertierenden, die noch nie in ihrem Leben mit dem Fotografieren/Filmen ernsthaftes Geld verdient haben. Ich habe dies so mit der EX1, HPX250, X70 und jetzt mit der Z90 gemacht. Zu meiner Zufriedenheit.
Ob das jetzt Esoterik ist oder nicht, mag jeder für sich selbst entscheiden. Ich jedenfalls und einige Kollegen sehen Unterschiede zu nicht "ausgebrannten" Sensoren desselben Modells und meine Kameras ernähren mich und meine Familie auskömmlich. Wenn die Ergebnisse und die Kundenzufriedenheit stimmen, bin ich gern Esoteriker. :-)
Ich verstehe die Aufregung nicht - man muss es doch nicht machen. Man kann es als Esoterik beiseite schieben und die 8K/14bit-Diskussionen um "zukunftssichere" Urlaubsaufnahmen weiterführen und vom Cinematic Look der Jahre 2025-2030 schwadronieren. Armchair chartography ist Trend du jour...
 Antwort von  Jott:
Der Link zu den amerikanischen Kollegen, die das so handhaben, wäre halt mal interessant gewesen.
 Antwort von  Roland Schulz:
Die Links von Berichten „die das auch alle so machen“ hätten mich auch mal interessiert - da finde ich nicht einen einzigen dazu!!
Meine Autos fahre ich allerdings auch immer noch ein...
 Antwort von  iMac27_edmedia:
auch wenn man auf allen möglichen amerikanischen Seiten sucht, keiner berichtet dort, dass er seinen Chip ausbrennt. Lange Nutzungszeit am Stück ist eigentlich kontraproduktiv für heutige Sensoren. Da könnte ja auch gleich einer die Kamera 120 Tage am Stück eingeschaltet lassen und dann monieren dass die innerhalb der Garantie kaputt ist, wenn dann aber die Betriebsstunden und der Zeitraum ausgelesen wird, dass dann Sony sagt, ne da sind sie selbst Schuld. Es gibt zwar eine Garantie und die betrifft Herstellungsfehler, aber nicht Fehlbedienung, wie manche Laserstrahl auf Sensor bekommen und behaupten dass sei ein Herstellungsfehler.
 Antwort von  Roland Schulz:
...sehe ich auch so, das erklärt sich überhaupt nicht und Referenzen gibt"s zum "Einfahren" von Kameras null komma nix.
 Antwort von  olimedia:
Es ist halt wie immer, wenn man in der Camcordergeschichte zurückschaut, sieht man, was in der Zukunft kommen wird. HD kam bei den bezahlbaren Kams erst mit HDV, AVCHD, XDCAM mit 420, als dann die ersten 4k Camcorder aufkamen, wurden die Camcorder mit 50p, 422 und 10Bit ausgestattet. Jetzt kann man perfekt in Full HD arbeiten. Wenn dann mal die ersten 6k / 8k Kameras auf den Markt kommen, wird der Nachfolger der Z90 4k mit 50p und 422 beherrschen. Meiner Meinung nach hält ganz besonders Sony diese Technologien absichtlich zurück, um alle drei Jahre ein neues Modell vorstellen zu können..
 Antwort von  patrone:
Hi,
ja das hatten wir alles schon. Aber was tun? Sony, Canon und Panasonic können es sich scheinbar leisten den Camcorder Markt auszutrocknen. Das werden die Strategen schon errechnet haben. Verkaufen wir halt mehr 4K Fotoknipsen (OK Canon hält sich da bisher auch zurück). Über Sinn und Unsinn dieser Strategie können wir hier lange klagen. Fakt ist das Zeug ist auf dem Markt so wie es ist und wer jetzt filmen will und nicht erst anfangen wenn 8K da ist der wird auch Workarounds für die offensichtlich beschnittenen Features finden (25p, WW, Farben – you name it). Nicht optimal aber vielleicht die Kreativität fördernd. Die Perfektionisten Fraktion wartet halt weiter – genau wie bei der Abgabe der Studienarbeit. Die "an mein Auge lasse ich nur die Besten Geräte"  testet halt weiter immer neue Modelle. Die Trickser und Improvisatoren schummeln sich durch - wie überall (-; 
VG, die Patrone