... und was bringt's, wenn dadurch das Aliasing noch schöner abgebildet wird und das Format immer noch 4:2:0 ist? Insofern ist es höchstens bemerkenswert, dass die Hacker die Parameter des H.264-Codecs gefunden haben.
Bei einer höheren Datenrate sage ich auch so nicht nein. Wirkliche Nachteile bringts ja auch nicht.
Man kann 422 Signal mit der schäbigen Auflösung einer HVX200 bei 100mbit oder mit einer etwas schärferen Sony bei 50mbit speichern - haben doch auch sehr viele zur HVX gegriffen.
Man kann die Datenrate auf 500 Mbit/s erhöhen und erreicht keine Bildverbesserung, solange man die Profile-Tools nicht verändert.
Um dies aber erfolgreich zu bewerkstelligen müsste man sie zunächst einmal implementieren und selbst dann ist kein besseres Bild gewährleistet, weil man noch den leistungsschwachen Prozessor austauschen müsste, um andere Profiles überhaupt benutzen zu können.
Eine höhere Datenrate wird weitestgehend in NULLEN in der Speicherung abgebildet .... das wirkt sich nur auf teure Speicher aus und auf Probleme im Bildmanagement der Speicherkarte, weil auch die Prozessoren (ohne Not) mehr Leistung erbringen müssen.
Höhere Datenrate heisst ausserdem nicht gleichzeitig andere Farbabtastung.
Klassischer Fall von nicht verstandenem Codec.
@ Wowu: Danke für die Aufklärung, auch wenn´s schade ist. Aber verhält sich´s dann mit dem GH1-Hack aka GH13 genauso und der ganze Hype war für den A...?
Anders als bei alten Codecs, bei denen eine gewisse Abhängigkeit zwischen Datenrate und Bildqualität bestand, verbessert sich die Bildqualität moderner Codecs ausschliesslich mit den zur Anwendung kommenden Tools oder aber eben dadurch, dass man zusätzliche I-Frames einfügt.
Das alles ist aber Bildprocessing und hat herzlich wenig mit dem Datenstrom zu tun, der abgespeichert wird.
Das ist wie ein Güterzug, an den man mehr Wagons anhängt, die aber alle leer sind.
Solange man also diese Wagons nicht mit sinnvollen Inhalten füllt, sind sie nur Ballast, die negative Auswirkungen haben.
Solange in solchen Hacks also nichts am Bildprocessing geändert wird, nutzt auch keine Erhöhung des Datenstroms.
Ganz im Gegenteil .... es treten verstärkt Probleme, z.B. im Speichermanagement auf.
Auch am Aliasing ändert das absolut nichts, weil der Effekt überhaupt nichts mit der Datenrate zu tun hat sondern ein rein analoges Abtastproblem ist.
Insofern trifft das alle Hacks von Kameras mit modernen Codecs.
Meistens sind die Prozessoren in solchen Kameras auch so leistungsschwach, dass bereits zu solchen Hilfsmaßnahmen, wie das vermehrte Einsetzen von I-Frames gegriffen wird, weil der Prozessor die kompletten Tools der Codecs gar nicht nutzen kann.
Daher haben solche Kameras auch im Vergleich zum Camcorder eine höhere Datenrate.
Das ist aber kein Zeichen dafür, dass das Bild besser ist sondern eher ein Zeichen dafür, dass das (on Board) Processing so schwach ist denn zusätzliche I-Frames setzen natürlich mehr Datenrate voraus.
Daher ist es auch nicht wirklich möglich, anhand der Datenrate überhaupt eine Aussage über eine mögliche Bildqualität zu treffen, weil man wissen muss, wie das Profile aussieht und wie der Datenstrom sich zusammensertzt.
Die alte Regel: mehr Bitrate=mehr Qualität ist mittlerweile absouter Quatsch.
Der Codec der Kameras ist also weitestgehend eine Abstimmung zwischen Leistungsfähigkeit der Hardware und machbarer Bildqualität.
Will man bessere Bilder, muss mehr HW-Leistung rein und zusätzlich die erforderlichen Tools implementiert werden. Dreht man lediglich die Datenrate hoch, sind die Container, bis auf ein paar nutzlose Metadaten, alle leer.
Stimmt leider nicht.... Physik ist keine Spekulation sondern elementarer Bestandteil der Geräte und wäre sie nicht reproduzierbar, würde keines solcher Geräte funktionieren (und/oder) jedes anders.
Solche Bildvergleiche sind eher Subjektiv, denn identische Bilder wird man kaum zu vergleichen erzielen können und jeder von uns weiss, dass bereits geringste Änderungen im Bild (jedenfalls bei Bewegtbild) schon zu drastischen Konsequenzen in der Bildperformanz führen.
Was also willst Du vergleichen, das absolut identisch sein muss ?
Und ist es identisch, wirst Du sehen, dass die Physik es zuvor beschrieben hat.
Was willst Du denn daran vergleichen, abgesehen davon, dass die DB die 8 Bit nur als Ausgangssignal führt, nicht aber als Video, ist sie SD, hat einen völlig anderen Codec, kommt aus einem andern Sensor und ist mit andern Optiken aufgenommen. Was also davon willst Du vergleichen ?
Um ehrlich zu sein, ich würde keines der Signale "bevorzugen", weil sie beide aus völlig unterschiedlichen Gründen mit "Macken" behaftet sind.
Welches wäre also das kleinere Übel müsste die Fragestellung sein.
Ich habe bis jetzt mit DigiBeta gedreht und nun haben wir die Eos 5D Mark II zur Verfügung. Da sich zur Zeit alles um HD dreht, will auch der Kunde wissen, ob die Qualität mit der EOS nicht besser wäre. Die Frage wäre, soll ich bei SD bleiben oder auf diese HD wechseln?
Kedi, das kommt auf die Anforderungen Deines Kunden an ... wenn er HD Produkte zukünftig verlangt, schliesst das die Beta schon mal aus.
Allerdings wirst Du, wenn Du DB gewohnt bist zu arbeiten, mit der 5D eine ziemlich lange Einarbeitungsphase haben, bevor Du kommerziell verwertbare Bilder generierst.
Wenn die Anforderung HD heisst, gibt es genügend andere, gute Recorder, die dir sowohl den Umstieg einfach machen, als auch kommerziell verwertbare Bildqualitäten liefern, die auch von Broadcastern beispielsweise akzeptiert werden, was bei der 5D nicht unmittelbar der Fall ist.
Kid,
die Frage kann ich Dir nicht beantworten, weil es auch hier auf das "Ziel" ankommt.
Wofür sollen die Bilder sein, wer soll sie abnehmen, welches Objektiv sitzt davor, wie sind die Bildinhalte, welches Aufnahmeformat (intern/extern) benutze ich von der EX ... alles Fragen, die zu einer Antwort bedacht werden müssen.
Grundsätzlich sind Adapterkombinationen ja nicht automatisch schlecht, nur weil es neue Verfahren gibt. Nur hier taucht auch die Frage auf, ob sie deshalb grundsätzlich GUT sind.
Die DSLR Formate liefern vordergründig auch keine "schlechten" Videobilder, haben aber eben ihre Einschränkungen, die sie oft nicht verwertbar machen.
Müsste ich mich also zwischen den beiden Verfahren entscheiden, würde ich heute, trotz aller Einschränkungen, sicher DSLR nehmen, weil die Handhabung der Adapterlösung (und auch die Probleme mit manchen Adaptern) nicht mehr der Länge meines "Geduldsfadens" entspricht.
Bei mir müssen Aufnahmen auch innerhalb eines vertretbaren Zeitraums "drin" sein, was von einer Adapterlösung nicht immer erfüllt wird.
Dennoch sehen die Bilder eines Adapters (durch die Mattscheibenbewegung) anders aus als die "sterile" Oberfläche eines DSLR Videos. Optisch, wie ich finde, ästhetischer.
Aber das ist dann wieder eine Frage des Bildinhaltes und der Vorstellung wie das Ergebnis wirken soll.
Tut mir Leid, dass ich Dir da keine Ja/Nein-Lösung präsentieren kann, aber wenn Du mal beide Varianten derselben Testszene aneinander hängst, wirst Du sehr schnell sehen, was ich meine.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.