Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kameras Allgemein-Forum

Infoseite // CinemaDNG Raw-Videoaufnahme jetzt mit Android-Smartphones



Frage von cantsin:


IMHO ein echter Hammer: Soeben ist eine Open Source Android-App erschienen, mit der (noch experimentell) 10bit CinemaDNG-Smartphone-Aufnahmen möglich sind.

Hab's direkt installiert und ausprobiert - und es funktioniert! Im CinemaDNG wird das volle 4:3-Sensorbild aufgezeichnet. Hier ein Framegrab eines fast unbearbeiteten Frames (Farbsättigung verstärkt im Raw-Tab) aus Resolve, aufgenommen mit einem Google Pixel 5:
1.2_1.2.1.jpg In Resolvce lassen sich alle CinemaDNG-Raw-Parameter für das so aufgenommene Material einstellen - Farbraum, Gamma, Weissabgleich, Highlight Recovery, etc.


Homepage der App: https://play.google.com/store/apps/deta ... .motioncam
Im Google App-Store: https://github.com/mirsadm/motioncam/releases

Mehr dazu:
https://www.diyphotography.net/you-can- ... motioncam/

https://www.youtube.com/watch?v=-i_TvErm3C0

Erstes Demovideo:
https://www.youtube.com/watch?v=slUvVN3VqJY&t=4s

Space


Antwort von -paleface-:

Kann man damit die Framerate wählen?

Weil das ist meiner Meinung eines der Hauptprobleme bei Handyvideos. 30fps oder irgendwas anderes meist krummes.

Space


Antwort von roki100:

Aber das kann nur funktionieren, wenn der Linux/Android Kernel bzw. kompilierte Kamera Treiber/Modul mit 10Bit+ ausgestattet ist?
Ansonsten handelt es sich zwar um 10Bit CDNGs, in Wirklichkeit aber alles nur 8Bit?
Und der Sensor muss auch mehr als 8Bit unterstützen.

Wenn all das der Fall ist, dann ist das natürlich TOP! :)

Space


Antwort von roki100:

cantsin hat geschrieben:
1.2_1.2.1.jpg
Das Foto vom Hund ist aber wirklich niedlich! :)))

Space


Antwort von cantsin:

-paleface- hat geschrieben:
Kann man damit die Framerate wählen?
Ja, 24p, 25p und 30p bei meinem Pixel 5. WB, Fokus und Belichtung lässt sich bisher nur arretieren, nicht mit manuellen Werten einstellen.

Space


Antwort von cantsin:

roki100 hat geschrieben:
Aber das kann nur funktionieren, wenn der Linux/Android Kernel bzw. kompilierte Kamera Treiber/Modul mit 10Bit+ ausgestattet ist?
Fast alle besseren Android-Smartphones können 16bit DNG-Stills via das Android Kamera-API aufnehmen. Hier scheint sich diese App einzuklinken. (Sie kann optional auch 16bit CinemaDNG aufnehmen.)

Das CinemaDNG-Material aus der App und dem Pixel 5 ist definitiv nicht 8bit, wie ich bei der WB-Einstellung in Resolves Raw-Tab leicht feststellen konnte.

Space


Antwort von roki100:

Stimmt, habe ich daran nicht gedacht, also macht es quasi CDNG Bilder als Frames! Na dann kann iPhone 13 einpacken! ;))

Habe ich getestet, mit P30 hat man komische grüne Bilder, wahrscheinlich weil der sensor irgendetwas spezielles ist bzw. kein RGGB sondern irgendetwas anderes (keine Ahnung wie das hieß).

Space


Antwort von -paleface-:

Wo speichert der das hin auf dem Telefon?

Such mir grad nen Wolf.

Bei meinem Huawai P20 pro bricht der nach 6sek ab.

Space


Antwort von roki100:

-paleface- hat geschrieben:
Wo speichert der das hin auf dem Telefon?

Such mir grad nen Wolf.

Bei meinem Huawai P20 pro bricht der nach 6sek ab.
schau dir das Video "How to shot RAW..." oben an, da wird alles genau erklärt.

Space



Space


Antwort von cantsin:

-paleface- hat geschrieben:
Wo speichert der das hin auf dem Telefon?

Such mir grad nen Wolf.

Bei meinem Huawai P20 pro bricht der nach 6sek ab.
Du musst im "Raw Video"-Tab in den Menüpunkt "Process Videos" gehen und dann bei den (als Zip-Dateien gelisteten) Videoaufnahmen auf "Process" klicken. Beim ersten Mal wirst Du nach dem Zielordner gefragt und kannst den frei definieren. Ich habe mir "DCIM/CinemaDNG" eingestellt; die CinemaDNG-Ordner landen dann als Unterordner in diesem Verzeichnis.

Falls Dein Telefon hakt, kannst Du in den Programmeinstellungen u.a. den RAM-Verbrauch erhöhen, der per Standard auf 512 MB steht. Kann aber sein, dass die etwas ältere Hardware des P20 Pro an ihre Grenzen kommt. (Hat das P20 Pro auch vor meinem heutigen Pixel 5.)

Außerdem bin ich mir nicht sicher, ob das abweichende Quad-Bayer-Sensorfilter-Array (u.a. mit Gelb- statt Grünfiltern) des Huawei in Resolve funktioniert. Ich konnte die DNGs des P20 Pro schon damals nicht in RawTherapee & Co. brauchbar bzw. ohne Falschfarben bearbeiten.

Space


Antwort von iasi:

cantsin hat geschrieben:
roki100 hat geschrieben:
Aber das kann nur funktionieren, wenn der Linux/Android Kernel bzw. kompilierte Kamera Treiber/Modul mit 10Bit+ ausgestattet ist?
Fast alle besseren Android-Smartphones können 16bit DNG-Stills via das Android Kamera-API aufnehmen. Hier scheint sich diese App einzuklinken. (Sie kann optional auch 16bit CinemaDNG aufnehmen.)
Wären dann auch 12bit möglich?

Aber auch mit 10bit:
Das ist schon sehr beeindruckend.

Die Datenmengen müssen aber eben auch bewältigt werden.
Und wenn man wie er im Video croppen muss, ist der Raw-Vorteil ziemlich verwässert.
Dann doch lieber ProRes HQ vom ganzen Sensor.
Zumal die meisten Smartphones ja nicht mit Auflösung geizen.

Das erinnert an ML bei der Canon 5d2.

Space


Antwort von cantsin:

Hier meine Testaufnahmen (CinemaDNG 10bit 4032x3024 Pixel in der Kamera, gemastert mit 2048x1556 Pixel). Wirklich nichts interessantes - hatte über die App auf meinem Nachhauseweg gelesen, sie unterwegs installiert und dann auf den letzten paar hundert Metern laufen lassen:

https://vimeo.com/653038689

Download (als 20Mbit/s h264 ) hier: https://vimeo.com/fcr/download/653038689/75e96b3370

Workflow: interpretiert in Resolve mit Gamma 'Blackmagic Design Film' und Farbraum 'Blackmagic', Sättigung in den Raw-Parametern auf Wert 15 verstärkt, keine Nachschärfung, Entrauschung mit Neat Video Pro (temporale Entrauschung mit 75% Node-Key Output), teilweise leichte Stabilisierung und leichte Luma-Korrekturen.

Das Problem ist noch, dass die Aufnahmen bei mir teilweise an Framedropping leiden. Werde hier noch weiter mit höheren RAM-Buffern und ggfs. Crop-Auflösung experimentieren.

- Erstaunlich übrigens, wie gut die heutigen Smartphone-Sensoren bei Schwachlicht und hohen Motivkontrasten sind (und wieviel Zeichnung das Bild noch in Schatten und Spitzlichtern hat), auch wenn das rohe Bild ausgelesen und keine computational photography-Tricks angewendet werden.

Space


Antwort von roki100:

ich habe kein Dropframes mit P30 (Crop 2764x2074), lässt sich alle manuelle einstellungen bedienen....ist aber alles in grün :) Schade...!

Space


Antwort von mash_gh4:

roki100 hat geschrieben:
ich habe kein Dropframes mit P30 (Crop 2764x2074), lässt sich alle manuelle einstellungen bedienen....ist aber alles in grün :) Schade...!
ja -- es sind sind sicher noch ein paar kleinigkeiten auszumerzen, aber das sollte ja bei open source software immerhin für jeden interesierten möglich sein.

bei mir hier gibt's auch das problem, dass die app beim kamera- bzw. brennweitenwechsel auf IR-kamera für gesichtserkennung umschaltet, statt die normalbrennweite zu nutzen. das sind halt so die android-typischen schwächen, die sich aber ohnehin leicht fixen lassen.

insgesamt ist es aber trotzdem eine beeindruckende software, die auch wirklich in ganz wunderbarer weise umgesetzt wurde. wenn man sich den code ansieht, schaut auf den ersten blick alles ausgesprochen einfach, klar und übersichtlich aus, wie man es kaum besser hinbekommen könnte.

Space


Antwort von roki100:

mit darktable habe ich ein sauberes Bild! https://www.darktable.org
Das sieht super aus!
Nur weiß ich nicht was ich genau gemacht habe damit es normal aussieht! ;)) Teste ich weiter morgen...

Space


Antwort von Darth Schneider:

Das wird ja alles gar nix bringen, weder ProRes noch RAW.
Weil ja immer noch Dreiviertel der Leute heute nicht mal wissen das man das Smartphone beim filmen besser nicht hochkant halten sollte.
Was sollen die Leute mit Raw Video denn anfangen ?

Und das jetzt RAW Video noch kommen muss, war ja schon klar vorauszusehen, nämlich von dem Moment an als Apple mit ProRes im iPhone aufkreuzte…
Schlussendlich ist das doch wieder nur ein zusätzliches Spielzeug, im Smartphone drin, genau so wie ProRes auch.
Mit dem einzigen wahrhaftigen Sinn dahinter:
„Komm und kauf mich schnell“ Oder „ lade mich schnell herunter“
Lasst euch besser nicht von solchen Gimmiks zu fest blenden.

Ohne heftige Kompromisse wird das doch aber am Schluss eh nichts…;)
Mir fällt auch kein einziges sinnvolles Szenario ein, warum das jemand wirklich brauchen sollte. (ausser zum pixelpeepen)
Genau so wie die iPhones eigentlich auch überhaupt kein ProRes brauchen.
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Das wird ja alles gar nix bringen, weder ProRes noch RAW.
Weil ja immer noch Dreiviertel der Leute heute nicht mal wissen das man das Smartphone beim filmen besser nicht hochkant halten sollte.
Was sollen die Leute mit Raw Video denn anfangen ?

Und das jetzt RAW Video noch kommen muss, war ja schon klar vorauszusehen, nämlich von dem Moment an als Apple mit ProRes im iPhone aufkreuzte…
Schlussendlich ist das doch wieder nur ein zusätzliches Spielzeug, im Smartphone drin, genau so wie ProRes auch.
Mit dem einzigen wahrhaftigen Sinn dahinter:
„Komm und kauf mich schnell“ Oder „ lade mich schnell herunter“
Lasst euch besser nicht von solchen Gimmiks zu fest blenden.

Ohne heftige Kompromisse wird das doch aber am Schluss eh nichts…;)
Mir fällt auch kein einziges sinnvolles Szenario ein, warum das jemand wirklich brauchen sollte. (ausser zum pixelpeepen)
Genau so wie die iPhones eigentlich auch überhaupt kein ProRes brauchen.
Gruss Boris
Es ist aufgrund der technischen Entwicklung nun eben technisch möglich und daher war klar, dass es auch irgendwann genutzt wird.
Nur sind eben auch noch Limitierungen vorhanden. Die hohe Sensorauflösung lässt sich eben mit 24fps in unkomprimierter Weise (noch) nicht wegschreiben.

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Das wird ja alles gar nix bringen, weder ProRes noch RAW.
Weil ja immer noch Dreiviertel der Leute heute nicht mal wissen das man das Smartphone beim filmen besser nicht hochkant halten sollte.
Was sollen die Leute mit Raw Video denn anfangen ?

Und das jetzt RAW Video noch kommen muss, war ja schon klar vorauszusehen, nämlich von dem Moment an als Apple mit ProRes im iPhone aufkreuzte…
Schlussendlich ist das doch wieder nur ein zusätzliches Spielzeug, im Smartphone drin, genau so wie ProRes auch.
Mit dem einzigen wahrhaftigen Sinn dahinter:
"Komm und kauf mich schnell" Oder " lade mich schnell herunter"
Du vergleichst beinahe im Wortsinne Äpfel mit Birnen. ProRes in den iPhones ist ein Marketing-Gimmick, der in der Praxis nicht viel bringt (und nicht einmal die Probleme der iPhone-Videoaufzeichnung, Rauschfilterung und Nachschärfung abstellt).

Diese CinemaDNG-App hingegen ist ein nichtkommerzielles Open Source-Projekt von unabhängigen, ehrenamtlichen Entwicklern, das es Android-Besitzern ermöglicht, die Kamera ihres Smartphones ohne Googles proprietäre Bildalgorithmen zu verwenden und mit dem Smartphone Video ohne die sonst üblichen Bildglättungen und auf 8bit beschränkte Farbauflösung aufzuzeichnen.

Ist doch toll, wenn man auf diese Weise das schon vorhandene Smartphone als B-Cam zu seiner Blackmagic oder sonstigen Kamera geschenkt bekommt. Das ist genauso ein Geschenk für Videomacher wie MagicLantern für alte Canon-Kameras.

Space



Space


Antwort von iasi:

cantsin hat geschrieben:
"Darth Schneider" hat geschrieben:
Das wird ja alles gar nix bringen, weder ProRes noch RAW.
Weil ja immer noch Dreiviertel der Leute heute nicht mal wissen das man das Smartphone beim filmen besser nicht hochkant halten sollte.
Was sollen die Leute mit Raw Video denn anfangen ?

Und das jetzt RAW Video noch kommen muss, war ja schon klar vorauszusehen, nämlich von dem Moment an als Apple mit ProRes im iPhone aufkreuzte…
Schlussendlich ist das doch wieder nur ein zusätzliches Spielzeug, im Smartphone drin, genau so wie ProRes auch.
Mit dem einzigen wahrhaftigen Sinn dahinter:
"Komm und kauf mich schnell" Oder " lade mich schnell herunter"
Du vergleichst beinahe im Wortsinne Äpfel mit Birnen. ProRes in den iPhones ist ein Marketing-Gimmick, der in der Praxis nicht viel bringt (und nicht einmal die Probleme der iPhone-Videoaufzeichnung, Rauschfilterung und Nachschärfung abstellt).

Diese CinemaDNG-App hingegen ist ein nichtkommerzielles Open Source-Projekt von unabhängigen, ehrenamtlichen Entwicklern, das es Android-Besitzern ermöglicht, die Kamera ihres Smartphones ohne Googles proprietäre Bildalgorithmen zu verwenden und mit dem Smartphone Video ohne die sonst üblichen Bildglättungen und auf 8bit beschränkte Farbauflösung aufzuzeichnen.

Ist doch toll, wenn man auf diese Weise das schon vorhandene Smartphone als B-Cam zu seiner Blackmagic oder sonstigen Kamera geschenkt bekommt. Das ist genauso ein Geschenk für Videomacher wie MagicLantern für alte Canon-Kameras.
ProRes HQ ist durchaus eine Verbesserung. Dass das interne Prozessing nicht wie bei Raw abgestellt werden kann, mag zwar stimmen, aber ein einzelbildbasierender 10-bit-Codec ist schon mal nicht schlecht.
Zumal 10bit-Raw auch nicht gerade ideal ist.
Wenn dann auch noch ein Crop notwendig wird, um überhaupt den Datenmengen Herr werden zu können, ist das wie schon bei ML auch nicht mehr als ein Gimmick.
Ich hab eine Canon 5D2 und dachte zunächst auch, jetzt wären durch ML die Tore zur Cine-Welt geöffnet. In der Praxis war"s dann aber unbrauchbar.

Space


Antwort von cantsin:

iasi hat geschrieben:
Wenn dann auch noch ein Crop notwendig wird, um überhaupt den Datenmengen Herr werden zu können, ist das wie schon bei ML auch nicht mehr als ein Gimmick.
Der Crop ist ja normalerweise nur ein Crop vom 4:3-Sensorbild auf 16:9, so wie bei jeder Hybridkamera.

Ist schon toll, wieviel Leute hier ihr Urteil über diese Lösung fällen, ohne sie jemals ausprobiert zu haben.

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
ProRes in den iPhones ist ein Marketing-Gimmick, der in der Praxis nicht viel bringt
das sehe ich gleich -- ist aber im grunde nichteinmal der rede wert...
cantsin hat geschrieben:
Diese CinemaDNG-App hingegen ist ein nichtkommerzielles Open Source-Projekt von unabhängigen, ehrenamtlichen Entwicklern, das es Android-Besitzern ermöglicht, die Kamera ihres Smartphones ohne Googles proprietäre Bildalgorithmen zu verwenden und mit dem Smartphone Video ohne die sonst üblichen Bildglättungen und auf 8bit beschränkte Farbauflösung aufzuzeichnen.
es ist wirklich ein super spannendes projekt, weil es in einigen punkten dinge ausprobiert, die davor im freien umfeld wirklich nicht zu greifen waren.

man darf es zwar auch nicht überschätzen, weil es momentan doch noch viel mehr an eine serien-fotografie mit stark begrenztem buffer erinnert, trotzdem ist das ganze derart toll und ungewöhnlich sauber in C++ und Halide verfasst (nur die benutzeroberfläche bedient sich des android-üblichen Java-schwachsinns), dass das ganze tasächlich fast mehr ähnlichkeit mit jenen firmwareteilen aufweist, die normalerweise völlig unzugänglich sind, sich jedenfalls deutlich von den üblichen kamera apps unterscheidet, die ja meist nur ganz oberflächliche aufgaben erfüllen und den rest dem system überlassen.

auch wenn das ganze für derartige software also wirklich extrem vorbildlich optimiert ist, stößt es doch an jene grenzen, die normalerweise nur mehr mit spezieller hardwareunterstützung in derartigen systemen überwunden werden können.

trotzdem könnte es gut sein, dass sich dieses projekt als einladend genug erweist, damit findige köpfe vielleicht doch noch die eine oder andere unerwartete lösung für die betreffenden engstellen und hürden finden.

ich könnte mir z.b. gut vorstellen, dass man vielleicht doch eine echtzeitkomprimierung der raw-daten in software hinbekommen könnte. schließlich bilden bei derartiger freier software die bekannten patentprobleme kein nennenswertes hindernis.

wie gesagt -- ich bin zwar ziemlich beeindruckt von dem zeug, seh aber gleichzeitig doch noch ziemlich viele offene baustellen, die damit verbunden sind.

da die zentralen teile der app als C++ library implementiert sind, könnte man sie übrigens vermutlich auch sehr einfach auf div. singleboard computern nutzen und dort wohl auch jederzeit größere sensoren anbinden...

Space


Antwort von roki100:

cantsin hat geschrieben:
"Darth Schneider" hat geschrieben:
Das wird ja alles gar nix bringen, weder ProRes noch RAW.
Weil ja immer noch Dreiviertel der Leute heute nicht mal wissen das man das Smartphone beim filmen besser nicht hochkant halten sollte.
Was sollen die Leute mit Raw Video denn anfangen ?

Und das jetzt RAW Video noch kommen muss, war ja schon klar vorauszusehen, nämlich von dem Moment an als Apple mit ProRes im iPhone aufkreuzte…
Schlussendlich ist das doch wieder nur ein zusätzliches Spielzeug, im Smartphone drin, genau so wie ProRes auch.
Mit dem einzigen wahrhaftigen Sinn dahinter:
"Komm und kauf mich schnell" Oder " lade mich schnell herunter"
Du vergleichst beinahe im Wortsinne Äpfel mit Birnen. ProRes in den iPhones ist ein Marketing-Gimmick, der in der Praxis nicht viel bringt (und nicht einmal die Probleme der iPhone-Videoaufzeichnung, Rauschfilterung und Nachschärfung abstellt).

Diese CinemaDNG-App hingegen ist ein nichtkommerzielles Open Source-Projekt von unabhängigen, ehrenamtlichen Entwicklern, das es Android-Besitzern ermöglicht, die Kamera ihres Smartphones ohne Googles proprietäre Bildalgorithmen zu verwenden und mit dem Smartphone Video ohne die sonst üblichen Bildglättungen und auf 8bit beschränkte Farbauflösung aufzuzeichnen.

Ist doch toll, wenn man auf diese Weise das schon vorhandene Smartphone als B-Cam zu seiner Blackmagic oder sonstigen Kamera geschenkt bekommt. Das ist genauso ein Geschenk für Videomacher wie MagicLantern für alte Canon-Kameras.
so siehts aus. Gerade deswegen weil es Open Source ist und auch etwas sehr interessantes, wird das ganze wachsen und wachsen..... :)

Space


Antwort von Darth Schneider:

Das wird doch immer wieder gesagt, mal abwarten und schauen was dann wächst.
Gruss Boris

Space


Antwort von roki100:

Das ist jetzt schon etwas spezielles (und es läuft auch problemlos, zumindest bei mir...bis auf RGGB was sich ja mit Huawei nicht verträgt, weil der Sensor ein RYYB Sensor ist bzw. die DNGs lassen sich in keine NLEs sauber anzeigen, man muss es vorher umwandeln in tiff oder was auch immer) so dass man jetzt schon weißt, das wird was ;) Ich habe mir die Quellcodes angeschaut. Das hier ist schon was interessantes: https://github.com/mirsadm/motioncam/bl ... Metadata.h

So wie es aussieht gibt es auch (wahrscheinlich noch nicht vollständig) 16Bit Implementierung und es lässt sich auswählen und nutzen. Davinci zeigt:
Bildschirmfoto 2021-12-04 um 14.03.50.png

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Wenn dann auch noch ein Crop notwendig wird, um überhaupt den Datenmengen Herr werden zu können, ist das wie schon bei ML auch nicht mehr als ein Gimmick.
Der Crop ist ja normalerweise nur ein Crop vom 4:3-Sensorbild auf 16:9, so wie bei jeder Hybridkamera.

Ist schon toll, wieviel Leute hier ihr Urteil über diese Lösung fällen, ohne sie jemals ausprobiert zu haben.
Die Canon 5D2 wurde eben nie nur auf 16:9 gecroppt.

Und bei einem Telefon-Sensor mit reichlich Megapixeln kommst du eben auch nicht mit dem Wegschnippseln oben und unten hin.
Die Datenmengen müssen schließlich auch irgendwohin weggeschrieben werden. SD-Karten sind nun einmal nicht die schnellsten.

Space


Antwort von iasi:

roki100 hat geschrieben:

so siehts aus. Gerade deswegen weil es Open Source ist und auch etwas sehr interessantes, wird das ganze wachsen und wachsen..... :)
Ein wenig programmieren und schon wird aus einem Telefon eine Raw-Kamera.

Das hat ja schon mit den Fotoapparaten nicht geklappt.

Open Source bedeutet eben auch, dass der Zugriff auf die Firmware fehlt und mit Apps versucht wird, etwas herauszukitzeln.

Dein P30 liefert also einen Crop von 2764x2074 - bei welcher Sensorauflösung?


Dann schon lieber ProRes HQ vom ganzen Sensor in 4k.

Space


Antwort von pillepalle:

@ iasi

Ich glaube die Auflösung hat eher was mit einem brauchbaren Ergebnis zu tun. Ich kann mit dem Mate20Pro zwar 5120x3840px RAW Video aufnehmen, produziere in wenigen Sekunden aber Unmengen von Drop Frames. D. h. ich muss die Auflösung reduzieren, um keine Drop Frames zu bekommen.

VG

Space



Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:

so siehts aus. Gerade deswegen weil es Open Source ist und auch etwas sehr interessantes, wird das ganze wachsen und wachsen..... :)
Ein wenig programmieren und schon wird aus einem Telefon eine Raw-Kamera.
exakt! :)

Das hat ja schon mit den Fotoapparaten nicht geklappt. Wie Du siehst, klappt mit nem Smartphone jetzt schon. Die haben sehr schnelle Speicher, CPU's usw. zumindest reicht es bei P30 für 3.2k (eben gerade getestet und keine dropframes).
Open Source bedeutet eben auch, dass der Zugriff auf die Firmware fehlt und mit Apps versucht wird, etwas herauszukitzeln. Ich weiß nicht was Du mit "Firmware" meinst, denn die firmware sind (wie üblich) bei Linux Kernel bzw. bei Android bereits enthalten, eigentlich alles nötige, anders würde ja der Smartphone und in der Android z.B. die Standard Video App nicht funktionieren. Und die App bedient sich mit dem Ganzem vorhandenen. Es ist auch einiges aus Adobe DNG SDK übernommen, wie z.B. hier zu sehen (siehe Kommentar): https://github.com/mirsadm/motioncam/bl ... aProfile.h

Dein P30 liefert also einen Crop von 2764x2074 - bei welcher Sensorauflösung? Bei P30 wird momentan nicht der bessere Hauptsensor benutzt, sondern der mittlere, also 16MP (Ultraweitwinkelobjektiv, Blende f/2.2) und es wird hinein gecroppt, so dass es mit RAW auch passt. :)

Space


Antwort von cantsin:

Open Source bedeutet eben auch, dass der Zugriff auf die Firmware fehlt und mit Apps versucht wird, etwas herauszukitzeln. Bei aller Liebe, aber Deine Beiträge zu diesem Thema sind an der Grenze zur Merkbefreiung. Android ist ein Betriebssystem wie jedes andere PC-Betriebsystem (und dazu noch größtenteils Open Source), und eine App wie diese hier ist kein Firmware-Hack eines Asic-Chips, sondern eine ganz normale auf dem Betriebssystem laufende Anwendung, die vorhandene und dokumentierte Programmierschnittstellen (APIs) von Android nutzt.

(Deiner Logik nach wäre dann z.B. auch der VLC Player ein Hack von Windows, um andere als Microsoft-Codecs abzuspielen....)

Space


Antwort von iasi:

pillepalle hat geschrieben:
@ iasi

Ich glaube die Auflösung hat eher was mit einem brauchbaren Ergebnis zu tun. Ich kann mit dem Mate20Pro zwar 5120x3840px RAW Video aufnehmen, produziere in wenigen Sekunden aber Unmengen von Drop Frames. D. h. ich muss die Auflösung reduzieren, um keine Drop Frames zu bekommen.

VG
Ja - auch in 10bit ist die Datenmenge bei unkomprimiertem Raw bei 5120x3840px einfach zu groß.
Und Auflösung reduzieren bedeutet dann eben Crop.

Und da muss ich einfach sagen: Lieber ein von der vollen Sensorauflösung herunterskaliertes 10bit-4k-Video, als ein 2,7k-Crop von einem eh schon kleinen Bayer-Sensor.
Apple bietet mit ProRes HQ dann eben auch einen All-i-Codec mit geringer Komprimierung und 422.

Ich kann mir nicht vorstellen, dass irgendein Handy die volle Sensorauflösung in unkomprimiertem Raw wegschreiben kann - zumal auf SD-Karten.

Space


Antwort von iasi:

cantsin hat geschrieben:
Open Source bedeutet eben auch, dass der Zugriff auf die Firmware fehlt und mit Apps versucht wird, etwas herauszukitzeln.
Bei aller Liebe, aber Deine Beiträge zu diesem Thema sind an der Grenze zur Merkbefreiung. Android ist ein Betriebssystem wie jedes andere PC-Betriebsystem (und dazu noch größtenteils Open Source), und eine App wie diese hier ist kein Firmware-Hack eines Asic-Chips, sondern eine ganz normale auf dem Betriebssystem laufende Anwendung, die vorhandene und dokumentierte Programmierschnittstellen (APIs) von Android nutzt.

(Deiner Logik nach wäre dann z.B. auch der VLC Player ein Hack von Windows, um andere als Microsoft-Codecs abzuspielen....) Du willst aus einer Hardware etwas herausholen, das der Hersteller nicht implementiert hat. Da hilft es auch nicht, am Betriebssystem herumzuspielen.

Der Begriff "Hack" ist zudem sowieso überstrapaziert.

Handys mit der notwendigen Rechenpower und Speicherausstattung haben Sensoren mit mind.4k-Auflösung.
4k unkomprimiertes Raw bekommst du nicht weggeschrieben.
Ergo bleibt nur ein Crop in einen eh kleinen Sensor mit einer Optik davor, von der man sowieso keine Wunder erwarten darf.

Space


Antwort von cantsin:

iasi hat geschrieben:
Du willst aus einer Hardware etwas herausholen, das der Hersteller nicht implementiert hat. Da hilft es auch nicht, am Betriebssystem herumzuspielen.
Quatsch. DNG ist in Android betriebssytemseitig implementiert.

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Du willst aus einer Hardware etwas herausholen, das der Hersteller nicht implementiert hat. Da hilft es auch nicht, am Betriebssystem herumzuspielen.
Quatsch. DNG ist in Android betriebssytemseitig implementiert.
Ja - wie eben auch bei der Canon 5d2.
Trotzdem kannst du dem Controller der Kamera eben nicht die Datenraten entlocken, die für 24fps bei voller Auflösung notwendig wären.

In einen 40Mp, 1/1.7-inch-Sensor hineinzucroppen, um dann 2,7k-10bit-Raw zu erhalten, ist nicht mehr als eine Spielerei.

Space


Antwort von roki100:

iasi, ich denke cantsin verliert die Lust dir zu antworten. Ich versuche es; es macht kein spaß dir etwas klar zu machen, weil Du einfach nicht verstehen willst oder Du dir nicht die Codes angeschaut hast um ein wenig zu begreifen (man muss kein Programmierer sein, um ein wenig Verständnis daraus zu ziehen) und Du auch weißt worüber Du diskutierst.
Trotzdem kannst du dem Controller der Kamera eben nicht die Datenraten entlocken, die für 24fps bei voller Auflösung notwendig wären. Es gibt keine 24fps sperre um 24fps entlocken zu müssen. Volle Auflösung ist möglich (natürlich nicht z.B. von 40MP sensor), jedoch mit dropedframes - ich nehme mal an, weil die Schreibgeschwindigkeit es nicht zulässt bzw. es ist zu langsam dafür. Wäre es anders, dann wäre das natürlich sensationell! ;) Die App bedient sich u.a. auch mit opencv(2), was das ist, kannst Du dich im netz informieren und dir dann ungefähr vorstellen was damit alles möglich ist.
Ich meine, P30, kann jetzt schon 3.2k in RAW, getestet mit 24fps. Das ist schonmal ein großer Anfang. ;) Was für Huawei Smartphones fehlt ist (falls möglich) Umwandlung von RYYB zu RGGB bevor in DNG gespeichert wird, dann kann man nämlich die DNGs direkt in Davinci laden/bearbeiten.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi, ich denke cantsin verliert die Lust dir zu antworten. Ich versuche es; es macht kein spaß dir etwas klar zu machen, weil Du einfach nicht verstehen willst oder Du dir nicht die Codes angeschaut hast um ein wenig zu begreifen (man muss kein Programmierer sein, um ein wenig Verständnis daraus zu ziehen) und Du auch weißt worüber Du diskutierst.
Trotzdem kannst du dem Controller der Kamera eben nicht die Datenraten entlocken, die für 24fps bei voller Auflösung notwendig wären. Es gibt keine 24fps sperre um 24fps entlocken zu müssen. Volle Auflösung ist möglich (natürlich nicht z.B. von 40MP sensor), ich nehme mal an, weil die Schreibgeschwindigkeit auf Speicher es nicht zulässt bzw. langsam dafür ist, wäre es anders, dann wäre das sensationell! ;) Die App bedient sich u.a. auch mit opencv(2), was das ist, kannst Du dich im netz informieren.
Du wirfst mir vor, ich würde nicht lesen. :)

Was schreibe ich denn dauernd?!
Du kannst auf einem Handy mit SD-Karten keine unkomprimierten 4k-Raw wegschreiben.

Daher können mit dieser App nur Crops von eh schon kleinen Sensoren geliefert werden. Und das dann auch nur in 10bit.

Es ist dabei völlig belanglos, wie wessen sich die App bedient.
Die Handys sind schlicht nicht darauf ausgelegt und konzipiert.

Das Apple-Telefon wiederum nutzt den vollen Sensor, um daraus ProRes HQ zu erzeugen und auch daraufhin entwickelt worden.

Und nochmal:
Die neueren Handys, die überhaupt die notwendige Leistung erbringen, haben Sensoren mit hoher Auflösung.
Somit muss man zwangsläufig in den kleinen Sensor auch noch croppen.
Die Objektive können bauartbedingt gar nicht hohe Qualität bieten.

Ergo kommst du auf 2,7k-10bit-Raw aus einem winzigen Crop hinter einer kleinen Linse.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:
iasi, ich denke cantsin verliert die Lust dir zu antworten. Ich versuche es; es macht kein spaß dir etwas klar zu machen, weil Du einfach nicht verstehen willst oder Du dir nicht die Codes angeschaut hast um ein wenig zu begreifen (man muss kein Programmierer sein, um ein wenig Verständnis daraus zu ziehen) und Du auch weißt worüber Du diskutierst.


Es gibt keine 24fps sperre um 24fps entlocken zu müssen. Volle Auflösung ist möglich (natürlich nicht z.B. von 40MP sensor), ich nehme mal an, weil die Schreibgeschwindigkeit auf Speicher es nicht zulässt bzw. langsam dafür ist, wäre es anders, dann wäre das sensationell! ;) Die App bedient sich u.a. auch mit opencv(2), was das ist, kannst Du dich im netz informieren.
Du wirfst mir vor, ich würde nicht lesen. :)

Was schreibe ich denn dauernd?!
Du kannst auf einem Handy mit SD-Karten keine unkomprimierten 4k-Raw wegschreiben.
Ja danke für den unnötigen Hinweis, denn ich schreibe ja auch, dass das nicht geht... weil droppedframes. ;)))

das andere von dir ist etwas, was keiner hier etwas anderes behauptet hat...
Ergo kommst du auf 2,7k-10bit-Raw aus einem winzigen Crop hinter einer kleinen Linse. Weitwinkel Linse (Sensor 16MP), da kann gerne auf 3.2K gecroppt werden ;)

Space



Space


Antwort von cantsin:

iasi hat geschrieben:
cantsin hat geschrieben:


Quatsch. DNG ist in Android betriebssytemseitig implementiert.
Ja - wie eben auch bei der Canon 5d2.
Trotzdem kannst du dem Controller der Kamera eben nicht die Datenraten entlocken, die für 24fps bei voller Auflösung notwendig wären.

In einen 40Mp, 1/1.7-inch-Sensor hineinzucroppen, um dann 2,7k-10bit-Raw zu erhalten, ist nicht mehr als eine Spielerei.
Du schaffst hier vermeidbare Arbeit, Deine Behauptungen wieder aus der Welt zu räumen:

- Eine 5D Mark II hat keine firmware-/betriebssystemseitige DNG-Implementation. (Canon unterstützt DNG, im Gegensatz zu u.a. Leica und Pentax in keiner seiner Kameras.) Die Kamera hat ausserdem einen ASIC, keinen FPGA (wie ein Android-Smartphone), ist also kein völlig frei programmierbares System, sondern hat die meiste ihrer Prozessierung fest im Chip verdrahtet. MagicLantern ist daher eine nicht vom Hersteller vorgesehene, undokumentierte und durch experimentelles reverse engineering ermittelte Schnittstellen nutzende Firmware-Erweiterung, während die Android App ein regulär vorgesehene, reguläre Kamera-/Imagingschnittstellen nutzendes, Betriebsystem-konformes Computerprogramm ist.

Das Raw-Video, das mit MagicLantern aufgezeichnet wird, ist i.d.R. skaliertes Raw (wie u.a. auch bei der Sigma fp im Fullframe-Modus) und ausserdem kein DNG. Die Umwandlung des ML-Raw-eigenen Dateiformats nach CinemaDNG geht nur ausserhalb der Kamera mit PC-Software.

- Die Sensorauflösung bei Android-Telefonen hängt natürlich vom jeweiligen Modell ab. Bei meinem Google Pixel ist sie nativ nur 12 MP. Aber auch die vermeintlichen 48 MP-Smartphonekameras haben i.d.R. Quad-Bayer-Arrays, bei denen DNG (sinnvollerweise) gebinnt als 12 MP aufgezeichnet wird. Ich erkläre jetzt nicht ausführlich, warum das etwas anderes ist als das o.g. skalierte Raw (weil bei Quad-Bayer Sensorpixel mit denselben Farbfilterwerten zusammengefasst werden, also jeweils 4xblau, 4xrot, 4xgrün + 4x grün - wie der Name Quad-Bayer schon sagt, fungieren hier vier Sensel als ein Bildpixel).

- Jede Foto- bzw. Hybrid-Kamera, die einen 3:2- oder (u.a. bei MFT) 4:3-Sensor hat, croppt bei der 16:9-Videoaufnahme. Es gibt kaum Hybridkameras auf dem Markt, die Open Gate bzw. mit der vollen Sensorauflösung Video aufzeichnen. (Ausnahmen: Panasonic S1H, GH5.) Einige Hybridkameras - z.B. mehrere Modelle von Canon, darunter auch aktuelle Full Frame-Spiegellose - croppen sogar noch viel weiter bei 4K-Videoaufzeichnung.

Wie praxistauglich die Android-App-Lösung wird, hängt von weiteren Optimierungen (wie z.B. DNG-Kompression, um den Speicherdurchsatz zu verbesseren bzw. die Abspeichergeschwindigkeit zu verringern) und von der jeweiligen Kombination der Smartphone-Hardware und -Kamera ab. Mit meinem 12MP-Google Pixel 5 habe ich da zufällig eine günstige Kombination. Ansonsten sehe ich auch einen Crop nicht als Ende der Welt bzw. Ausschlussfaktor, weil die meisten Smartphone-Hauptkameras sowieso zu weitwinklig sind.

Dass diese Lösung noch experimentell ist und auch dann, wenn sie ausreift, keine BM Pocket oder RED Komodo ersetzt, ist klar. Dass man jetzt aber mit dem Gerät, das man immer in der Hosentasche hat, B- oder C-Roll in einem Format drehen kann, das sich gut (und ohne die Smartphone-üblichen Bildverschlimmbesserungen, siehe meine Postings im Nachbarthread zum iPhone 13) nachbearbeiten und an andere Kameras matchen lässt, ist doch eine sinnvolle Sache.

Space


Antwort von roki100:

und das wichtigste, mit DNGs funktioniert Highlight Recovery auch ;)

Space


Antwort von iasi:

roki100 hat geschrieben:

Ergo kommst du auf 2,7k-10bit-Raw aus einem winzigen Crop hinter einer kleinen Linse. Weitwinkel Linse (Sensor 16MP), da kann gerne auf 3.2K gecroppt werden ;)
Dann hast du nur noch eine Qualität, die auch alle Raw-Einstellungen nicht mehr retten können.

Es geht ja nicht nur um die geringere Bayer-Auflösung, sondern eben auch um den höheren Vergrößerungsfaktor, der die Mängel von Sensor und Linsen nochmal besonders heraushebt.

Ich bin ein Raw-Verfechter, aber statt einen Crop mit einer Bayer-Auflösung, die gerade mal für 2k reicht, nehm ich doch lieber 4k ProRes HQ vom vollen Sensor herunterskaliert - zumal Raw dann eben auch nur 10bit bietet.

Unkomprimiertes Raw schreibt ja selbst Arri nur mit Mühe und hohem Aufwand in 4k weg.
Mit einem Telefon bekommst du das heute eben noch nicht hin.
Meine BMCC füllt mit ihren 2,4k ja schon recht flott eine SSD ab.

Auch 12MP sind dann eben noch zu viel für die Handys.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:



Weitwinkel Linse (Sensor 16MP), da kann gerne auf 3.2K gecroppt werden ;)
Dann hast du nur noch eine Qualität, die auch alle Raw-Einstellungen nicht mehr retten können.

Es geht ja nicht nur um die geringere Bayer-Auflösung, sondern eben auch um den höheren Vergrößerungsfaktor, der die Mängel von Sensor und Linsen nochmal besonders heraushebt.
Kann sein, kann ich leider mit P30 nicht ausprobieren. Es wird nämlich doch nicht richtig abgespeichert - scheint definitiv ein Bug zu sein und nicht etwas was mit RYYB zu tun hat.

Hier hast du aber zwei DNG Frames
https://drive.google.com/file/d/1gG1wc- ... 3r036/view
https://drive.google.com/file/d/12YdUHt ... PrzfM/view

Sieht jetzt nicht schlecht aus oderso ;)
Bildschirmfoto 2021-12-04 um 21.18.35.png

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Dann hast du nur noch eine Qualität, die auch alle Raw-Einstellungen nicht mehr retten können.

Es geht ja nicht nur um die geringere Bayer-Auflösung, sondern eben auch um den höheren Vergrößerungsfaktor, der die Mängel von Sensor und Linsen nochmal besonders heraushebt.
Kann sein, kann ich leider mit P30 nicht ausprobieren. Es wird nämlich doch nicht richtig abgespeichert - scheint definitiv ein Bug zu sein und nicht etwas was mit RYYB zu tun hat.

Hier hast du aber zwei DNG Frames
https://drive.google.com/file/d/1gG1wc- ... 3r036/view
https://drive.google.com/file/d/12YdUHt ... PrzfM/view

Sieht jetzt nicht schlecht aus oderso ;)

Bildschirmfoto 2021-12-04 um 21.18.35.png
Ich hab auf dem Internet-Rechner kein Programm, das DNGs öffnen kann.
Die Details lassen sich beim google-viewer leider auch nicht anzeigen.

Welche Auflösung haben denn die Aufnahmen?

Bis es dann zuverlässig läuft, muss man reincroppen.
Tut man dies mit der Lupe bei den DNGs wird die Problematik deutlich.

Space


Antwort von roki100:

iasi hat geschrieben:
Welche Auflösung haben denn die Aufnahmen?
4032x3024
und
4656x2444
Tut man dies mit der Lupe bei den DNGs wird die Problematik deutlich. nicht wirklich :)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Welche Auflösung haben denn die Aufnahmen?
4032x3024
und
4656x2444
Tut man dies mit der Lupe bei den DNGs wird die Problematik deutlich. nicht wirklich :)
Du wirst wahrscheinlich auf 2,5k 16:9 gehen müssen - wenn das überhaupt reicht.

Mach mal einen entsprechenden Crop in deine DNGs.

2,8k 16:9 Arriraw kommt ja schon auf 624 GB/h bei 24fps.

Space


Antwort von cantsin:

cantsin hat geschrieben:
Dass man jetzt aber mit dem Gerät, das man immer in der Hosentasche hat, B- oder C-Roll in einem Format drehen kann, das sich gut (und ohne die Smartphone-üblichen Bildverschlimmbesserungen, siehe meine Postings im Nachbarthread zum iPhone 13) nachbearbeiten und an andere Kameras matchen lässt, ist doch eine sinnvolle Sache.
Nachtrag dazu - genau das habe ich heute mal ausprobiert, und es hat funktioniert:

animation.gif (anklicken, um GIF-Animation abzuspielen)

Die Nahaufnahme ist mit der EOS-M + MagicLantern 14bit Raw, die Totale mit dem Pixel 5 und der CinemaDNG-App aufgenommen. Anschließend wurde das Pixel 5-CinemaDNG in Resolve mit Neat entrauscht und durch WB-, Tint- und Lift-Korrektur im Raw-Tab dem Material der EOS-M visuell angeglichen.

Space


Antwort von iasi:

cantsin hat geschrieben:
cantsin hat geschrieben:
Dass man jetzt aber mit dem Gerät, das man immer in der Hosentasche hat, B- oder C-Roll in einem Format drehen kann, das sich gut (und ohne die Smartphone-üblichen Bildverschlimmbesserungen, siehe meine Postings im Nachbarthread zum iPhone 13) nachbearbeiten und an andere Kameras matchen lässt, ist doch eine sinnvolle Sache.
Nachtrag dazu - genau das habe ich heute mal ausprobiert, und es hat funktioniert:


animation.gif
(anklicken, um GIF-Animation abzuspielen)

Die Nahaufnahme ist mit der EOS-M + MagicLantern 14bit Raw, die Totale mit dem Pixel 5 und der CinemaDNG-App aufgenommen. Anschließend wurde das Pixel 5-CinemaDNG in Resolve mit Neat entrauscht und durch WB-, Tint- und Lift-Korrektur im Raw-Tab dem Material der EOS-M visuell angeglichen.
Lagen die Ergebnisse denn so weit auseinander, dass ein Angleichen mit ProRes HQ nicht auch möglich gewesen wäre?

Welche Auflösungen hattest du bei EOS-M und Pixel-5 eingestellt?
Und wie groß waren die Files?

Vor allem aber: Wie weit würden sich die Aufnahmen strapazieren lassen, wenn es darum gehen würde, die Farben neutraler zu bekommen? Das Lichtspektrum scheint recht eng gewesen zu sein. Oder war der Rotton gewollt?

Es geht schließlich immer auch um Aufwand und Ertrag. Bei der Canon 5D2 überwogen die Vorteile von ML für mich die Nachteile nicht.

Space



Space


Antwort von cantsin:

iasi hat geschrieben:
Die Nahaufnahme ist mit der EOS-M + MagicLantern 14bit Raw, die Totale mit dem Pixel 5 und der CinemaDNG-App aufgenommen. Anschließend wurde das Pixel 5-CinemaDNG in Resolve mit Neat entrauscht und durch WB-, Tint- und Lift-Korrektur im Raw-Tab dem Material der EOS-M visuell angeglichen.
Lagen die Ergebnisse denn so weit auseinander, dass ein Angleichen mit ProRes HQ nicht auch möglich gewesen wäre?

Das hätte schon deswegen nicht geklappt, weil bei ProRes HQ-Material Rauschfilterung und Nachschärfung fest drin ist. Hier oben wurde das Android-CinemaDNG an ebenfalls rauschfilterloses und nicht nachgeschärftes CinemaDNG-Material gematcht. Normalerweile hätte da mindestens künstliches Grain auf das Smartphone-Material legen müssen, um es visuell einigermaßen in die Richtung des Zielmaterial zu biegen. Ausserdem musste ich den Weißabgleich ziemlich weit nach links schieben - auch da bin ich mir nicht sicher, ob das bei bereits debayertem 10bit-Material ebenso gut gegangen wäre.

Welche Auflösungen hattest du bei EOS-M und Pixel-5 eingestellt? Bei EOS-M 960x720 (4:3), bei dem Pixel 5 ca. 2600x1950.
Und wie groß waren die Files? Beim Pixel 5 hast Du in der Tat unkomprimiertes Raw.
Vor allem aber: Wie weit würden sich die Aufnahmen strapazieren lassen, wenn es darum gehen würde, die Farben neutraler zu bekommen? Das Lichtspektrum scheint recht eng gewesen zu sein. Oder war der Rotton gewollt? Nee, das war rot-violettes Bühnenlicht, was ich ja immer <Sarkasmus>liebe</Sarkasmus>... weil es so ziemlich das schlimmste Licht für digitale Bildaufnahmen ist. Gerade unter solchem Licht bringt Raw allerdings viel - wie ich schon seit vielen Jahren weiss -, weil es die beste Vorsorge dagegen ist, dass in solch einem engen und problematischen Lichtspektrum Color-Banding und andere Artefakte auftreten.

Space


Antwort von roki100:

cantsin hat geschrieben:
bei dem Pixel 5 ca. 2600x1950.
Bis vor kurzem wurde Pixel 5 kritisiert (wenig MP usw.) nun mit der DNG-App ist es momentan scheinbar brauchbarer als jedes andere Smartphone... ;)

Übrigens, bei motioncam-git ist ein user dabei der sehr gute Empfehlung gemacht hat:

Bildschirmfoto 2021-12-05 um 18.51.21.png https://github.com/mirsadm/motioncam/issues/23


Und es gibt eine neue Version (7.0.3) :) Update here:
https://github.com/mirsadm/motioncam/re ... .7.0.3.apk

Space


Antwort von slashCAM:


Die noch experimentelle kostenlose Open Source Kamera-App Motion Cam ermöglicht erstmals unter Android die Aufnahme von RAW-Video in Form von 10Bit Adobe CinemaDNG. Aufge...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Kostenlose Motion Cam App ermöglicht erstmals CinemaDNG RAW-Videoaufnahme auf Smartphones


Space


Antwort von iasi:

cantsin hat geschrieben:
Vor allem aber: Wie weit würden sich die Aufnahmen strapazieren lassen, wenn es darum gehen würde, die Farben neutraler zu bekommen? Das Lichtspektrum scheint recht eng gewesen zu sein. Oder war der Rotton gewollt? Nee, das war rot-violettes Bühnenlicht, was ich ja immer <Sarkasmus>liebe</Sarkasmus>... weil es so ziemlich das schlimmste Licht für digitale Bildaufnahmen ist. Gerade unter solchem Licht bringt Raw allerdings viel - wie ich schon seit vielen Jahren weiss -, weil es die beste Vorsorge dagegen ist, dass in solch einem engen und problematischen Lichtspektrum Color-Banding und andere Artefakte auftreten.

Gerade deshalb frage ich.
Zaubern kann man mit Raw natürlich auch nicht, aber solche extremen Lichtverhältnisse zeigen dann eben die Qualität des Raw-Materials. Messerschmidt hatte das so nett als "wie viele Farben das Material hat" bei seiner DJI 4D-Einschätzung bezeichnet.

Space


Antwort von klusterdegenerierung:

Funzt mit meinem P20 null die Bohne.

Space


Antwort von cantsin:

@Slashcam - vielleicht eine gute Idee, diesen Thread in den schon bestehenden zu integrieren: viewtopic.php?f=1&t=154349

Space


Antwort von mash_gh4:

ich hab mir mittlerweile den code noch ein bisserl genauer angesehen, um besser zu verstehen, auf welche daten da tatsächlich zugegriffen wird bzw. welche freihten sich daraus in der praxis ergeben.

grundsätzlich greift das ganze über die NDK (native development kit) kamera-schnittstelle auf die hardware zu. damit stehen zwar im grunde nur die selben möglichkeiten offen, die es auch davor schon im normalen android camera2-API gegeben hat, aber man kann es nun eben auch von von recht effizienten programmiersprachen aus bzw. verhältnismäßig hardwarenah nutzen, wie es im konkreten fall auch ausgesprochen vorbildlich umgesetzt wird.

ganz gut ist die entsprechenden herangehensweise in diesem artikel erklärt:

https://www.sisik.eu/blog/android/ndk/camera

was also die grundsätzlichen möglichkeiten des zugriffs auf die rohen sensor-daten angeht, ist mit dieser anwendung eigentlich nichts neues dazu gekommen, was nicht schon lange im android-umfeld möglich gewesen wäre.

worin sich allerdings diese app von den meisten ähnlichen anwendungen unterscheidet, ist einerseits die wunderbar effiziente implementierung in C++ und Halide, aber eben auch die tatsache, dass nur zum auslesen der RAW-daten auf die erwähnten NDK-APIs zurückgegriffen wird, alles andere aber in software innerhalb der app selebt aufbereitet wird. es wird also zumindest in der weiteren bildaufbereitung nicht auf jene mechanismen zurückgegriffen, die das system bzw. die hersteller des handys in der firmware dafür anbietet.

der großteil des codes betrifft diese routinen des bildaufbereitung.
und obwohl das natürlich auf den ersten blick für uns nicht ganz so spektakulär wirkt, ist es eine unglaubliche leistung, es so hinzubekommen, dass das tatsächlich befriedigend funktioniert. es ist auch deshalb so bedeutsam, weil es bisher oft notwendig war, auf gehackte ausgaben der unfreien google-camera-app zurückzugreifen, um auf android handys eine zufriedenstellendere bildaufbereitung zur verfügung zu haben als sie von den handyherstellern in vielen fällen bereitgestellt wird.

natürlich gibt's aber auch immer einzelne features bzw. eigenheiten der verbauten kamera- und bildaufbereitungshardware, die sich nur über die herstellerseitige apps od. propritäre nicht offengelegt APIs ansprechen und nutzen lassen. gerade um die hardwaredetails und eigenheiten der genutzten grafikeinheiten herrscht ja immer extrem viel geheinistuerei. trotzdem sind die offiziell vorgesehen android-kamera-schnittstellen ohnehin ziemlich toll und werden auch tatsächlich von den meisten herstellern einigermaßen zufriedenstellend unterstützt.

ein auslesen der RAW-daten -- ganz egal, ob als einzelnes standbild od. in kontinuierlichen sequenzen -- war also bei den besseren android devices immer schon möglich. für die auflösung bzw. bittiefe und anordnung der übergebenen daten stehen dabei die folgen vier möglichkeiten zur verfügung:

RAW10 -- Android 10-bit raw format

This is a single-plane, 10-bit per pixel, densely packed (in each row), unprocessed format, usually representing raw Bayer-pattern images coming from an image sensor.

RAW12 -- Android 12-bit raw format

This is a single-plane, 12-bit per pixel, densely packed (in each row), unprocessed format, usually representing raw Bayer-pattern images coming from an image sensor.

RAW_PRIVATE

Private raw camera sensor image format, a single channel image with implementation depedent pixel layout.

RAW_SENSOR

General raw camera sensor image format, usually representing a single-channel Bayer-mosaic image.


mit letzterer option erhält man in der regel die volle vom sensor bereitgestellte auflösung in 16bit breitem übergabeformat.

zu beachten ist auch noch, dass gerade bei den sensoren mit sehr hoher auflösung oft auch senselbinning genutzt bzw. konfiguriert werden kann, um den datenumfang zu reduzieren (SENSOR_INFO_BINNING_FACTOR). das betrifft dann natürlich auch die RAW daten.

die anfallenden datenmengen sind natürlich reativ groß und damit kaum wegzuschreiben.

android sieht zwar seit neustem leistungskassen-angaben (performance-class) vor, die eben auch für diesen storage-durchsatz klare anforderungen spezifizieren:

for Android 12:
At least 6GB of RAM
At least 400dpi and 1080p resolution
At least 150MB/s sequential write, 250MB/s sequential read, 10MB/s random write, and 40MB/s random read speeds


allerdings sind diese werte realtiv nieder angesetzt, so dass auch ältere geräte der oberklasse leicht mithalten können -- bspw. mein nicht mehr wirklich aktuelles xiaomi MI8:
AndroBench.png die frage ist also, ob man mit guten zeitgemäßen kompressionstechniken (z.b. zstd, lz4 od snappy), das ausmaß der daten in echtzeit ausreichend weit reduzieren kann, um sie kontinuierlich wegschreiben zu können?

vermutlich dürften derartige strapazen dem internen speicher allerdings nicht wirklich gut tun, was man, neben einigen anderen nachteilen und problemen, vielleicht auch mitbedenken sollte.

was die von rocky angesprochenen probleme mit der P30 und P40 bzw. deren CFA-eigenheiten betrifft, bräuchte man vermutlich nur in die DNG-metadaten bzw. das dort eingebettete farbaufbereitunsprofil, die nötigen zusätzlichen angaben einfügen -- das wird hier in der vorliegenden app ohnehein in einem eigenen aufbereitungsschritt unabhängig von der eigentlichen aufzeichnung gemacht --, um das ganze in den meisten programmen verarbeitbar zu machen...

Space


Antwort von Darth Schneider:

Also ich hab’s gestern Abend auch noch ausprobiert, mit einem Android und ich muss sagen, das ganze packt mich sowas von überhaupt nicht….
Jetzt gibt es mittlerweile so tolle Kameras, und ihr lasst euch von dieser Smartphone App so begeistern….
Kann ich nicht wirklich nachvollziehen.
Wie ich jetzt langsam merke jucken mich solche Entwicklungen eigentlich nicht mehr die Bohne…Weil meistens ist erst mal sehrt viel Wind, und später wenn sich die erste Begeisterung dann legt, interessiert es dann kaum noch jemanden..
Das wäre hier auf SlashCAM ja nicht das erste Mal.
Gruss Boris

Space


Antwort von mash_gh4:

"Darth Schneider" hat geschrieben:
Weil meistens ist erst mal sehrt viel Wind, und später wenn sich die erste Begeisterung dann legt, interessiert es dann kaum noch jemanden..
ja -- so ungefähr schätze ich die qualitäten den lebenszyklus der von dir bevorzugten kameras leider auch ein!:(

sie bräuchten im grunde nur ein bisserl offener zu sein, damit man damit wirklich machen könnte, was man will bzw. über einen längeren zeitraum hinweg gemeinsam verbesserungen daran möglich wären, dann wären es sicher wunderbare geräte. ähnlich wie bei einem computer, wo man auch mit dem aufspielen eines anderen betriebssystems bzw. entsprechender aktualisierungen und laufenden verbesserungen die praktische nutzbarkeit auch massiv verändert werden kann. so aber sind die von dir verehrten unförmigen plastikbomber schon bei der auslieferung bereits als wegwerfprodukt klar erkennbar bzw. mit einem baldigen ablaufdatum versehen.

Space



Space


Antwort von Darth Schneider:

@mash-gh4
Komm jetzt blíck doch mal in Richtung ProRes aus den IPhones ?
Noch vor ein paar Wochen waren hier alle ganz hysterisch und heute redet hier schon fast keiner mehr davon.
Das wird bei Android und CDNG Video auch nicht anders sein, denke ich.
Und meine Polycarbonat Bomber Pocket, die läuft wahrscheinlich in 5 Jahren dann immer noch…
Und so wie sich die BMD Kamera allgemein auf den Markt so halten, könnte ich mir sogar vorstellen das es die 4K Pocket in 4/5Jahren immer noch unverändert neu zu kaufen geben wird.
Das wäre bei BMD ja nicht das erste mal.

Was ich übrigens sehr witzig finde beim Android RAW, ohne Audio, nun gut wer braucht schon Audio wenn er RAW hat..;)))


Gruss Boris

Space


Antwort von iasi:

mash_gh4 hat geschrieben:
"Darth Schneider" hat geschrieben:
Weil meistens ist erst mal sehrt viel Wind, und später wenn sich die erste Begeisterung dann legt, interessiert es dann kaum noch jemanden..
ja -- so ungefähr schätze ich die qualitäten den lebenszyklus der von dir bevorzugten kameras leider auch ein!:(

sie bräuchten im grunde nur ein bisserl offener zu sein, damit man damit wirklich machen könnte, was man will bzw. über einen längeren zeitraum hinweg gemeinsam verbesserungen daran möglich wären, dann wären es sicher wunderbare geräte. ähnlich wie bei einem computer, wo man auch mit dem aufspielen eines anderen betriebssystems bzw. entsprechender aktualisierungen und laufenden verbesserungen die praktische nutzbarkeit auch massiv verändert werden kann. so aber sind die von dir verehrten unförmigen plastikbomber schon bei der auslieferung bereits als wegwerfprodukt klar erkennbar bzw. mit einem baldigen ablaufdatum versehen.
Warum sollte man eigentlich aus einem Gerät, das hardwaremäßig gar nicht darauf ausgelegt ist, unbedingt versuchen, Raw-Crops aus ihnen rauszupressen.

Man hatte vor einigen Jahren vom Kodak-Handy gehofft, dass es auch aufs Bildermachen ausgelegt wäre. Aber dann wurde da auch nur konventionelle Technik verwendet.
Dasselbe dann beim Red-Handy. Und dabei hätte Red auf RedRaw zurückgreifen können.

Da kannst du noch so viel programmieren, aber die Smartphones haben nun einmal nicht die Schreibraten, die für CDNG notwendig wären.
Auch sind sie nicht darauf ausgelegt, in Echtzeit die Raw-Daten zu komprimieren - was dann sowieso dem Red-Patent widersprechen würde.

Aus einem Ackergaul machst du eben auch mit der schönsten Programmierung kein Springpferd.

Es ist eine schöne Spielerei, bei der gezeigt wird, dass etwas möglich ist, aber in der Praxis wird es letztlich kaum jemand verwenden.

Space


Antwort von klusterdegenerierung:

mash_gh4 hat geschrieben:
ich hab mir mittlerweile den code noch ein bisserl genauer angesehen....
Interessant!
Ich habe auch den Benchmark gemacht und mein P20 ist bis aus Sequenziell um längen schneller, seltsam das ich nur dropped frames habe, kann aber allerdings auch die Auflösung nirgends ändern.

Space


Antwort von klusterdegenerierung:

"Darth Schneider" hat geschrieben:
Kann ich nicht wirklich nachvollziehen.
Das kann ich wiederum nicht nachvollziehen, denn wenn dies funzt, hast Du doch einen starken Partner immer an Deiner Seite, wenn mal die eigene Cam nicht greifbar ist, oder man mal irgendwie ausserhalb einer Jobtätigkeit ist, wo man mal sowas gut gebrauchen kann.

Wie schon von mir erwähnt, hatte ich vorkurzem noch beim vom Hof fahren einer Location die wohl einzigen Sonnenstrahlen meines Zeitfensters erwischt, in dem ich schnell mein P20 gezogen und damit durchs runtergelassene Fahrerfenster ein paar Fotos geschossen habe.

Waren die besten und durch die Bearbeitung in ACR ist niemandem aufgefallen das sie aus dem Handy und nicht aus meiner A7III kamen.

Space


Antwort von klusterdegenerierung:

iasi hat geschrieben:
Warum sollte man eigentlich aus einem Gerät, das hardwaremäßig gar nicht darauf ausgelegt ist, unbedingt versuchen, Raw-Crops aus ihnen rauszupressen.
Man hatte vor einigen Jahren vom Kodak-Handy gehofft,
Wenn Du Deine eigenen Inhalte selbst mal lesen würdest, hättest Du auch schon die Antwort! iasi hat geschrieben:
vor einigen Jahren vom Kodak-Handy gehofft,
Das ist ungefähr so wie unbedingt das Feuer mit Feuersteinen anzünden, wenn man ein Feuerzeug dabei hat.

Space


Antwort von maiurb:

cantsin hat geschrieben:
Du musst im "Raw Video"-Tab in den Menüpunkt "Process Videos" gehen und dann bei den (als Zip-Dateien gelisteten) Videoaufnahmen auf "Process" klicken. Beim ersten Mal wirst Du nach dem Zielordner gefragt und kannst den frei definieren. Ich habe mir "DCIM/CinemaDNG" eingestellt; die CinemaDNG-Ordner landen dann als Unterordner in diesem Verzeichnis.
Heißt das, man muss anschließend alle Einzelbilder ins Schnittprogramm bringen, ähnlich wie bei einer Timelaps?

Space


Antwort von Frank Glencairn:

Was glaubst du aus was andere Clips bestehen?

Space


Antwort von maiurb:

"Frank Glencairn" hat geschrieben:
Was glaubst du aus was andere Clips bestehen?
Aus meiner Kamera ziehe ich keine Einzelbilder, sondern ein Videofile in mein Schnittprogramm.

Das in dem Videofile bei 25p, 25 Einzelbilder pro Sekunde enthalten sind, weiß ich natürlich.
Ich hätte jetzt ein gepacktes Videofile erwartet, so wie es auch bei Filmic Pro ist, oder in der Samsung Kamera-App.

Space


Antwort von Frank Glencairn:

Das ist beim Import von DNGs das selbe. Da die Einzelbilder entsprechend nummeriert sind, siehst du beim Importieren keinen Unterschied zwischen einem DNG"Clip" und irgend einem anderen Clip.

Space



Space


Antwort von roki100:

iasi hat geschrieben:
Da kannst du noch so viel programmieren, aber die Smartphones haben nun einmal nicht die Schreibraten, die für CDNG notwendig wären.
Doch doch, sind schon schnell genug, wie bereits erwähnt, in meinem Fall 3.2k. Geht bestimmt mehr (brauche ich aber nicht), schließlich war das nur ein test mit 512MB RAM, p30 hat aber 6GB RAM wo die RAW Bilder zuerst gelagert werden, bevor diese auf internen Speicher landen...

Space


Antwort von roki100:

Naja, mit Huawei hat man momentan (noch) Pech... schade das Sony diese RYYB Sensor entwickelt hat, bringt sowieso quasi nichts, nur Nachteile:
https://github.com/mirsadm/motioncam/issues/23
"@Automatisator100 It is a bug in the sense that it doesn't support that bayer layout. It only supports RGGB/BGGR/GRGB/GBGR. When you enable the dual exposure controls it doesn't use the Android native preview, it generates one from the RAW images."

Update here with general UI fixes:
https://github.com/mirsadm/motioncam/re ... .7.0.5.apk

Space


Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
Warum sollte man eigentlich aus einem Gerät, das hardwaremäßig gar nicht darauf ausgelegt ist, unbedingt versuchen, Raw-Crops aus ihnen rauszupressen.
Man hatte vor einigen Jahren vom Kodak-Handy gehofft,
Wenn Du Deine eigenen Inhalte selbst mal lesen würdest, hättest Du auch schon die Antwort! iasi hat geschrieben:
vor einigen Jahren vom Kodak-Handy gehofft,
Das ist ungefähr so wie unbedingt das Feuer mit Feuersteinen anzünden, wenn man ein Feuerzeug dabei hat.
Nicht jeder macht die Aufnahmen seines Lebens aus dem Autositz heraus durch heruntergelassene Autofenster.

Warum das Kodak-Handy nun so etwas besonderes ist, dass unser klusterdegenerierung es so dick hervorhebt, wird er wohl nur selbst wissen.
Dabei war es nur ein eher durchschnittliches Telefon mit einem zusätzlichen Auslöseknopf.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Da kannst du noch so viel programmieren, aber die Smartphones haben nun einmal nicht die Schreibraten, die für CDNG notwendig wären.
Doch doch, sind schon schnell genug, wie bereits erwähnt, in meinem Fall 3.2k. Geht bestimmt mehr (brauche ich aber nicht), schließlich war das nur ein test mit 512MB RAM, p30 hat aber 6GB RAM wo die RAW Bilder zuerst gelagert werden, bevor diese auf internen Speicher landen...
Wenn das P30 eine höhere Auflösung als die 3,2k hat, dann bedeutet es aber nun einmal, dass du mit einem Crop leben musst.
6GB RAM sind ein Puffer, den du sehr schnell gefüllt hast, wenn du höhere Auflösungen in unkomprimiertem Raw wegschreiben musst.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:


Doch doch, sind schon schnell genug, wie bereits erwähnt, in meinem Fall 3.2k. Geht bestimmt mehr (brauche ich aber nicht), schließlich war das nur ein test mit 512MB RAM, p30 hat aber 6GB RAM wo die RAW Bilder zuerst gelagert werden, bevor diese auf internen Speicher landen...
Wenn das P30 eine höhere Auflösung als die 3,2k hat, dann bedeutet es aber nun einmal, dass du mit einem Crop leben musst.
6GB RAM sind ein Puffer, den du sehr schnell gefüllt hast, wenn du höhere Auflösungen in unkomprimiertem Raw wegschreiben musst.
Bei 16MP Pixel sensor wird 30%. gecroppt (mittlerer Sensor Weitwinkel Linse). Bringt aber momentan bei Huawei alles nichts. Da muss R"YY"B" Umwandlung nach R"GG"B bevor in CDNG gespeichert wird ... Ich bin aber immer noch der Überzeugung dass es nicht daran liegt, denn es wird nicht der 40MP Pixel (der ja RYYB ist) von motioncam benutzt, sondern der 16MP und dieser ist (soweit mir bekannt) nicht RYYB sondern RGGB.

Die Umgebung auf Ubuntu ist schonmal eingerichtet, nur Halide will nicht ganz (Abhängigkeitsprobleme ist unter Linux - gerade unter Ubuntu - leider öfter problematisch) wenn ich mehr Zeit habe, schaue ich mir das genauer an (allein schon die Umgebung einzurichten hat mich ca. 2 Stunden gekostet, cmake musste angepasst werden, einige Module mussten deaktiviert werden wie zB. freetype... damit es überhaupt durchläuft). Es fehlt mir natürlich auch das wissen darüber wie Huawei funktioniert... die Informationen sind auf Huawei-Developers-Seite vorhanden, viel anfangen kann ich aber damit nicht.... motioncam ist auch noch in c++....muss mich da ein bisschen einarbeiten.

Space


Antwort von cantsin:

roki100 hat geschrieben:
Bei 16MP Pixel sensor wird 30%. gecroppt (mittlerer Sensor Weitwinkel Linse). Bringt aber momentan bei Huawei alles nichts. Da muss R"YY"B" Umwandlung nach R"GG"B bevor in CDNG gespeichert wird ... Ich bin aber immer noch der Überzeugung dass es nicht daran liegt, denn es wird nicht der 40MP Pixel (der ja RYYB ist) von motioncam benutzt, sondern der 16MP und dieser ist (soweit mir bekannt) nicht RYYB sondern RGGB.
Nee, das ist leider nicht so - ich hatte diese Probleme auch, als ich noch P20 Pro-Besitzer war und dessen 16MP-DNGs in RawTherapee entwickeln wollte. Das ging zwar theoretisch, aber weil das Programm von einer normalen Bayer-Matrix ausging und YY als GG misinterpretierte, konnte ich selbst mit Farbverbiegungen keine vernünftigen Bilder zustande bringen.

Space


Antwort von roki100:

So wie es aussieht, erkennt motioncam die Sensoren nicht richtig. Denn der Mittlerer ist ein 40MP und motioncam nutzt auch den mittleren, erkennt diesen aber falsch, da MPs in motioncam nicht übereinstimmen:


zum Bild


Space


Antwort von klusterdegenerierung:

iasi hat geschrieben:
Nicht jeder macht die Aufnahmen seines Lebens aus dem Autositz heraus durch heruntergelassene Autofenster.
Stimmt, manche lassen es einfach ganz!

Space


Antwort von roki100:

cantsin hat geschrieben:
roki100 hat geschrieben:
Bei 16MP Pixel sensor wird 30%. gecroppt (mittlerer Sensor Weitwinkel Linse). Bringt aber momentan bei Huawei alles nichts. Da muss R"YY"B" Umwandlung nach R"GG"B bevor in CDNG gespeichert wird ... Ich bin aber immer noch der Überzeugung dass es nicht daran liegt, denn es wird nicht der 40MP Pixel (der ja RYYB ist) von motioncam benutzt, sondern der 16MP und dieser ist (soweit mir bekannt) nicht RYYB sondern RGGB.
Nee, das ist leider nicht so - ich hatte diese Probleme auch, als ich noch P20 Pro-Besitzer war und dessen 16MP-DNGs in RawTherapee entwickeln wollte. Das ging zwar theoretisch, aber weil das Programm von einer normalen Bayer-Matrix ausging und YY als GG misinterpretierte, konnte ich selbst mit Farbverbiegungen keine vernünftigen Bilder zustande bringen.
das lässt sich nachher aber mit darkable oder rawtherapee anpassen, doch da scheint definitiv an etwas anderem zu liegen. Wenn ich die original Camera App nutze und DNG Foto schiesse, kann ich nachträglich diese gut optimieren...

EDIT:
Es geht in etwa, aber nicht ganz, mit RawTherapee... ;)

so sieht dng aus:
Bildschirmfoto 2021-12-06 um 19.10.28.png und das dann in RawTherapee optimiert: Bildschirmfoto 2021-12-06 um 19.15.29.png In RawTherapee, Schwarzpunkt RGGB-Regler ganz nach links bewegen: Bildschirmfoto 2021-12-06 um 19.17.20.png danach wird das bild etwas "normaler".

Dann kann man z.B. noch unter Tab "Farbe" > mit RGB-Curves ein bisschen anpassen und zwar Curves für RGB aktivieren und bei Lift, z.B. so:

Rot Bildschirmfoto 2021-12-06 um 19.55.25.png Grün Bildschirmfoto 2021-12-06 um 19.55.40.png Blau Bildschirmfoto 2021-12-06 um 19.55.50.png Also unter RGB Curves nur den linken Punkt minimal runter/hochziehen und oben mit "Farbtemperatur" Regler noch ein bisschen optimieren.

Zuletzt noch unter Tab "Belichtung" > "Belichtungskorrektur" und "Schwarzwert" Regler etwas anpassen und tada - fertig aus die Maus! ;)

Nun das ganze aus RawTherapee in 16Bit Tiff exportieren und die Sequenzen in Davinci bearbeiten.

Bei P30 ist cropping 30% optimal. Das weitwinklinge (krummes im Bild) ist abgeschnitten und ist somit alles gerade im Bild.

Space



Space


Antwort von Frank Glencairn:

iasi hat geschrieben:


Warum das Kodak-Handy nun so etwas besonderes ist, dass unser klusterdegenerierung es so dick hervorhebt, wird er wohl nur selbst wissen.
Dabei war es nur ein eher durchschnittliches Telefon mit einem zusätzlichen Auslöseknopf.
Vielleicht wird's ja mit dem Leica-Phone diesmal was :DD


Introducing the Leitz Phone 1 to the Japanese market, the first smartphone to combine uncompromising quality, peerless optical engineering, and imaging software mastery with iconic Leica design. The Leitz-Phone 1 enables you to capture and share personal moments of everyday life with pictures of unique Leica quality. More than a Smartphone. A Century in the Making.
Named after our founder and tribute to Ernst Leitz (II), who revolutionized the world of photography in 1924 with the invention of modern 35mm photography. The Leitz Phone 1 has the world-famous Leica camera experience at its heart allowing you to concentrate entirely on adapting the essentials of photography to everyday life.

A new milestone in Leica's history, it underlines our reputation for the highest quality in technical innovation.
https://leica-camera.com/en-US/World-of ... tz-Phone-1

Space


Antwort von cantsin:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:


Warum das Kodak-Handy nun so etwas besonderes ist, dass unser klusterdegenerierung es so dick hervorhebt, wird er wohl nur selbst wissen.
Dabei war es nur ein eher durchschnittliches Telefon mit einem zusätzlichen Auslöseknopf.
Vielleicht wird's ja mit dem Leica-Phone diesmal was :DD
Das gibt's nur für den japanischen Markt und ist ein umgelabeltes Sharp Aquos R6. (Wobei Sharp mittlerweile kein japanischer Hersteller mehr ist, sondern eine Eigenmarke des Apple-Auftragsfertigers Foxconn...)

Space


Antwort von Darth Schneider:

Ich Kauf mir sofort noch ein gebrauchtes Red Hydrogen One.
Aus Flugzeug Aluminium mit Kevlar verstärkt…;)
Zusammen mit der App ergibt das dann ne echte (3D) Red.
Das ist dann aber wirklich cool..D
Gruss Boris

Space


Antwort von roki100:

ich habe heute damit etwas gespielt und die Qualität von P30 DNG ist natürlich wegen dem kleinen Sensor nicht so toll. DynamicRange ist sehr schlecht, komische noises usw.
Aber gut, immerhin gibt es nun CinemaDNG auch für Android Smartphones und wenn die kleinen Sensoren noch besser werden usw. usf. bis dahin, ist motioncam sicherlich auch gewachsen.

Space


Antwort von iasi:

roki100 hat geschrieben:
ich habe heute damit etwas gespielt und die Qualität von P30 DNG ist natürlich wegen dem kleinen Sensor nicht so toll. DynamicRange ist sehr schlecht, komische noises usw.
Aber gut, immerhin gibt es nun CinemaDNG auch für Android Smartphones und wenn die kleinen Sensoren noch besser werden usw. usf. bis dahin, ist motioncam sicherlich auch gewachsen.
Welche Auflösung konntest du denn erreichen?
Die volle Sensorauflösung ohne Crop?

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:
ich habe heute damit etwas gespielt und die Qualität von P30 DNG ist natürlich wegen dem kleinen Sensor nicht so toll. DynamicRange ist sehr schlecht, komische noises usw.
Aber gut, immerhin gibt es nun CinemaDNG auch für Android Smartphones und wenn die kleinen Sensoren noch besser werden usw. usf. bis dahin, ist motioncam sicherlich auch gewachsen.
Welche Auflösung konntest du denn erreichen?
Die volle Sensorauflösung ohne Crop?
2764x2074 bzw. 40% / 40% Crop. Sieht so aus:
Bildschirmfoto 2021-12-07 um 23.03.36.png Zumindest mit P30, wahrscheinlich sieht es mit anderen Smartphones besser aus.

Space


Antwort von roki100:

oder 30% / 40% Crop bzw. 3224x2074, ISO800 1/50
Bildschirmfoto 2021-12-07 um 23.26.18.png da stimmt etwas mit debayering nicht, wahrscheinlich nicht optimal mit RYYB trotzt der genannte Lösung mit RawTherapee.

Space


Antwort von mash_gh4:

roki100 hat geschrieben:
da stimmt etwas mit debayering nicht, wahrscheinlich nicht optimal mit RYYB trotzt der genannte Lösung mit RawTherapee.
ich denke, du solltest versuchen, ein funktionierendes DNG-foto, so wie es mit anderen RAW-fähigen apps über die normale firmware generiert wird, mit diesen DNGs zu vergleichen.

im prinzip lassen sich z.b. ExifTool alle entsprechenden einträge recht einfach vergleichen, austauschen und editieren.

auf diese art und weise kann man auch nachträglich die entsprechenden DCP profile in DNGs einbetten (von adobe gibt's zum bspw. fertige für die P30 Pro hier: https://drive.google.com/file/d/18-mVX1 ... Q09Sesva3w ), aber auch zusätzlich komplexere anweisungen unterbringen, um z.b. die ausgesprochen starke farbvignettierung dieser camera über eingebettete opcodes bessere in den griff zu bekommen.

DNG ist dieser hinsicht ziemlich spannend, weil es zwar einerseits sogar mit so exotischen sachen wie RYYB-CFAs ganz gut klar kommt, dazu aber intern doch relativ komplexe mehrfache umwandlungen zw. verschieden farbräumen beim entwickeln bzw. dem anwenden der korrekturprofile vornimmt, so dass es mit ganz einfachen korrekturanweisungen, wie du sie hier versuchst, leider nicht getan ist.

es ist schon ganz erhellend, sich damit ein bisserl näher auseinanderzusetzten! :)

speziell die diversen erklärungen zu Hue Twists, die ganz zentral dafür verantwortlich sind, dass man die spezifische color science von kameras oft nachträglich nicht mehr rückgängig machen kann, was eben durch die art und weise der entsprechenden mechanismen in den DNG profilen wesentlich besser nachvollziehbar und verständlich wird, haben mich immer ziemlich beeindruckt bzw. mein verständnis von diesem problem stark erweitert:

https://chromasoft.blogspot.com/2009/02 ... art-1.html


zum Bild


solltest du mit dem kompilieren der app weiterhin probleme haben, könnte ich dir evtl einen docker container mit den notwendigen werkzeugen bereitstellen, der auf beliebigen systemen funktionieren sollte, ohne das system unnötig zuzumüllen...

Space


Antwort von Darth Schneider:

Und was bringt das dann am Schluss ?
Mehr Auflösung aus dem eh schon viel zu kleinen Sensor mit zu vielen Pixeln. Und das ist und bleibt doch auch mit RAW die absolut grösste Schwäche der Smartphones.
Gruss Boris

Space



Space


Antwort von mash_gh4:

"Darth Schneider" hat geschrieben:
Und was bringt das dann am Schluss ?
Mehr RAW Auflösung aus dem eh schon viel zu kleinen Sensor mit zu vielen Pixeln.
Da kann RAW auch doch absolut nix daran ändern.
Gruss Boris
ich erwarte mir eigentlich nicht, dass man diesen sensoren und optiken wirklich großartige bzw. befriedigende bildqualität entlocken kann -- das war schon bei den diversen canon hacks auf kompaktknipsen meiner erfahrung nach immer recht ernüchternd --, aber ich finde es trotzdem verdammt wichtig, dass an derartiger freier software im kameraumfeld gearbeitet wird!

die ausgangsbedingungen sind hier einfach ganz andere als im kommeziellen rahmen. während dort RED mit seinen patenten tatsächlich alles blockieren kann, und firmen wie apple und BMD mit ihren geheimhaltungs- und erpressungsverträgen alle anderen unter druck setzten können, zählt im umfeld der freien software wirklich nur, dass jemand sich tatsächlich hinsetzt und sich die mühe antut, dinge auch praktisch auszuprobieren bzw. mit verbesserungsmöglichkeiten zu experimentieren. schließlich geht es dabei nicht um die gewinnbringende verwertung bzw. besitz- und lizenzansprüche im zusammhang mit entsprechendem fortschritt und der weitergabe von wissen und werkzeugen an dritte, sondern vielemehr um eine gemeinsame weiterentwicklung.

im grunde kann hier also jeder hergehen und den aktuellen wissenstand in puncto RAW-komprimierung -- also z.b.: https://harvest.usask.ca/bitstream/hand ... S-2018.pdf -- ganz praktisch in code zu gießen und mit anderen teilen.

ich persönlich finde es auch irgendwie befriedigender, mich mit derartigen verborgenen und oft sogar weitestgehend nutzlosen technischen einsichten und entwicklungen im kleinen kreis der verrückten zu beschäftigen, statt passiv und ohnmächtig mitzuverfolgen, welchen müll die kommerziellen anbieter gerade wieder mit bombastischen werbeaufwand den völlig unkritischen konsumentenmassen anzudrehen versuchen bzw. ständig -- um in iasi-mataphorik zu sprechen -- ängstlich und nervös hinter dem vorhangspalt ausschau zu halten, ob nicht doch der nachbar schon wieder ein neues noch teureres auto vor dem haus stehen hat?

Space


Antwort von Darth Schneider:

Wäre es denn theoretisch auch möglich das Smartphone als reinen CDng Recorder zu verwenden und so an irgend eine x beliebige Kamera, oder an eine Drohne anzuschliessen ? Um so CDng von extern auf dem Smartphone aufzunehmen ?
Dann wäre man nicht mal mehr Abhängig bhängig von der bescheidenen Smartphone Kamera Architektur..;)
Das fände ich jetzt irgendwie spannender.
Gruss Boris

Space


Antwort von Frank Glencairn:

mash_gh4 hat geschrieben:

ich persönlich finde es auch irgendwie befriedigender, mich mit derartigen verborgenen und oft sogar weitestgehend nutzlosen technischen einsichten und entwicklungen im kleinen kreis der verrückten zu beschäftigen, statt passiv und ohnmächtig mitzuverfolgen, welchen müll die kommerziellen anbieter gerade wieder mit bombastischen werbeaufwand den völlig unkritischen konsumentenmassen anzudrehen versuchen ...
Auch ein Hobby.
Ich schraube da lieber an meinem Wagen - ähnlich befriedigend, ähnlich verrückt, und ein guter Ausgleich was Work-Life Balance betrifft.

Space


Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:
Wäre es denn theoretisch auch möglich das Smartphone als reinen CDng Recorder zu verwenden und so an irgend eine x beliebige Kamera, oder an eine Drohne anzuschliessen ? Um so CDng von extern auf dem Smartphone aufzunehmen ?


Da müßtest du erst mal an das RAW Signal des Sensors kommen.
Es gab da mal vor vielen Jahren ein paar Versuche in die Richtung, haben auch funktioniert, war aber super aufwändig und kompliziert - insgesamt ne nette Spielerei, war aber am Ende völlig unpraktikabel.

Space


Antwort von Darth Schneider:

Am besten über so ein Raveneye und zwar kabellos.
Irgend eine HDMI Cam hängt da dran. Die Software hackt regelt und leitet im Hintergrund und dann ab und speichern auf dem Smartphone mit CDng.

Komm jetzt roki…Das schaffst du doch noch vor dem Frühstück.
Und bitte mit nur etwas leisem Ton ? .;)
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Wäre es denn theoretisch auch möglich das Smartphone als reinen CDng Recorder zu verwenden und so an irgend eine x beliebige Kamera, oder an eine Drohne anzuschliessen ? Um so CDng von extern auf dem Smartphone aufzunehmen ?
Dann wäre man nicht mal mehr Abhängig bhängig von der bescheidenen Smartphone Kamera Architektur..;)
Das fände ich jetzt irgendwie spannender.
Gruss Boris
Aber dann hast du doch gerade wieder die größte Schwäche von Raw auf dem Smartphone:

Speicherkapazität, -geschwindigkeit und die Datenrate erzwingen Crops.
Bei eh schon kleinen Sensoren ist das dann eine bittere Pille, die man schlucken muss, um Raw zu erhalten.
Zumal es dann eben auch nur 10bit-Raw ist.

Wenn ein Smartphone die volle Sensorauflösung in CDNG wegschreiben könnte, wäre das ganz ja interessant, aber es gibt wohl nur einige Phones, die bei der Tele-Kamera eine Auflösung von max.4k bieten.
Unkomprimierte 4k-CDNG erzeugen enorme Datenmengen.

Space


Antwort von Darth Schneider:

@iasi
Was denn Speicher Problem ?
Speichern natürlich direkt in der Cloud…
Nun gut eine IOS Version fehlt da ja eh noch….;)
Gruss Boris

Space


Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
"Darth Schneider" hat geschrieben:
Wäre es denn theoretisch auch möglich das Smartphone als reinen CDng Recorder zu verwenden und so an irgend eine x beliebige Kamera, oder an eine Drohne anzuschliessen ? Um so CDng von extern auf dem Smartphone aufzunehmen ?
Da müßtest du erst mal an das RAW Signal des Sensors kommen.
Es gab da mal vor vielen Jahren ein paar Versuche in die Richtung, haben auch funktioniert, war aber super aufwändig und kompliziert - insgesamt ne nette Spielerei, war aber am Ende völlig unpraktikabel.
abgesehen davon, dass die etablierten kamerahersteller einem nicht gerne zugriff auf das innere geschehen bzw. die rohen unaufbereiteten ausgangsdaten geben, wäre auch die übertragung zw. den geräten relativ problematisch und bis zu einem gewissen grad auch einfach widersinnig.

ich glaub da eher, dass so ansätze wie in den octopus cameras weit mehr sinn machen -- also die verwendung von einfach verfügbaren fertigen industriekameramodulen, die ohnehin genau die gleichen sensoren nutzen wie viele consumerkameras, und eine verarbeitung auf leistungsfahigen kleinen singleboardcomputern bzw. dortige aufzeichnung auf ganz normale NVRAM-SDD-speichermodule.

das ist zwar ein ansatz, der für die industrielle fertigung keinen sinn macht, weil es im vergleich zu dem, was normalerweise in unseren kameras steckt, relativ teuer bzw. in vielerlei hinsicht überdimensioniert wirkt, aber dafür lässt es sich halt viel flexibler modifizieren. es könnte allerdings gut sein, dass man hier manches besser mit FPGAs als auf gebräuchlichen GPUs abwickelt. das ist zwar momentan auf einfachen SBC noch nicht sehr verbreitet, aber langsam gibt's auch dafür immer mehr interessante und erschwingliche optionen.
(https://www.arrow.com/en/products/mpf30 ... /microsemi).

im grunde macht's aber keinen nenneswerten unterschied, ob man nun irgendwelche handys od. singleboardcomputer für diese aufgaben bzw. entsprechende entwicklung heranzieht.

wenn es nach mir geht, kann man kameras sehr weit auf ihre tatsächlichen kern reduzieren bzw. unnötigen oberflächlichen schnickschnak weglassen, aber dafür sollten sie eben ähnlich offen und frei nutzbar sein wie heutige PCs.

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Was denn Speicher Problem ?
Speichern natürlich direkt in der Cloud…
Nun gut eine IOS Version fehlt da ja eh noch….;)
Gruss Boris
Unkomprimiertes Raw.
Und das willst du in die Cloud kleckern lassen?

Das Problem sind die großen Datenmengen.

Space


Antwort von roki100:

bei dem obigen Beispiel 30% / 40% Crop 3224x2074, ein Frame; 5.3MB.

Möglich wäre z.B. extern über USB-C auf ne SSD zu speichern. Wahrscheinlich jetzt schon mit gerootete Smartphones möglich...

Space


Antwort von cantsin:

roki100 hat geschrieben:
bei dem obigen Beispiel 30% / 40% Crop 3224x2074, ein Frame; 5.3MB.

Möglich wäre z.B. extern über USB-C auf ne SSD zu speichern. Wahrscheinlich jetzt schon mit gerootete Smartphones möglich...
Dafür brauchst Du kein gerootetes Smartphone - denn in dem Moment, indem Du die noch intern komprimiert gespeicherten Aufnahmen in der App zu CinemaDNG konvertierst, kannst Du einen beliebigen Zielordner auswählen, der sich auch auf einem per USB gemounteten externen Speicher befinden kann.

Mein Pixel 5 mountet eine als FAT (nicht exFAT) formatierte Samsung T5 problemlos; die Begrenzung von FAT auf maximal 2GB große Einzeldateien ist bei CinemaDNG wegen dessen kleinteiliger Dateistruktur (mit i.d.R. 10MB großen Einzeldateien) kein Problem.

Space


Antwort von roki100:

mash_gh4 hat geschrieben:
solltest du mit dem kompilieren der app weiterhin probleme haben, könnte ich dir evtl einen docker container mit den notwendigen werkzeugen bereitstellen, der auf beliebigen systemen funktionieren sollte, ohne das system unnötig zuzumüllen...
Das wäre jetzt - unabhängig von mir - allgemein ne gute Idee zum Download zur Verfügung zu stellen. Oder VirtualBox Image würde ja auch gehen, mit alles drum und dran inkl. Android Studio usw..

Space


Antwort von roki100:

cantsin hat geschrieben:
roki100 hat geschrieben:
bei dem obigen Beispiel 30% / 40% Crop 3224x2074, ein Frame; 5.3MB.

Möglich wäre z.B. extern über USB-C auf ne SSD zu speichern. Wahrscheinlich jetzt schon mit gerootete Smartphones möglich...
Dafür brauchst Du kein gerootetes Smartphone - denn in dem Moment, indem Du die noch intern komprimiert gespeicherten Aufnahmen in der App zu CinemaDNG konvertierst, kannst Du einen beliebigen Zielordner auswählen, der sich auch auf einem per USB gemounteten externen Speicher befinden kann.
Scheint nur mit manchen smartphones zu funktionieren. Bei mir landet alles direkt im Download Ordner und ich kann vorher nirgends Speicherort auswählen. Oder habe ich was übersehen?

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
Und was bringt das dann am Schluss ?
Mehr Auflösung aus dem eh schon viel zu kleinen Sensor mit zu vielen Pixeln. Und das ist und bleibt doch auch mit RAW die absolut grösste Schwäche der Smartphones.
Gruss Boris
Naja, man könnte weiter gehen, z.B. Android auf mini Boards (z.B. die Dinger von Nvidia) installieren, größere Sensor anschließen, MFT Bajonett anfertigen lassen usw. usf. Bis man damit aber fertig ist, sind die smartphones Sensoren vll. dann sowieso besser geworden ;)

Space


Antwort von cantsin:

roki100 hat geschrieben:
cantsin hat geschrieben:


Dafür brauchst Du kein gerootetes Smartphone - denn in dem Moment, indem Du die noch intern komprimiert gespeicherten Aufnahmen in der App zu CinemaDNG konvertierst, kannst Du einen beliebigen Zielordner auswählen, der sich auch auf einem per USB gemounteten externen Speicher befinden kann.
Scheint nur mit manchen smartphones zu funktionieren. Bei mir landet alles direkt im Download Ordner und ich kann vorher nirgends Speicherort auswählen. Oder habe ich was übersehen?
Beim ersten Speichern bzw. bei der ersten Benutzung des CinemaDNG-Umwandlungsmenüs fragt Dich die App, in welchen Ordner sie speichern soll, und merkt sich dann den Speicherort. Wenn Du anfangs "Download" spezifiziert hast, hast Du natürlich Pech und müsstest die Voreinstellungen der App löschen. Ich hab mir im Wurzelverzeichnis meines Telefons einen Ordner "CinemaDNG" angelegt, den ich bei Bedarf bzw. Nutzung eines externen Speichers wieder löschen kann, so dass mich die App wiederum nach dem Speicherort fragt.

So ein entkoppelter Ordner hilft auch als vorbeugende Maßnahme dagegen, dass die hunderte und tausende DNG-Einzelframes von Foto-Apps wie Google Photos oder der Android-Version von Lightroom eingelesen werden und deren Index vollmüllen.

Space


Antwort von roki100:

Musste vorhin draußen warten und da fiel mir ein, ah dein Smartphone kann RAW, hol das Ding aus der Tasche und nimm etwas auf, AF funktioniert auch usw. usf. und naja, geht so.

https://www.youtube.com/watch?v=-X4QcTBfZcE

Boris denkt bestimmt "sieht ja aus wie meine P4K mit Dehancer Profile Rollei CN200!" ;)

Space


Antwort von roki100:

spielen kann man ja ;) Dehancer + Cinestill 800T

https://www.youtube.com/watch?v=iua-zjQYMLI

Space


Antwort von iasi:

roki100 hat geschrieben:
bei dem obigen Beispiel 30% / 40% Crop 3224x2074, ein Frame; 5.3MB.

Möglich wäre z.B. extern über USB-C auf ne SSD zu speichern.
Direkt kann man nicht auf eine externe SSD speichern. Man muss dann den internen Speicher immer wieder mal auf eine SSD entleeren.

Grob gerechnet kommst du mit deinen 3,2k also auf knapp 8GB pro Minute - bei 24fps.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:
bei dem obigen Beispiel 30% / 40% Crop 3224x2074, ein Frame; 5.3MB.

Möglich wäre z.B. extern über USB-C auf ne SSD zu speichern.
Direkt kann man nicht auf eine externe SSD speichern. Man muss dann den internen Speicher immer wieder mal auf eine SSD entleeren.
Momentan scheinbar noch nicht, aber mit etwas umcodieren? Vielleicht "zipWriter" (aus dem motioncam Code) so anpassen, dass die *.zip Datei direkt auf SSD gelagert wird? Mit root meinte ich, das man dadurch auch einiges jetzt schon leichter lösen kann, z.B. das ziel wo *.zip gelagert wird, lässt sich doch mit tricks die SSD direkt dahin verlinken (ln -s ...). Müsste eigentlich funktionieren.

Es gibt schon anfrage: https://github.com/mirsadm/motioncam/issues/37

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Direkt kann man nicht auf eine externe SSD speichern. Man muss dann den internen Speicher immer wieder mal auf eine SSD entleeren.
Momentan scheinbar noch nicht, aber mit etwas umcodieren? Vielleicht "zipWriter" (aus dem motioncam Code) so anpassen, dass die *.zip Datei direkt auf SSD gelagert wird? Mit root meinte ich, das man dadurch auch einiges jetzt schon leichter lösen kann, z.B. das ziel wo *.zip gelagert wird, lässt sich doch mit tricks die SSD direkt dahin verlinken (ln -s ...). Müsste eigentlich funktionieren.

Es gibt schon anfrage: https://github.com/mirsadm/motioncam/issues/37
Ob die Hardware das dann auch mitmacht, ist eben die Frage.

Man muss sich immer vor Augen halten, welche Datenraten hier bewältigt werden müssen.

Und 3,2k vom Crop eines Smartphones-Sensor ist heute doch auch nichts anderes als die ML-Crops der Canon-Spiegelreflex-Kameras.

Solange ich nicht von einem Smartphone höre, das ohne Crop CDNGs wegschreiben kann, bleibe ich bei Kameras. Zumal mir die Smartphones eh viel zu weitwinklig daherkommen und wenn mal ein "Tele" verbaut ist, dieses eher vernachlässigt wird.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:


Momentan scheinbar noch nicht, aber mit etwas umcodieren? Vielleicht "zipWriter" (aus dem motioncam Code) so anpassen, dass die *.zip Datei direkt auf SSD gelagert wird? Mit root meinte ich, das man dadurch auch einiges jetzt schon leichter lösen kann, z.B. das ziel wo *.zip gelagert wird, lässt sich doch mit tricks die SSD direkt dahin verlinken (ln -s ...). Müsste eigentlich funktionieren.

Es gibt schon anfrage: https://github.com/mirsadm/motioncam/issues/37
Ob die Hardware das dann auch mitmacht, ist eben die Frage.
Es kommt auf den USB Port des genutzten Smartphone. Mit USB 2 wird es vll. knapp, aber mit USB 3.1 etc. wird es reichen. Denn die RAW Daten werden eigentlich zuerst in *.zip komprimiert (ist in Wirklichkeit also etwas kleiner) und daraus werden dann die unkomprimierte dng's extrahiert. Kann sein aber das ich falsch liege.
Solange ich nicht von einem Smartphone höre, das ohne Crop CDNGs wegschreiben kann, bleibe ich bei Kameras. Hast Du echt gedacht Du kannst nun die Kameras aufgeben? ;))

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Ob die Hardware das dann auch mitmacht, ist eben die Frage.
Es kommt auf den USB Port des genutzten Smartphone. Mit USB 2 wird es vll. knapp, aber mit USB 3.1 etc. wird es reichen. Denn die RAW Daten werden eigentlich zuerst in *.zip komprimiert (ist in Wirklichkeit also etwas kleiner) und daraus werden dann die unkomprimierte dng's extrahiert. Kann sein aber das ich falsch liege.
Solange ich nicht von einem Smartphone höre, das ohne Crop CDNGs wegschreiben kann, bleibe ich bei Kameras. Hast Du echt gedacht Du kannst nun die Kameras aufgeben? ;))
Ich dachte, die Kamera im Handschuhfach oder in der Jackentasche hätte dann ausgedient. :)

Smartphones sind eben beachtlich Rechenmaschinen, die aufgrund der hohen Stückzahlen zu niedrigem Preis zu haben sind.
Red hätte statt dem 3D-Display-Spielzeug z.B. eine gute Kamera und RedRaw implementieren und den Großteil der Technik zukaufen können.

Space


Antwort von cantsin:

Umgekehrt wird ein Schuh draus - wenn man irgendwo, notgedrungen, etwas mit dem Smartphone filmt, dessen Material in für die Postproduktion optimaler Bildqualität haben und in ein mit anderen Kameras gefilmtes Projekt einfügen will, dann bringt diese Lösung sehr viel. Zumindest hat sie, wenn nur kurz gefilmt werden muss, meinen klaren Vorzug ggü. dem 8bit-Material, das Filmic Pro aufnimmt.

Auch die 10bit sind weniger einschränkend als bei konventionellem 10bit-Videomaterial, weil es einen erheblichen Unterschied macht, wenn man eine Weißabgleichskorrektur an undebayertem Material (mit noch nicht interpolierten, bzw. noch sauber getrennten RGB-Werten) vornimmt - wie ich bei meinem eigenen Praxisexperiment feststellen konnte.

Space


Antwort von roki100:

iasi, übrigens, wegen Speicherverbrauch, hier noch ein kleiner Tipp
Einfach die Zeile im Code, von:
static const bool USE_COMPRESSION = false;
in:
static const bool USE_COMPRESSION = true;
ändern.

Vll. noch nen passenden Schaltregler für den mittleren Touchfinger einbauen und "RED Patent ist doof: JA/NEIN " betiteln ... ;)
Aber pssstttt... zum Glück funktioniert USE_COMPRESSION true nicht richtig ;)

Space


Antwort von cantsin:

Hier mein erstes Video, das ich komplett mit der Motion Camera-App (aus der Hand auf einem Google Pixel 5 im 2424x1816-Sensorcrop) gedreht habe:

https://vimeo.com/655521828

Hat Spaß gemacht, und das Material sieht IMHO gut aus - subjektiv besser als das MagicLantern/CinemaDNG-Raw Video aus meiner alten EOS M, und sowieso farblich Klassen besser als normales h264/h265-Smartphonevideo. Hier mal die Farbraumabdeckung der meisten Einstellungen:
Screenshot from 2021-12-11 00-09-49.png

Erstaunlich, wie gut auch das Objektiv des Pixels ist - in CinemaDNG wird ja nichts algorithmisch verbessert. In der vorletzten Einstellung ist sogar ein focus pull (den man mit der App über den manuellen Fokus-Slider machen kann).

Das 2K-Videomaster (2048x1556 Pixel, 40 Mbit/s, Bildrauschen größtenteils ungefiltert) ist von Vimeo herunterladbar.

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
Hat Spaß gemacht, und das Material sieht IMHO gut aus...
ja -- ist ein nettes filmchen geworden!
cantsin hat geschrieben:
Hier mal die Farbraumabdeckung der meisten Einstellungen:
Screenshot from 2021-12-11 00-09-49.png
das sagt vermutlich nur aus, dass das rauschen, von dem es bei den kleinen sensoren und wenig licht natürlich immer mehr als genug gibt, beim transport relativ gut erhalten bleibt. ;)
cantsin hat geschrieben:
Erstaunlich, wie gut auch das Objektiv des Pixels ist - in CinemaDNG wird ja nichts algorithmisch verbessert.
doch -- DNG eraubt nicht nur die übergabe einfacher hinweise bzgl. des verwendeten objektivs in den metadaten, sondern sogar das einbetten von komplexen korrekturanweisungen in form von opcodes für die objektivkorrektur -- bspw. der opcode "WarpRectilinear"

"An Opcode is an algorithm to be applied to some or all of the image data, described in the specification, and (optionally) implemented in the product that reads and processes the DNG file. The DNG file itself holds lists of Opcodes to be executed, together with the parameters to be applied on execution. In effect, the DNG file can contain lists of "function calls" to be executed at various stages in the raw conversion process. For example, the WarpRectilinear Opcode "applies a warp to an image and can be used to correct geometric distortion and lateral (transverse) chromatic aberration for rectilinear lenses". This is an example of an algorithm that cannot be applied to the raw image data itself before it is placed into the DNG file, because it should be executed after demosaicing."

das erlaubt ziemlich komplexe korrekturen, wie bspw. das beseitigen der farbvignettierung beim P30, von dem hier unlängst schon einmal die rede war.

es ist allerdings natürlich der auswertungs- bzw. entwicklungssoftware überlassen, wie weit sie diese angaben berücksichtigt od. gar zusätzliche datenbanken mit lens-profiles beim processing einbezieht.

du kannst sie aber auch ganz bewusst mit exiftool aus den dateien raus löschen, um den unterschied zu sehen, wenn dir die entwicklungssoftware keine derartige option anbietet.

Space


Antwort von Darth Schneider:

Irgend eine Chance das RAW Video bei den iPhones auch noch kommt ?
Was denkt ihr ? ProRes RAW ?, oder CDng ? Oder wer weiss, ev sogar BRaw ? (wegen dem beschissenem Red Patent)

Nun gut, sie können ja schon ProRes…;)))
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Irgend eine Chance das RAW Video bei den iPhones auch noch kommt ?
Was denkt ihr ? ProRes RAW ?, oder CDng ? Oder wer weiss, ev sogar BRaw ? (wegen dem beschissenem Red Patent)

Nun gut, sie können ja schon ProRes…;)))
Gruss Boris
Klar kommt das.
Die Canon R5 kann ja nun auch Raw.
Von der 5D2 mit ML bis zur R5 hat es eben nur ein wenig gedauert.

Space


Antwort von Darth Schneider:

Ja aber Apple ist da doch längst nicht so offen mit Open Source Projekten bei IOS und mit fremden Video Codecs..
Und ob ProRes RAW überhaupt auf nem iPhone mit iMovie überhaupt theoretisch funktionieren würde…?
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Ja aber Apple ist da doch längst nicht so offen mit Open Source Projekten bei IOS und mit fremden Video Codecs..
Gruss Boris
ProRes Raw macht für Apple doch kaum einen Unterschied zu ProRes HQ. Nur die Datenraten unterscheiden sich.

Eine nächste iPhone-Generation muss ja schließlich mehr bieten, als die Vorgänger.

Space


Antwort von Darth Schneider:

Eben, und Apple will doch alles immer perfektionieren.
Darum sehe ich eher kein 4K ProRes RAW in den iPhones, weil sonst müssten diese erstmal viel, viel mehr Speicherplatz kriegen..
Gruss Boris

Space


Antwort von Jost:

"Darth Schneider" hat geschrieben:
Eben, und Apple will doch alles immer perfektionieren.
Darum sehe ich eher kein 4K ProRes RAW in den iPhones, weil sonst müssten diese erstmal viel, viel mehr Speicherplatz kriegen..
Gruss Boris
CDNG ist nettes Gimmick: Ein CDNG aus der BM 4,6 ist rund 12MB groß. Heißt: Bei 60p gehen sekündlich 700 MB durch. Das wird sich nur extern speichern lassen.
Bild_2021-12-11_100830.png Im Iphone sehe in zumindest Raw Hq auch nicht.

Space


Antwort von Darth Schneider:

Dann wird das Apple wohl kaum ins iPhone rein packen…ProRes HQ ist ja schon speicherhungrig genug.
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Eben, und Apple will doch alles immer perfektionieren.
Darum sehe ich eher kein 4K ProRes RAW in den iPhones, weil sonst müssten diese erstmal viel, viel mehr Speicherplatz kriegen..
Gruss Boris
Heute bietet Apple ProRes HQ.
Morgen dann ProRes Raw.
Das ist langfristige Modellpolitik.
Zumal sich Apple dann den zusätzlichen Speicherbedarf ordentlich bezahlen lassen kann. Da lacht dann das Renditeherz.

Space


Antwort von iasi:

Jost hat geschrieben:
"Darth Schneider" hat geschrieben:
Eben, und Apple will doch alles immer perfektionieren.
Darum sehe ich eher kein 4K ProRes RAW in den iPhones, weil sonst müssten diese erstmal viel, viel mehr Speicherplatz kriegen..
Gruss Boris
CDNG ist nettes Gimmick: Ein CDNG aus der BM 4,6 ist rund 12MB groß. Heißt: Bei 60p gehen sekündlich 700 MB durch. Das wird sich nur extern speichern lassen.

Bild_2021-12-11_100830.png

Im Iphone sehe in zumindest Raw Hq auch nicht.
Aber die Grafik zeigt doch schon:
ProRes HQ ist speicherhungriger als ProRes Raw.

Space


Antwort von Darth Schneider:

Das wäre dann aber seltsam, dann wäre das beste Raw trotzdem noch kleiner als ProRes HQ ?
Ja dann kann doch ProRes RAW gar kein echtes RAW sein…
Oder ?
Gruss Boris

Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
cantsin hat geschrieben:
Hier mal die Farbraumabdeckung der meisten Einstellungen:
Screenshot from 2021-12-11 00-09-49.png
das sagt vermutlich nur aus, dass das rauschen, von dem es bei den kleinen sensoren und wenig licht natürlich immer mehr als genug gibt, beim transport relativ gut erhalten bleibt. ;)
Wenn ich mit Neat (auch relativ aggressiv) entrausche, ändert sich fast nichts:
1.10_1.10.1.jpg Screenshot from 2021-12-11 10-52-08.png cantsin hat geschrieben:
Erstaunlich, wie gut auch das Objektiv des Pixels ist - in CinemaDNG wird ja nichts algorithmisch verbessert.
doch -- DNG eraubt nicht nur die übergabe einfacher hinweise bzgl. des verwendeten objektivs in den metadaten, sondern sogar das einbetten von komplexen korrekturanweisungen in form von opcodes für die objektivkorrektur -- bspw. der opcode "WarpRectilinear"

du kannst sie aber auch ganz bewusst mit exiftool aus den dateien raus löschen, um den unterschied zu sehen, wenn dir die entwicklungssoftware keine derartige option anbietet.
Habe ich mal zum Spass gemacht, das hat aber - bei Resolve mit seiner relativ rudimentären Raw-Implementation - keinen Einfluss auf die Objektiveigenschaften, sondern nur die von der Kamera gespeicherte Farbmatrix geht verloren.

"Darth Schneider" hat geschrieben:
Das wäre dann aber seltsam, dann wäre das beste Raw trotzdem noch kleiner als ProRes HQ ?
Ja dann kann doch ProRes RAW gar kein echtes RAW sein…
Raw-Dateien brauchen weniger Speicherplatz als debayerte Dateien, weil pro Pixel ja nur ein Farbwert gespeichert wird. 12bit-Raw hat nur 12 Bit pro Pixel, debayertes 10bit-RGB-Video 30 Bit (10bit Rot + 10bit Grün + 10bit Blau) pro Pixel

Space


Antwort von mash_gh4:

"Darth Schneider" hat geschrieben:
Das wäre dann aber seltsam, dann wäre das beste Raw trotzdem noch kleiner als ProRes HQ ?
das hat damit zu tun, dass ja in einer RAW datei immer nur 1 kanal genutzt wird, während es ja bei normalen farbilder drei RGB od. YUV sind. dadurch sind RAW dateien im vergleich zu ähnlich komprimierten normalen farbaufnahmen tatsächlich relativ klein, nur das man halt von ihnen in der regel weit höhere qualität verlangt, was das den platzbedarf dann in der regel doch wieder spürbar verschiebt.
"Darth Schneider" hat geschrieben:
Ja dann kann doch ProRes RAW gar kein echtes RAW sein…
Oder ?
Gruss Boris
es ist zumindest ähnlich hoch und ganz ähnlich komprimiert wie BRAW, was man nicht unbedingt als optimal ansehen sollte. in dieser form hat es kaum mehr nennenswerte vorteile gegenüber gebräuchlicheren aufzeichnungsformaten mit Log material.

Space


Antwort von klusterdegenerierung:

Filmt ihr eigentlich alle im stockdunklen mit 50 Iso?

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
mash_gh4 hat geschrieben:
du kannst sie aber auch ganz bewusst mit exiftool aus den dateien raus löschen, um den unterschied zu sehen, wenn dir die entwicklungssoftware keine derartige option anbietet.
Habe ich mal zum Spass gemacht, das hat aber - bei Resolve mit seiner relativ rudimentären Raw-Implementation - keinen Einfluss auf die Objektiveigenschaften, sondern nur die von der Kamera gespeicherte Farbmatrix geht verloren.
ich hab natürlich keine ahnung, wie das im resolve tatsächlich gehandhabt wird, aber ich gehe stark davon aus, dass sie einfach das DNG-SDK von adobe für die entwicklung nutzen, also im wesentlich schon ein ähnliches verhalten wie in den meisten anderen anwendungen zu beobachten sein sollte.

Space


Antwort von pillepalle:

mash_gh4 hat geschrieben:
in dieser form hat es kaum mehr nennenswerte vorteile gegenüber gebräuchlicheren aufzeichnungsformaten mit Log material.
Schon mal mit ProRes RAW gearbeitet, oder reine Theorie? :) Mir fallen spontan einige Vorteile ein. 12 Bit Farbtiefe statt 10 Bit. Den Weißpunkt kann man auch nachträglich (beim Debayern) festlegen. Ich kann die nativen ISO der Kamera nutzen und das Material besser belichten (in Log sind ISO 800 die niedrigst mögliche Einstellung bei meiner Kamera). Ich umgehe alle Verschlimmbesserungen der Kamera (Objektivkorrekturen, Denoising, usw). Das wären eigentlich schon genug Gründe. Der Zuschauer wird davon am Ende vermutlich wenig mitbekommen, aber es macht das Arbeiten in einigen Situationen leichter.

ProRes RAW ist jedenfalls weniger komprimiert als ProRes, denn die Dateien sind ja effektiv größer obwohl sie, wie Cantsin schon richtig erklärt hat, nur einen Farbwert pro Pixel aufweisen. Gemessen an einer 12 Bit ProRes Datei (ProRes 444) sind sie aufgrund dessen jedoch kleiner.

VG

Space


Antwort von mash_gh4:

pillepalle hat geschrieben:
mash_gh4 hat geschrieben:
in dieser form hat es kaum mehr nennenswerte vorteile gegenüber gebräuchlicheren aufzeichnungsformaten mit Log material.
Schon mal mit ProRes RAW gearbeitet, oder reine Theorie? :) Mir fallen spontan einige Vorteile ein. 12 Bit Farbtiefe statt 10 Bit. Den Weißpunkt kann man auch nachträglich (beim Debayern) festlegen. Ich kann die nativen ISO der Kamera nutzen und das Material besser belichten (in Log sind ISO 800 die niedrigst mögliche Einstellung bei meiner Kamera). Ich umgehe alle Verschlimmbesserungen der Kamera (Objektivkorrekturen, Denoising, usw). Das wären eigentlich schon genug Gründe. Der Zuschauer wird davon am Ende vermutlich wenig mitbekommen, aber es macht das Arbeiten in einigen Situationen leichter.
der zentrale vorteil von RAW besteht darin, dinge machen zu können, die nur vor od. im zuge des debayerns noch modifizierbar sind.

der weißabgleich und exposure-shift gehört da nicht dazu. die kann man durchaus auch bei log-aufzeichnung und hoch komprimiertem material in ganz gleicher weise später bzw. mit bereits debayertem material korrigieren.

highlight recovery ist schon ein bisserl problematischer, und raw-denoising aber auch änderungen am debayerprozess, um moire- od. aliasing probleme zu korrigieren, sind mit derart verlustbehaftetem material praktisch gar nicht mehr möglich. dafür braucht man einfach die exakte ursprüngliche abgrenzung der werte an der zugehöriger senselposition, wie sie nach einer derartigen geringfügig verlustbehafteten kompression nicht mehr gegeben ist.

Space


Antwort von pillepalle:

mash_gh4 hat geschrieben:
der weißabgleich und exposure-shift gehört da nicht dazu. die kann man durchaus auch bei log-aufzeichnung in ganz gleicher weise später bzw. mit bereits debayertem material korrigieren.
Das ist aber reines Wunschdenken ;)

VG

Space


Antwort von iasi:

cantsin hat geschrieben:


"Darth Schneider" hat geschrieben:
Das wäre dann aber seltsam, dann wäre das beste Raw trotzdem noch kleiner als ProRes HQ ?
Ja dann kann doch ProRes RAW gar kein echtes RAW sein…
Raw-Dateien brauchen weniger Speicherplatz als debayerte Dateien, weil pro Pixel ja nur ein Farbwert gespeichert wird. 12bit-Raw hat nur 12 Bit pro Pixel, debayertes 10bit-RGB-Video 30 Bit (10bit Rot + 10bit Grün + 10bit Blau) pro Pixel
Das ist dann aber eine ziemlich vereinfachte Rechnung.

Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
der weißabgleich und exposure-shift gehört da nicht dazu.
Beim Weißabgleich widerspreche ich Dir. Es macht einen Unterschied, ob Du die noch nicht interpolierten RGGB-Werte einfach gegeneinander verschiebst (d.h.: kühlerer Abgleich: Blau-Pixel verstärken, Rot- und Grün-Pixel absenken, danach Debayern), oder die Farbtemperatur der interpolierten Farben nachträglich zu verändern versuchst.

Space


Antwort von cantsin:

iasi hat geschrieben:
cantsin hat geschrieben:





Raw-Dateien brauchen weniger Speicherplatz als debayerte Dateien, weil pro Pixel ja nur ein Farbwert gespeichert wird. 12bit-Raw hat nur 12 Bit pro Pixel, debayertes 10bit-RGB-Video 30 Bit (10bit Rot + 10bit Grün + 10bit Blau) pro Pixel
Das ist dann aber eine ziemlich vereinfachte Rechnung.
Wieso?

Unkomprimiertes 12bit-Raw benötigt (mathematisch) exakt 40% des Speicherplatzes von unkomprimierten 10bit- (=eigentlich 30bit) Video.

Space


Antwort von pillepalle:

iasi hat geschrieben:
Das ist dann aber eine ziemlich vereinfachte Rechnung.
Bei unkomprimierten Stills kommt das recht gut hin.

VG

Space


Antwort von pillepalle:

Auch bei der Belichtung macht es einen Unterschied, denn es ist einfach ein praktischer Nachteil, wenn man keine niedrigen ISO Werte einstellen kann. Ich kann weniger Licht an den Sensor lassen als bei der Base ISO möglich wäre (ohne NDs), oder clippe früher.

VG

Space


Antwort von iasi:

mash_gh4 hat geschrieben:

der weißabgleich und exposure-shift gehört da nicht dazu. die kann man durchaus auch bei log-aufzeichnung in ganz gleicher weise später bzw. mit bereits debayertem material korrigieren.
Also da würde ich aber doch widersprechen.

Weißabgleich beeinflusst die Gewichtung der einzelnen Farben und ergibt beim Debayern ein besseres Ergebnis, als die nachträgliche Farbverschiebung der beim Debayern berechneten Farbwerte.

exposure-shift wiederum ist durch log nun einmal stärker begrenzt.
Du wirst die Mitten beim Belichten nicht in den oberen Bereich schieben wollen, wenn die Abstufungen nicht linear verlaufen.

Space


Antwort von iasi:

pillepalle hat geschrieben:
Auch bei der Belichtung macht es einen Unterschied, denn es ist einfach ein praktischer Nachteil, wenn man keine niedrigen ISO Werte einstellen kann. Ich kann weniger Licht an den Sensor lassen als bei der Base ISO möglich wäre (ohne NDs), oder clippe früher.

VG
Der ISO Wert verändert doch aber nicht die Lichtmenge, die auf den Sensor fällt.
Dies lässt sich nur mit der Belichtungszeit (bei der man 180° anstrebt), der Blende (die man gestalterisch wählt) und eben durch Filter steuern.
Wenn der Sensor auf ISO800 kalibriert ist, dann verhinderst du kein Clippen, indem du ISO50 einstellst.

Space


Antwort von pillepalle:

Die Base ISO meiner Kamera ist aber ISO 100 und die kann ich nur in RAW einstellen. In N-log sind ISO 800 der niedrigst mögliche Wert. Und wenn ich etwas mit ISO 100 belichte dann bekommt der Sensor nicht nur mehr Licht, er clippt auch 3 Blenden später als bei ISO 800. Und wenn ich NDs benutze um die Belichtung anzupassen, dann lasse ich 3 Blenden weniger Licht an den Sensor als nötig.

VG

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
mash_gh4 hat geschrieben:
der weißabgleich und exposure-shift gehört da nicht dazu.
Beim Weißabgleich widerspreche ich Dir. Es macht einen Unterschied, ob Du die noch nicht interpolierten RGGB-Werte einfach gegeneinander verschiebst (d.h.: kühlerer Abgleich: Blau-Pixel verstärken, Rot- und Grün-Pixel absenken, danach Debayern), oder die Farbtemperatur der interpolierten Farben nachträglich zu verändern versuchst.
ja -- dieses einfache anpassen der farbtemperatur durch die aussteuerung der drei farbkomponenten vor dem debayern ist aber ohnehin nur eine sehr unbefriedigende art des weißabgleichs.

korrekt erledigt man diese anpassung besser ein klein wenig später, also nachdem die senselfarben bzw. spektralsensibilität bereits in einem scene referred arbeitsfarbraum korrekt positioniert wurden. dort nimmt man dann einer umwandlung in den XYZ farbraum vor, wendet einer der gängigen chromatischen-adaptions-transformationen (CAT) an, und wandelt anschließend das korrigierte resultate wieder in den benutzten arbeitsfarbraum zurück.

das geht mit aufgezeichneten log-daten der ursprünglichen sensor werte in ganz gleicher weise wie in der beschreibenen weise im raw-entwicklungsprozess nach dem debayern.

erst wenn man sich in display referred umgebungen bzw. diesebzüglich zurechtgebogenen und eingengten grundfarben befindet, ist es tatsächlich nur mehr völlig unzureichend korrigierbar.

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
Unkomprimiertes 12bit-Raw benötigt (mathematisch) exakt 40% des Speicherplatzes von unkomprimierten 10bit- (=eigentlich 30bit) Video.
bei komprimiertem material ist die sache nicht mehr ganz so einfach, weil mit den hohen bittiefen meist auch ziemlich viel rauschen eingeschleppt wird, dass sich nicht komprimieren lässt, also entweder die größe überproportional strapaziert od. aber im falle von verlusbehafteter kompression ohnehin völlig verschwindet, damit aber eben auch das vermeintliche mehr an bittiefe...

Space


Antwort von roki100:

mash_gh4 hat geschrieben:
das geht mit aufgezeichneten log-daten der ursprünglichen sensor werte in ganz gleicher weise wie in der beschreibenen weise im raw-entwicklungsprozess nach dem debayern.
Verstehe ich das richtig; Du meinst, wenn man z.B. in ProRes HQ (kein RAW) aufnimmt, mit völlig falschen WB, lässt sich das genau so korrigieren wie nachträglich RAW?

Space


Antwort von Darth Schneider:

Also nach meinem Empfinden lässt sich ProRes HQ der Weissabgleich\Farbtemperatur nicht ansatzweise so leicht am Computer verändern wie z.B. bei BRaw.

Und auch sonst finde ich das BRaw kann man was die Farben und auch die Belichtung (iso) anbelangt in Resolve schon viel mehr verbiegen als das HQ ProRes Format. Sollte ja auch so sein BRaw hat schliesslich auch 12Bit Farbtiefe und nicht 10 Bit wie ProRes HQ.
Gruss Boris

Space


Antwort von pillepalle:

mash_gh4 hat geschrieben:
ja -- dieses einfache anpassen der farbtemperatur durch die aussteuerung der drei farbkomponenten vor dem debayern ist aber ohnehin nur eine sehr unbefriedigende art des weißabgleichs.

korrekt erledigt man diese anpassung besser ein klein wenig später, also nachdem die senselfarben bzw. spektralsensibilität bereits in einem scene referred arbeitsfarbraum korrekt positioniert wurden. dort nimmt man dann einer umwandlung in den XYZ farbraum vor, wendet einer der gängigen chromatischen-adaptions-transformationen (CAT) an, und wandelt anschließend das korrigierte resultate wieder in den benutzten arbeitsfarbraum zurück.

das geht mit aufgezeichneten log-daten der ursprünglichen sensor werte in ganz gleicher weise wie in der beschreibenen weise im raw-entwicklungsprozess nach dem debayern.

erst wenn man sich in display referred umgebungen bzw. diesebzüglich zurechtgebogenen und eingengten grundfarben befindet, ist es tatsächlich nur mehr völlig unzureichend korrigierbar.
Das sind eben die Gedankengänge eines Theorethikers, der nach einer Begründung für seine Behauptung sucht. In der Praxis, lässt sich das sicher nicht nachweisen, denn wenn es so wäre, wärest Du vermutlich nicht der Einzige der über dieses Geheimwissen verfügen würde. Wenn die originalen Farbwerte einmal verloren sind, lassen die sich mit keinem Zaubertrick der Welt wieder herstellen. Aber Du wirst um natürlich Ausreden nicht verlegen sein, warum Du uns das jetzt an praktischen Beispielen leider nicht zeigen kannst ;)

VG

Space


Antwort von mash_gh4:

roki100 hat geschrieben:
mash_gh4 hat geschrieben:
das geht mit aufgezeichneten log-daten der ursprünglichen sensor werte in ganz gleicher weise wie in der beschreibenen weise im raw-entwicklungsprozess nach dem debayern.
Verstehe ich das richtig; Du meinst, wenn man z.B. in ProRes HQ (kein RAW) aufnimmt, mit völlig falschen WB, lässt sich das genau so korrigieren wie nachträglich RAW?
ja -- mit vernünftigen Log-Formaten und sauberem farbmanagement sind derartige eingriffe in der beschriebenen weise ganz korrekt möglich.

in ACES ist es bspw. so vorgesehen. deshalb gibt es im normalfall nur zwei IDTs die für die am häufigsten verwendeten farbtemperaturen festgelegt sind, alles andere wird über die oben skizzierten CAT-operationen kompensiert. wenn du dagegen dort mit der primitiven methode der veränderten aussteuerung von raw-kanälen beginnst, ist es praktisch aussichtslos, dass du dein material später sauber im vorgesehenen arbeitsfarbraum platzieren kannst, weil dadurch alle farbbezüge massiv verzerrt sind bzw. die IDTs nicht mehr zu den real vorfindlichen daten passen.

Space


Antwort von Darth Schneider:

Ausser man filmt am Anfang im Licht, einfach ein weisses Blatt Papier, macht in der Kamera einen Weissabgleich und gut ist’s…
Und wenn der WA dann doch nicht korrekt genug war, dann ziehe ich in Resolve mit BRaw mal genau 2Sekunden lang an einem Regler bis das Blatt auf dem Bildschirm wieder weiss ist…

Aber klar ihr könnt den Weissabgleich auch mit Einsteins Relativitätstheorie versuchen durch zu rechnen.

Findet ihr dann überhaupt noch Zeit etwas zu filmen ???
Gruss Boris

Space


Antwort von mash_gh4:

pillepalle hat geschrieben:
Das sind eben die Gedankengänge eines Theorethikers, der nach einer Begründung für seine Behauptung sucht. In der Praxis, lässt sich das sicher nicht nachweisen, denn wenn es so wäre, wärest Du vermutlich nicht der Einzige der über dieses Geheimwissen verfügen würde.
in jeder bessern erklärung zur frage des weißabgleichs wirst du darauf stoßen, dass eine bloßes skalieren der rohen R'G'B' amplitude der senseldaten nicht unbedingt optimal ist bzw. nur eine grobe näherung darstellt, die in ihrer näherungsweisen vereinfachung durchaus auch ungute begleiterscheinungen nach sich zieht:

https://en.wikipedia.org/wiki/Color_bal ... or_balance

hier auch noch eine erklärung, wo gleich auch an bespielen aufgezeigt wird, wie sich selbst noch die wesentlich subtileren unterschiede zwischen den besseren korrekturmethoden visuell auswirken:

https://web.stanford.edu/~sujason/Color ... ation.html

Space


Antwort von pillepalle:

@ mash_gh4

Ich habe ja auch nicht gesagt, dass es nicht auch bessere Methoden zum Weißabgleich gibt. Aber bei einer bereits debayerten Datei hast Du die falschen Farbinformationen bereits ins Material eingebacken. Die richtigen holst Du nie wieder zurück.

VG

Space


Antwort von mash_gh4:

pillepalle hat geschrieben:
Ich habe ja auch nicht gesagt, dass es nicht auch bessere Methoden zum Weißabgleich gibt. Aber bei einer bereits debayerten Datei hast Du die falschen Farbinformationen bereits ins Material eingebacken. Die richtigen holst Du nie wieder zurück.
das debayern hat ja nur die aufgabe, die räumlich verteilten anhaltspunkte der farbinformation im sinne einer interpolation auf all pixel auszudehnen.

in diesem schritt werden aber die farben selbst normalerweise nicht wirklich angetastete -- d.h. du erhältst danach die selben R'G'B'-werte, die ursprünglich nur in den jeweils zugehörigen feldern der farbfilterarrays verstreut zu finden waren.

das einpassen in den tatsächlich genutzten arbeits- und export-farbraum geschieht in der regel erst in weiteren schritten der aufbereitung.

dort ist es dann aber natürlich durchaus möglich, die verschobenen farbwerte einer aufnahme, die bei einer andern farbtemperatur als vorgesehen aufgenommen wurde, nachträglich zu korrigieren.

man muss dazu ja nur nur drei dinge ganz genau kennen und korrekt zueinander in beziehung setzten:

1. welche intensitäten hat der kamerasensor in den jeweiligen farbfeldern tatsächlich wahrgenommen
2. wie verhält sich die betreffende kanaltrennung bzw. spektrale sensibilität bei diesem sensor
3. wie werden veränderungen im energiespektrum des lichts vom menschlichen auge bzw. den dortigen unterschiedlichen rezeptoren wahrgenommen.

im grunde geht's dann nur mehr darum, diesen ganz grundsätzlichen unterschied in der spektralen erfassung auf seiten der R'G'B'-sensoren mit den etwas anders gelagerten spektralen sensibilität des menschlichen auges in einklang zu bringen.

das ist der relativ einfache hintergrund des betreffenden korrrektur-hokuspokus, der in wahrheit ohnehin hauptsächlich auf empirischen untersuchen zur menschlichen farbwahrnehmung basiert, die im lauf der letzten hundert jahre ständig verbessert wurden.

wie gesagt: sensel-RGB-scaling als ganz primitive näherungslösung, wie sie im zuge eines möglichst einfachen processings in der kamera od. sehr einfacher RAW-entwickelung genutzt wurde od. wird, ist natürlich auch eine herangehnsweise, aber mit anspruchsvolleren formen der farbbearbeitung ist das nicht wirklich zufriedenstellend unter einen hut zu bringen.

Space


Antwort von pillepalle:

Aber darum geht es doch gar nicht. Du redest immer von der mathematischen Möglichkeit Farbwerte zu verschieben. Wenn diese Farbwerte aber von vornherein nicht stimmen, helfen Dir mathematische Methoden auch nicht weiter, denn die ursprüngliche Information ist einfach verloren gegangen.

Wenn man einen extremen Farbstich auf die Bilder anwendet, dann besteht das Bild praktisch nur noch aus einer Farbe (z.B. mehr oder weniger Blau) und die Farbwerte verschieben sich dabei eben nicht wie es mathematisch korrekt wäre, denn sie sind durch den Farbraum begrenzt. Blauer als reines Blau geht nicht. Und deshalb verschieben sich die Werte auch so, das sie nicht wieder hergestellt werden können. Das Verhältnis innerhalb der verschiedenen Ursprungsfarben zueinander stimmt einfach nicht mehr. Und diese Erfahrung macht jeder, der einmal die Farbbalance seines Motivs völlig falsch eingestellt hat.

VG

Space


Antwort von mash_gh4:

pillepalle hat geschrieben:
Aber darum geht es doch gar nicht. Du redest immer von der mathematischen Möglichkeit Farbwerte zu verschieben. Wenn diese Farbwerte aber von vornherein nicht stimmen, helfen Dir mathematische Methoden auch nicht weiter, denn die ursprüngliche Information ist einfach verloren gegangen.
wenns't einmal mit clipping in einzelnen farbkanälen zu kämpfen hast, ist natürlich hopfen und malz verloren, aber ansonten sehe ich nicht, worin die einschänkungen der von mir beschriebenen methode der farbtemperatur-korrektur gegenüber primitiveren möglichkeiten bestehen soll?

ich hab auch das gefühl, dass sich das durchaus mit meinen praktischern erfahrungen deckt, wo ich den weißabgleich regelmäßig in genau dieser weise im zuge einer sauberen RAW-entwicklung -- vor allem bei fotos! -- nachträglich in der beschriebenen weise wähle und prozessiere.

ich weiß schon, dass dir das sicher auch noch nicht genügen wird, um mich weiter als theoretiker zu diskreditieren, aber umgekehrt finde ich es halt leider auch eine katastrophe, das heute allen arbeitsmittel zu verfügung stehen, die sie oft von den theoretischen vorsaussetzungen bzw. dem verfügbarem wissen her heillos überfordern, und viele ja auch gar nicht erst bereit sind, die basics des betreffendenden handwerks zu erlernen, um wenigstens ganz essentielle grundlagen der benutzen techniken im ansatz nachzuvollziehen und verstehen zu können.

Space


Antwort von pillepalle:

Die Grundlagen des Handwerks bestehen unter anderem darin, die Vor- und Nachteile verschiedener Bildformate zu kennen. Und das nachträgliche Debayering ist eben der wesentliche Vorteil bei einem RAW Workflow. Die entscheidenden Schritte für den Bildeindruck in Ruhe und unter besseren Bedingungen durchführen zu können, als wenn man die Entscheidung direkt während der Aufnahme vor Ort treffen muss.

Natürlich braucht es schon ein gewisses Unvermögen, bereits debayertes Material zu versemmeln, zumal mit der Fülle der zur Verfügung stehenden Kameraautomatiken. Aber man hat auch nicht immer die Ruhe und kann nicht immer mit der Sorgfalt arbeiten, die die Situation vielleicht erfordern würde. Das ist eine praktische Entscheidung die jeder selber treffen muss. Ich kann in vielen Situationen auch wunderbar ohne RAW arbeiten, aber manchmal ist es eben der bessere Weg. Und das kann man auch nicht wegdiskutieren.

VG

Space


Antwort von roki100:

Update here:
https://github.com/mirsadm/motioncam/re ... -beta1.apk

This lets you choose where to save the recorded videos.

Space


Antwort von cantsin:

Hier nochmal etwas schwarzweisses, das ich mit Motion Cam CinemaDNG gedreht habe (Korn/Rauschen nachträglich hinzugefügt):

https://vimeo.com/655745483

Space


Antwort von Darth Schneider:

Für mich wirkt das Bild allgemein sehr ( zu) digital….überhaupt nicht annähernd filmisch…Sorry..
Gruss Boris

Space


Antwort von Frank Glencairn:

CDNG ist ja auch kein automatischer "Cinematic-Generator".

Space


Antwort von Darth Schneider:

Das Korn auch nicht…;)
Gruss Boris

Space


Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
CDNG ist ja auch kein automatischer "Cinematic-Generator".
doch! -- da man auf grund der umständlichkeit und des großen platzbedarfs fast so arbeiten muss wie mit super-8, schlägt sich das ganz bestimmt auch in den resultaten nieder.

ich würde zwar dieses konkrete beisspiel-video nicht unbedingt als beleg für diese behauptung heranziehen, weil das dafür doch noch ein wenig zu beliebig ist, aber trotzdem gehört's wenigstens zu den sachen, die ich mir überhaupt anseh.

ehrlich gestanden finde ich aber das provozierte geriesel nicht zu toll.
einerseits, weil es einfach ziemlich nevt, kitzelt und unruhig macht, anderseits aber auch, weil diese oberflächliche, irgendwo zwischen zwischen digitalem rauschen und schlechter korn-imitation angesiedelte verfremdung, fast schon weh tut, wenn man die feinheiten von richtigem analogen film einmal verinnerlicht hat und auch das rauschen im digitalen umfeld nicht ganz so erfreulich findet.

bei richtigem s/w-film gibt's ganz charakteristiche zusammenhänge zw. gradation, kontrast und empfindlichkeit und der resultierenden kornintensität, die dann auch in den verschiednen graustufen und an den kanten im bild jeweils wieder ein klein wenig anders zu tage tritt. man bekommt also schnell das gefühl einer gewissen unstimmigkeit, wenn es zu gleichförmig wirkt und die sichtbaren graustufen bzw. einer bildgebung in weichem material entsprechen, wo das korn in analogem filmmaterial kaum so dominant hervortreten würde.

grundsätztlich finde ich es aber ausgesprochen wohltuend, erfreulich und vorbildlich, dass hier zur abwechslung mit den mittel der s/w-bildgebung gearbeitet wird, weil ich sehr vieles, das da gegenwärtig mit farben aufgeführt wird, mittlerweile kaum mehr ertragen kann.

Space


Antwort von Frank Glencairn:

mash_gh4 hat geschrieben:


doch! -- da man auf grund der umständlichkeit und des großen platzbedarfs ....
War das jetzt deine Art Humor, oder kannst du das näher erläutern?

Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
ehrlich gestanden finde ich aber das provozierte geriesel nicht zu toll.
einerseits, weil es einfach ziemlich nevt, kitzelt und unruhig macht, anderseits aber auch, weil diese oberflächliche, irgendwo zwischen zwischen digitalem rauschen und schlechter korn-imitation angesiedelte verfremdung, fast schon weh tut, wenn man die feinheiten von richtigem analogen film einmal verinnerlicht hat und auch das rauschen im digitalen umfeld nicht ganz so erfreulich findet.
Mir ging's überhaupt nicht um einen analogen Filmlook oder Filmkornsimulation, sondern tatsächlich um Bildrauschen.

Die Ausstellung hat Warten zum Thema (und besteht aus Audioaufnahmen mit gesprochenen Texten, die per Kopfhörer gehört werden) und stammt von einer rumänischen Künstlerin, die auch die Erfahrungen des Ostblock-Kommunismus reflektiert. Das Video ist daher bewusst langweilig - so, als wenn man irgendwo in einer Amtsstube endlos auf seinen Termin wartet -, und das Bildrauschen ist als visueller Störfaktor bzw. Nebel drin. Und Schwarzweiss auch nicht als Retro- oder Filmsimulation, sondern eben als farblose Bilder.

Der Vorteil der CinemaDNG-Aufnahme hier war vor allem, dass das Videosignal nicht rauschgefiltert oder nachgeschärft wurde, und dass der maximale DR des Sensors auch in der Aufzeichnung erhalten blieb (wobei der bei einem Smartphone-Sensor natürlich begrenzt ist und die Fenster öfter ausbrennen).

Space


Antwort von Jörg:

Das Video ist daher bewusst langweilig habe ich im TV täglich...

Space


Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
mash_gh4 hat geschrieben:

doch! -- da man auf grund der umständlichkeit und des großen platzbedarfs ....
War das jetzt deine Art Humor, oder kannst du das näher erläutern?
nein -- ich glaub wirklich, dass sich einfache und unreflektierte bedienbarkeit bzw. automtismen und inflationärer gebrauch nicht unbedingt immer positiv auf die qualität des resultierenden outputs niederschlagen.

wie weit es allerdings sinn macht bzw. eine vernünftige gegenstrategie od. gar lösung darstellt, sich deshalb gleich irgendwelchen idiotischen selbstkasteiungen und vermeidbaren umständlichkeiten auszusetzen, ist natürlich eine andere frage.

Space


Antwort von Frank Glencairn:

Ich kann bei der Arbeit mit CDNGs jedenfalls keine "Umständlichkeiten" sehen,
und die Datenrate - in einer Zeit, wo ne 4TB Platte 100 Euro kostet - geschenkt.

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
...von einer rumänischen Künstlerin, die auch die Erfahrungen des Ostblock-Kommunismus reflektiert. Das Video ist daher bewusst langweilig - so, als wenn man irgendwo in einer Amtsstube endlos auf seinen Termin wartet -, und das Bildrauschen ist als visueller Störfaktor bzw. Nebel drin. Und Schwarzweiss auch nicht als Retro- oder Filmsimulation, sondern eben als farblose Bilder.
du meinst diese seltsame art des reichlich verzerrten rückerinnerns, wie sie uns beim abschied der deutschen bundeskanzlerin unlängst ja auch so einprägsam mit einem lied vor augen geführt würde:



Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
du meinst diese seltsame art des reichlich verzerrten rückerinnerns, wie sie uns beim abschied der deutschen bundeskanzlerin unlängst ja auch so einprägsam mit einem lied vor augen geführt würde:

Ja. Wobei ich mir das Video nochmal unter die Finger nehmen werde und sehen, ob ich das Bildrauschen nicht aus dem CinemaDNG-Material selbst rausholen bzw. verstärken kann (statt es als Effekt drüberzulegen). Hättest Du dafür eventuell einen technischen Tip?

Space


Antwort von roki100:

ich verstehe das nicht, warum denn sowas? Warum 4:3 und SW usw. ;)

Space


Antwort von Darth Schneider:

Warum denn auch nicht ?
S/W und 4:3 erzeugen halt einen ganz anderen Look, und entlocken auch andere Emotionen beim Publikum.
Muss doch grundsätzlich gar nicht verkehrt sein, wenn es zur Geschichte oder der zu der Aussage des Films passt.
Gruss Boris

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
Wobei ich mir das Video nochmal unter die Finger nehmen werde und sehen, ob ich das Bildrauschen nicht aus dem CinemaDNG-Material selbst rausholen bzw. verstärken kann (statt es als Effekt drüberzulegen). Hättest Du dafür eventuell einen technischen Tip?
von derartigem rauschen ist in solchem material sicher eine ganze menge anzutreffen...

ich denke, dass man es vermutlich am einfachsten herausheben kann, wenn man eine differenz zw. dem "original" und einer entrauschten kopie bildet, das ergebnis dann verstärkt und wieder mit dem original mischt. bei den meisten ähnlichen eingriffen werden sonst auch kanten u.ä. zu stark hervorgehoben.

ist zwar ein bisserl umständlich, aber fertigen "rauschverstärkern" begegnet man ja nichteinmal am schwarzmarkt der videoeffekte. ;)

Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
ich denke, dass man es vermutlich am einfachsten herausheben kann, wenn man eine differenz zw. dem "original" und einer entrauschten kopie bildet, das erginis dann verstärkt und wieder mit dem original mischt.
Super-Idee, das werde ich machen. Danke!

Space


Antwort von pillepalle:

Ziemlich guter Kanal zum Thema Kompression, der die Zusammenhänge recht anschaulich erklärt. Auch die Basics wie die Entropie, oder den Bayerfilter, die Grenzen der JPEG-Kompression usw...







VG

Space


Antwort von Frank Glencairn:

Und noch eines...




Space


Antwort von pillepalle:

Ja, ehrlich gesagt gibt es mehrere zum Thema JPEGs. Zu dem Video welches Du gepostet hast gehören drei weitere.







VG

Space


Antwort von Frank Glencairn:

Why do we still like the 'film look'?

Are we beyond the film look? Simon Wyndham used to think so, but now he isn't so sure.

The film look is one of those things that we should be over, yet it is something that many people still strive for, despite the dominance and flexibility of digital acquisition. Why is this?

Back in the days of yore when forums were filled with techniques for de-interlacing and Magic Bullet, one of the first film simulation plugins, arrived on the scene, and then everyone wanted their footage to look like film. Of course, the desire wasn't surprising since most digital cameras looked pretty, well, digital.

Those new-fangled film simulations did their best to emulate film stock style colour and added grain. Some of them, such as the aforementioned, and at the time extremely pricey ($1000), Magic Bullet, did an exceptional job for the period. This was a time when nobody had ever heard the term "LUT", and the stock simulations were not tailored to any specific cameras colour science. Once you'd turned on features such as grain, in addition to its predictive de-interlacing algorithm, the render times sky-rocketed. It wasn't unusual to have to wait days for an edit to finish outputting!

https://www.redsharknews.com/why-do-we- ... -745294146

Space


Antwort von cantsin:

"Frank Glencairn" hat geschrieben:
https://www.redsharknews.com/why-do-we- ... -745294146
Ich finde ja, dass seine Film-Gradingbeispiele eher nach Instagram aussehen...

Space


Antwort von roki100:

ich finde Ursula ungradet da besser :)

Space


Antwort von Frank Glencairn:

Oft klaffen halt auch gefühlter/erinnerter/gewünschter Filmlook, und wie tatsächlicher Film aussieht weit auseinander.
Ich bin ziemlich sicher, daß wenn man was völlig triviales, ohne extra Licht auf Film drehen würde, die meisten es hier nicht als "Filmlook" einordnen würden.

Space


Antwort von Axel:

cantsin hat geschrieben:
"Frank Glencairn" hat geschrieben:
https://www.redsharknews.com/why-do-we- ... -745294146
Ich finde ja, dass seine Film-Gradingbeispiele eher nach Instagram aussehen...
roki100 hat geschrieben:
ich finde Ursula ungradet da besser :)
Alles Geschmackssache. Grenzwertig zergradetes Video sieht dann eben wieder besonders nach Video aus. Wichtiger als das, was die Filmlook-Nazis sagen, ist mE das Bewusstsein für Videolook-Merkmale. Manche modernen Techniken, z.B. HDR, werden von modernen Betrachtern nicht mit Videolook in Verbindung gebracht, andere schon. Ich sah vor Jahr und Tag Tutorials (mehrere!), die behaupteten, zur Vermeidung des Videolooks müsse man Tiefen entsättigen. Ich nahm's für bare Münze, wendete's an und glaubte, es auch zu sehen. Jüngst sah ich gleich mehrere Videos, die das Gegenteil verkündeten - und gut begründeten: mehr türkise, lila und gelbe Farbkörnchen übereinander machen den Polyester-Träger weniger transparent für das Projektions-Licht, also dunkler und satter (laienhaft, aber hoffentlich anschaulich und nachvollziehbar ausgedrückt). Die Kontraste sind hoch, man muss Mut haben zum Komprimieren (nicht kompletten Crushen = absaufen Lassen) der Tiefen und zu Darstellung von *Licht* als 100 IRE. Flat sieht heute mehr denn je nach Log-Video, also letztlich nach Video aus, und das würde ich jedenfalls vermeiden. Die Hauptvorteile von Raw wären große Flexibilität bei der Helligkeitsverteilung und bei der Farbenverteilung. Auf das Wesentliche zusammengekürzt muss man beides nutzen, um den Kontrast und den Farbkontrast zu optimieren. Wenn man das nicht macht, sieht Video mit Raw-Abstammung ja trotzdem wieder nach Video aus, selbst, wenn man hinterher Körner drüberstreuselt und Lichtsäume orange macht.

Und das wissen auch Samsung, Google, Apple und Xiaomi. Deren Videos sind bis zum Abwinken prozessiert? Ja, nicht völlig erfolgreich, aber schon tendenziell mit dem Ziel, Otto Normalkonsument nicht mehr als "Smartphone-Videos" übel aufzustoßen.

Space


Antwort von roki100:

Filmlook-Nazis. .LOL :)))

Das z.B. gehört in der Kategorie "Filmlook":

https://vimeo.com/651045421

Nur Filmgrain raus oder etwas weniger drin lassen. :)

Space


Antwort von cantsin:

Das besondere am analogen Filmlook ist, dass analoger Film immer Unmengen Licht braucht, starkes Licht weich wegschluckt, und eine 35mm-Filmproduktion deshalb per definitionem aufwändig geleuchtet ist. (Gutes heutiges Beispiel: Die auf 35mm gedrehte HBO-Serie "Succession".)

IMHO sieht man beim Filmlook vor allem diese aufwändige Ausleuchtung. Als Gegenbeispiel kann man sich z.B. mies geleuchtete 70er/80er-Jahre (auf 35mm gedrehte) "Supernasen"-Filme oder P*rn*-Filme ansehen. Den Look will man wahrscheinlich nicht replizieren.

Space


Antwort von Axel:

@roki100
Ich versteh's ja so, dass man schon Vimeo braucht, damit der Grain überlebt. Am Reflex in dem silbernen Kännchen kann man gut sehen, dass Halation im 16mm Original allenfalls zu erahnen ist und in den Dehancer-Fakes eine Parodie. Glaube nicht, dass das jemand - und sei es auch nur subliminal - wahrnimmt, ohne mit der Sackkarre darauf gestoßen zu werden. Und im Ganzen frage ich mich schon, wie viele der Dehancer-Filter eigentlich erstrebenswert sind. Ich hätte eine Version vom BMPCC mit ? (Resolve) mal interessant gefunden und daneben dieselbe mit einer Lum vs. Sat - Kurve. Ob das Rauschgestöber und das luttige Farbspektrum dagegen gewonnen hätten? Denke nicht.

@cantsin
Ja, das glaube ich auch.

Space


Antwort von roki100:

Also bei mir rauscht BMPCC nicht so gewaltig und das finde ich gut so.

Space


Antwort von Frank Glencairn:

Axel hat geschrieben:
Am Reflex in dem silbernen Kännchen kann man gut sehen, dass Halation im 16mm Original allenfalls zu erahnen ist und in den Dehancer-Fakes eine Parodie.
Womöglich hab ich ja was am Auge, aber wo genau siehst du da eine "Parodie"?



2021-12-15 16.38.22 vimeo.com 127e6f4a8e89.jpg

Space


Antwort von roki100:

@Frank,
wird BMD bald eine neue Kamera (Micro oderso) veröffentlichen? :) Reicht ein "A" und wir wissen bescheid!

Space


Antwort von Darth Schneider:

@roki
Ich denke es kommt gar keine Micro mehr, weil jetzt sind 6K oder 12K angesagt bei den Kamera Herstellern. Da geht doch eigentlich nix mehr sinnvoll kleiner wie bei den aktuellen Pockets…
Die ja im Vergleich zur Micro eigentlich schon alles und noch mehr drin haben, bis auf den SDI und Remote Anschluss…
Also ich denke BMD braucht eigentlich überhaupt keine neue Micro Studio Kamera nur eine neue Pocket Pro mit den selben, entsprechenden Anschlüssen.;)
Gruss Boris

Space


Antwort von roki100:

Ich frage, deswegen:





https://forum.blackmagicdesign.com/view ... 50#p812010

Space


Antwort von Darth Schneider:

Sieht für mich genau so aus wie die alte.
Da kommen gar keine neuen, nur die alten gehen…;)
Gruss Boris

Space


Antwort von cantsin:

Es gibt Neuigkeiten: in der aktuellen Version 7.0.8-beta5 unterstützt MotionCam sowohl 2x2-Pixelbinning (was hilft, um auch ohne Sensorcrop CinemaDNG aufzunehmen), als auch optional 12bit-CinemaDNG-Aufnahme. Das Interface hat ausserdem aussagekräftige Anzeigen über die verbleibende Bufferkapazität während der Aufnahme.

Space


Antwort von roki100:

Ich frage mich ob z.B. das hier funktionieren würde? https://www.photografix-magazin.de/micr ... t-android/


zum Bild


Space


Antwort von cantsin:

roki100 hat geschrieben:
Ich frage mich ob z.B. das hier funktionieren würde? https://www.photografix-magazin.de/micr ... t-android/
Snapdragon 660 - auf derart veralteter Hardware wohl kaum...

Space


Antwort von roki100:

cantsin hat geschrieben:
roki100 hat geschrieben:
Ich frage mich ob z.B. das hier funktionieren würde? https://www.photografix-magazin.de/micr ... t-android/
Snapdragon 660 - auf derart veralteter Hardware wohl kaum...
müsste eigentlich ganz gut funktionieren, zumindest 2K oderso.
Snapdragon 660 : ARMv8-basierter SoC...bis zu 2,2 GHz (4 Performance-Kerne)....neben den CPU-Kernen integriert der SoC auch eine Adreno-512-Grafikkarte, einen LPDDR4 Speicherkontroller (Dual-Channel 1866 MHz). https://www.notebookcheck.com/Qualcomm- ... 436.0.html

Space


Antwort von Darth Schneider:

@roki
Warum denkst du eigentlich immer daran nur solche Kameras zu kaufen ?

Entweder, solche, kurz vor dem Zeitpunkt wo es sie nicht mehr beim Hersteller gibt und neu gar nicht mehr zu kaufen gibt ?
Solche Cams von solchen Kamera Hersteller von denen man gar nicht weiss ob sie nicht jeden Moment pleite gehen könnten ?
Oder solche wie die hier oben, die kaum über das Prototyp Stadium hinaus gekommen sind, die eigentlich schon lange vor dem Erscheinen auf dem Markt eindeutig zum scheitern verurteilt sind ?

Nicht das es mich was angeht, oder mich betrifft, aber denk doch in deinem eigenen Interesse mal nur darüber nach…

Und was CDng betrifft, was Frank im anderen Threat geschrieben hat würde ich mir zu Herzen nehmen.
Ich sehe das so:
Du investierst sehr viel Zeit und Energie in ein RAW Format das was Bewegtbilder betrifft, gar nicht mehr weiter entwickelt wird und du betreibst damit fast Grundlagenforschung..;)
Aber die modernen RAW Formate die JETZT auf aktuellen Kisten laufen, die vor allem JETZT auch weiter entwickelt werden, die auf viel mehr verschiedenen Geräten jetzt funktionieren, zeigst du die kalte Schulter.

So bist du doch nur dein eigener Bremsklotz, nimm den mal endlich weg, und du gehst ab wie eine Rakete…;))

Gruss Boris

Space


Antwort von mash_gh4:

grundsätzlich glaube ich auch, dass ein modifizieren derartiger consumer-geräte weit eher zu einer befriediegenden lösung im hinblick auf frei nutzbare kameras führen könnte als all diese projekte, die die derartiges von grund auf neu zu schaffen versuchen. in der praxis wird das nämlich leider immer viel zu teuer und dauert auch immer viel zu lange.

aber vielleicht findet sich ja auch einmal ein hersteller, der ganz bewusst ein erschwingliches entwicklungsmodul und größerem bildsensor in mehr od. weniger subventionierter weise unter die leute bringt, um die fähigkeiten der eigenen hardware populärer zu machen und gegen die konkurrenz auszuspielen.

z.b. könnte microsemi das mit seiner polarfire architektur jederzeit machen, um hier für ein wenig wirbel zu sorgen bzw. völlig unbeackertes neuland mit intessanter hardware zu erschließen.

https://www.arrow.com/en/products/mpf30 ... /microsemi

android devices sind in dieser hinsicht vermutlich nicht umbedingt die optimale ausgangsbasis, weil sie meist wirklich auf eine ganz billige resalisierung hin optimiert sind und dazu ständig extrem schlecht dokumentierte hardwarelösungen benutzten. gerade die quallcomm chips sind in dieser hinsicht alles andere als ideal, obwohl sie natürlich eine tolle basis basis bieten würden, wenn das ganze ein klein wenig offener gehalten wäre.

Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
android devices sind in dieser hinsicht vermutlich nicht umbedingt die optimale ausgangsbasis, weil sie meist wirklich auf eine ganz billige resalisierung hin optimiert sind und dazu ständig extrem schlecht dokumentierte hardwarelösungen benutzten. gerade die quallcomm chips sind in dieser hinsicht alles andere als ideal, obwohl sie natürlich eine tolle basis basis bieten würden, wenn das ganze ein klein wenig offener gehalten wäre.
Die Perspektive ist IMHO sowieso nicht, dass eine Android-CinemaDNG-App z.B. eine Blackmagic-Kamera, eine CinePi (Raspberry Pi-CinemaDNG-) Kamera oder eine der mehr oder weniger erfolgreichen Open Source-Cinema-Kameraprojekte ersetzt. Dafür ist schon die Beschränkung auf die bei den Smartphones vorgegebenen, festeingebauten, blendenlosen Optiken zu problematisch. Bei jeder ernsthaften digitalen Cinekamera will man (adaptierbare) Wechselobjektive mit Fokus- und Blendenringen. Und selbst wenn's um Low Budget und Kompaktheit geht, ist da eine gebrauchte EOS M mit aufgespieltem MagicLantern + C-Mount-Adapter + C-Mount-Objektiv für 200-250 EUR eine bessere und praxisnahere Lösung.

Nur umgekehrt wird ein Schuh draus, nämlich dass man mit Motion Cam eine - angesichts der Hardware-Einschränkungen von Smartphones - erstaunlich leistungsfähige und dazu noch geschenkte Open Source-Lösung dafür kriegt, dass man mit seinem schon vorhandenen und immer in der Hosentasche steckenden Smartphone spontan B-/C-Roll-Material ohne die Smartphone-typischen Einschränkungen (schmalbandige Codecs, überprozessiertes/aufgebrezeltes Video) drehen kann, das sich im Schnitt problemlos und ohne viel Klimmzüge mit dem Material von Blackmagic-Kameras, Sigma fp, Panasonic S5/S1H & Co mischen lässt. Natürlich mit allen o.g. heftigen Einschränkungen, vor allem dem Fehlen einer Tonaufnahme und der kurzen Einstellungsdauer.

Andererseits: Genau diese Einschränkungen gab's/gibt's auch z.B. bei der Bolex H16, der immer noch beliebtesten Kamera für analogen Experimentalfilm, mit der z.B. Jonas Mekas sein gesamtes Werk gedreht hat... Ein heutiger Jonas Mekas könnte das auch mit einem Android-Smartphone machen, und ggfs. sogar einem kompletten Frame-by-Frame Open Source-Workflow mit RawTherapee/Libraw und ffmpeg, ggfs. sogar auf einem alten Computer und auf der Kommandozeile. Das finde ich nach wie vor eine spannende Sache, vor allem, weil in der heutigen Experimentalfilmszene darüber praktisch jedes Wissen fehlt und noch in völlig veralteten Denkbildern (ungefähr technischer Stand 90er Jahre) über digitale Bewegtbildtechnik versus analoger Film gedacht wird - und wenn nicht, dann viel zu schnell und kritiklos zu irgendwelchen Out-of-the-Box-Mediamarkt-HD/4K-Videokamera-Lösungen gegriffen wird.

Space


Antwort von cantsin:

cantsin hat geschrieben:
Natürlich mit allen o.g. heftigen Einschränkungen, vor allem dem Fehlen einer Tonaufnahme und der kurzen Einstellungsdauer.
Und so schnell wird man von den Tatsachen eingeholt: Gerade wurde die Beta 0 der Version 8.0 von Motion Cam veröffentlicht, mit Tonaufnahme.
https://github.com/mirsadm/motioncam/releases

Space


Antwort von iasi:

cantsin hat geschrieben:
cantsin hat geschrieben:
Natürlich mit allen o.g. heftigen Einschränkungen, vor allem dem Fehlen einer Tonaufnahme und der kurzen Einstellungsdauer.
Und so schnell wird man von den Tatsachen eingeholt: Gerade wurde die Beta 0 der Version 8.0 von Motion Cam veröffentlicht, mit Tonaufnahme.
https://github.com/mirsadm/motioncam/releases
Da scheint mir das aber relevanter:

RAW12 support


Was mir aber noch immer nicht klar ist:
Welche Auflösungen sind denn nun bei verschiedenen Phones ruckelfrei möglich?
Gibt"s da irgendwo eine Datensammlung oder Erfahrungen?

Hier werden die Problem deutlich:
https://www.youtube.com/watch?v=gSce9lNbCo0

Space


Antwort von roki100:

iasi hat geschrieben:
Hier werden die Problem deutlich:
Welche Probleme? Colorgrading?

Space


Antwort von roki100:

cantsin hat geschrieben:
cantsin hat geschrieben:
Natürlich mit allen o.g. heftigen Einschränkungen, vor allem dem Fehlen einer Tonaufnahme und der kurzen Einstellungsdauer.
Und so schnell wird man von den Tatsachen eingeholt: Gerade wurde die Beta 0 der Version 8.0 von Motion Cam veröffentlicht, mit Tonaufnahme.
https://github.com/mirsadm/motioncam/releases
ZIPs are gone. Unfortunately they were adding too much overhead so its using a custom file format now. It provides a pretty significant boost in write speed.
https://github.com/mirsadm/motioncam/is ... -998238822

Space


Antwort von cantsin:

iasi hat geschrieben:
Welche Auflösungen sind denn nun bei verschiedenen Phones ruckelfrei möglich?
Mittlerweile alle - bzw. ist das nicht mehr von der CPU oder dem Flashspeicher des Smartphones abhängig, weil die aktuellen Versionen der App jetzt alle Auflösungen, die nicht in Echtzeit auf den Flashspeicher geschrieben werden können, im RAM puffert und die Aufnahmezeit auf die Kapazität dieses Puffers begrenzt. Framedrops gehören damit der Vergangenheit an.
Hier werden die Problem deutlich:
https://www.youtube.com/watch?v=gSce9lNbCo0
Welche denn? Das sieht doch super aus. Das ist ein technisch besseres Bild als alles, was ich z.B. bisher aus der OG Pocket oder von Canon-Kameras mit MagicLantern Raw gesehen habe. (Falls Du da Ruckler oder Framedrops gesehen haben solltest, liegen sie an Deiner Wiedergabe, nicht an dem Video.) Und dazu noch mit einem 200-Euro-Smartphone (Xiaomi Mi11 Lite) gedreht...

Ich mache mit der App ja das Gegenteil, dreckige Bilder wie diese hier (zum Spaß abends während des hiesigen Lockdowns gedreht, mit 30-Euro-anamorphotischer Vorsatzlinse von AliExpress):
https://vimeo.com/658758015

Space


Antwort von roki100:

cantsin hat geschrieben:
Das ist ein technisch besseres Bild als alles, was ich z.B. bisher aus der OG Pocket...
Niemals! ;) Vll. eher etwas wie p4k oderso (nicht negativ gemeint, sondern positiv bzw. auch schön), weil alles gleich Sony-Sensoren...Mit dem unterschied; bei Smartphone CDNG+mehrK, bei Pocket BRAW+pre-denoising ... ;)
Du weißt doch, Auflösung ist nicht alles was zu technische (Bild/Sensor)Details gehört - nur weil das mehr K kann, bedeutet nicht, dass das nun besser ist als Arri 3.2K. ;)

Aber die Entwicklung ist schon spannend. Auch iPhone 13 Pro + ProRes ist so eine Sache , hab letztens damit gespielt und ja, wirklich überzeugend, auch gut für LowLight usw. Cinema Mode (eigentlich AI DoF), funktioniert wirklich sehr präzise und perfekt.

Übrigens, Anamorphic für smartphone, das hier scheint interessant zu sein:
https://www.youtube.com/watch?v=PxQzHK94Lz8


2021 ist das Jahr, wo Smartphones nun CDNG + ProRes können, bin gespannt und freue mich sehr auf das kommende Jahr! :)
Es gibt nämlich diesen neuen Sony 2 Layer Sensor, für Smartphone, mit mehr dynamicrange usw. usf.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Hier werden die Problem deutlich:
Welche Probleme? Colorgrading?
Von Bildstörungen bis hin zu Gestaltungseinschränkungen durch die Objektive.

Space


Antwort von Darth Schneider:

Und was ist mit dem benötigten Speicherplatz und mit dem Ton ?
Gruss Boris

Space


Antwort von pillepalle:

"Darth Schneider" hat geschrieben:
Und was ist mit dem benötigten Speicherplatz und mit dem Ton ?
Gruss Boris
Ton braucht man nicht. Da wird immer Scooters Hyper Hyper drunter gelegt :)

VG

Space


Antwort von cantsin:

Weiter oben lesen. Tonaufnahme ist jetzt bei Motion Cam dabei.

@iasi - wo genau im Video siehst Du Bildstörungen?

Eine Einschränkung der App ist, dass sie bisher nur die Haupt- und Frontkamera des Smartphones erkennt, nicht die übrigen Kameras, inkl. Telekameras wie bei den heutigen Spitzenmodellen. Da hoffe ich noch auf Besserung.

Space


Antwort von roki100:

Ich verstehe heute nur Bahnhof.... Hilfe ;)))

Space


Antwort von Darth Schneider:

Ich auch

wenigstens mit Stil…
Gruss Boris

Space


Antwort von cantsin:

Was genau ist Euer Verständnisproblem?

Space


Antwort von prime:

Die führen ihren Zank aus einem anderen Thread hier weiter...

Space


Antwort von roki100:

nein, ich meinte iasi... ich verstehe das nicht, er beurteilt doch das was der typ aus dem video gemacht hat bzw. Colograding oder die verwendete LUT. Ich weiß nicht wo da die Gestaltungsbeschränkungen sind, es ist 12bit RAW (mit manche smartphones sogar 16Bit)...und das Video nur irgendwelche LUT / Colorgrading...

Space


Antwort von Darth Schneider:

Mit den Gestaltungseinschränkungen bei den Smartphone Objektiven hat iasi jedoch schon mal sehr recht.
Abgesehen mal von den immer noch sehr kleinen Sensoren, bis auf ganz wenige noch viel zu teure Smartphone Modelle.
Vom fehlenden Speicherplatz fange ich gar nicht erst an…
Schon sicher sehr nett zum schnell, spontan mal was kurzes in RAW aufzunehmen und um damit zu spielen…
Aber sonst sehe ich für ernsthafte längere Projekte, das RAW Smartphone so als ACam auch gar nicht.

Ich verstehe da gar kein Bahnhof..;)
Gruss Boris

Space


Antwort von cantsin:

Hier mal 1:1-Screengrabs des mit youtube-dl runtergeladenen Videos (also mit YouTube-webm-Kompression und nochmaliger JPEG-Kompression bei Qualitätsstufe 90%):

010-original.jpg 050-original.jpg 060-original.jpg 070-original.jpg 080-original.jpg 090-original.jpg 100-original.jpg 120-original.jpg

Meine einzige Kritik wäre hier das Grading, weil der Schwarzpunkt zu hoch sitzt (man also den Lift 'runterziehen sollte). Ich würde das eher so graden - wobei diese Korrekturen natürlich qualitativ suboptimal sind, da auf Basis der YouTube-Screengrabs und nicht des CinemaDNG-Materials:

090-regraded.jpg 120-regraded.jpg

Space


Antwort von Darth Schneider:

Sieht für meine Augen schön aus. Bissel zu bunt, aber das ist nur Geschmacksache.
Schon sehr krass was heute alles geht.

Nur mir persönlich ist die Brennweite für so eine immer drauf Smartphone Kamera Linse viel zu weitwinklig, somit sehr eingeschränkt.
Diese einfach verändern, oder die Objektive wechseln zu können ist schon irgendwie sehr essenziell beim filmen.

Sonst dann doch viel lieber gleich meine Pocket (oder ähnliches) für RAW.
Das geht ja auch spontan, Linse, Akku rein und los gehts.
Die richtigen Kameras bieten doch ausserdem einfach viel mehr,
und besonders gross, schwer oder irgend komplizierter sind die Dslm Style Dinger ja schliesslich auch schon länger nicht mehr…;)
Gruss Boris

Space


Antwort von iasi:

cantsin hat geschrieben:
Weiter oben lesen. Tonaufnahme ist jetzt bei Motion Cam dabei.

@iasi - wo genau im Video siehst Du Bildstörungen?

Eine Einschränkung der App ist, dass sie bisher nur die Haupt- und Frontkamera des Smartphones erkennt, nicht die übrigen Kameras, inkl. Telekameras wie bei den heutigen Spitzenmodellen. Da hoffe ich noch auf Besserung.
Sieh dir z.B. die Dächer im Video an.

Leider ist es ja so, dass die Tele- und Normalbrennweiten bei Smartphones recht stiefmütterlich behandelt werden, selbst wenn sie vorhanden sind.
Smartphone-Look ist daher Weitwinkel-Look.

Im Video wird dann eben auch deutlich, wie flächig und unpointiert das Bild wird, wenn man beim Bildaufbau dem WW nicht gerecht wird.

Space


Antwort von cantsin:

iasi hat geschrieben:
Sieh dir z.B. die Dächer im Video an.
Was ist da das Problem?
mpv-shot0001.jpg 1:1-Crop: mpv-shot0001-crop.jpg


mpv-shot0002.jpg 1:1-Crop: mpv-shot0002-crop.jpg

Space


Antwort von prime:

Er meint wohl das bisserl Moiré auf diesen Bild:
download/file.php?id=36372&mode=view

Space


Antwort von Darth Schneider:

Also ich sehe vor allem eine wirklich hässliche Brennweite und ein fades, zu dunkles Bild…
Gruss Boris

Space


Antwort von iasi:

cantsin hat geschrieben:
Hier mal 1:1-Screengrabs des mit youtube-dl runtergeladenen Videos (also mit YouTube-webm-Kompression und nochmaliger JPEG-Kompression bei Qualitätsstufe 90%):




070-original.jpg

Schau dir das mal z.B. als Bewegtbild an.

https://youtu.be/gSce9lNbCo0?t=70

Space


Antwort von cantsin:

iasi hat geschrieben:
Schau dir das mal z.B. als Bewegtbild an.

https://youtu.be/gSce9lNbCo0?t=70
Du meinst die flirrenden Moirés auf dem Dach? Die würde ich genauso mit einer Blackmagic-Kamera oder einer Sigma fp kriegen (oder mit jeder anderen Kamera ohne OLPF und mit Raw-Videoaufzeichnung). - Sowieso sind wir dann hier bei den Eigenheiten der hier verwendeten Xiaomi-Kamerahardware und nicht mehr der App.

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Schau dir das mal z.B. als Bewegtbild an.

https://youtu.be/gSce9lNbCo0?t=70
Du meinst die flirrenden Moirés auf dem Dach? Die würde ich genauso mit einer Blackmagic-Kamera oder einer Sigma fp kriegen (oder mit jeder anderen Kamera ohne OLPF und mit Raw-Videoaufzeichnung). - Sowieso sind wir dann hier bei den Eigenheiten der hier verwendeten Xiaomi-Kamerahardware und nicht mehr der App.
Wir sind hier generell bei dem Problem der zu geringen Bayer-Auflösung.
Und dabei dürften die limitierende Optiken der Smartphones ja fast schon als OLPF wirken.

Und natürlich muss man die App immer anhand der Hardware beurteilen, auf der sie läuft.

Ich finde es übrigens auch erstaunlich, dass man so wenige youtube-Videos bei der Suche nach der app findet.

Space


Antwort von Darth Schneider:

Vielleicht liegt es daran das gar nicht so viele Leute, wie ihr euch denkt, auf die Idee kommen mit einem Smartphone überhaupt mit RAW filmen zu wollen.;)
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Vielleicht liegt es daran das gar nicht so viele Leute, wie ihr euch denkt, auf die Idee kommen mit einem Smartphone überhaupt mit RAW filmen zu wollen.;)
Gruss Boris
Wollen schon - aber eben nicht verbunden mit den doch erheblichen Kompromissen, wie vor allem dem Crop in einen sowieso schon kleinen Sensor vor einer kleinen Linse.

Space


Antwort von Darth Schneider:

Oder, vielleicht etwa so simpel wie, die Leute von Motion Cam, haben blöderweise keinen blassen Schimmer von Marketing…;)
Egal ob gratis oder nicht. Ganz ohne, wird es sehr schwierig irgend etwas überhaupt unter die Leute zu bringen.
Gruss Boris

Space


Antwort von cantsin:

8K CinemaDNG aus einem Oneplus 9 Pro:

https://www.youtube.com/watch?v=n_LI3g26e-Q

Space


Antwort von cantsin:

Hab jetzt selbst mal was kleines gedreht:

https://vimeo.com/660540806



Space


Antwort von pillepalle:

Sieht gut aus. War allerdings konstrastmäßig auch nicht gerade die herausfordernste Situation (grauer Regentag).

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Sieht gut aus. War allerdings konstrastmäßig auch nicht gerade die herausfordernste Situation (grauer Regentag).
Ja, stimmt. Allerdings habe ich in Resolve schon recht kräftig an den Farben gedreht.

Space


Antwort von iasi:

cantsin hat geschrieben:
Hab jetzt selbst mal was kleines gedreht:

https://vimeo.com/660540806

Kannst du dazu bitte ein paar "technische" Daten nennen?

Das sieht recht gut aus und vermittelt die Stimmung, die du wohl erzielen wolltest.

Space


Antwort von cantsin:

iasi hat geschrieben:
Kannst du dazu bitte ein paar "technische" Daten nennen?

Das sieht recht gut aus und vermittelt die Stimmung, die du wohl erzielen wolltest.
Danke! -

Technische Daten: aufgenommen mit einem Google Pixel 5 (12 MP/4K-Sensor) im 2,7K-Crop: Breite 69%, Höhe 48% des Sensors, wodurch eine effektive Sensorgröße von 3,97*2,60mm und eine Kleinbild-äquivalente Brennweite von 35mm resultieren; Aufnahmeformat 10bit CinemaDNG. Sowohl in der Kamera-App, als auch im Schnitt waren 24p Bildfrequenz eingestellt; zumindest auf meinem Smartphone werden allerdings immer 30p aufgenommen und sind die 24p nur 80% Zeitlupe.

Verwendet wurde Motion Cam 8.0.4, die z.Zt. aktuellste Version im GitHub-Repository.

Beim Drehen wurden alle Aufnahmen ETTR belichtet; Motion Cam hat in der aktuellen Version ein Overlay, das geclippte Bildteile auf dem Kameradisplay rot einfärbt. Alles wurde aus der Hand gedreht oder mit dem Smartphone im Cover abgestellt auf Brüstungen oder festen Objekten. Die eingebaute optische Stabilisierung des Pixel 5 funktioniert i.d.R. gut, manchmal produziert sie jedoch auch geometrischen Verzerrungs-/rolling shutter-Artefakte (im Video an einigen Stellen zu sehen, wenn man genau hinsieht), so dass es wahrscheinlich besser gewesen wäre, wenn ich die interne Kamera-Stabilisierung in der Motion Cam-App deaktiviert und mit Gimbal gedreht hätte. Viele Einstellungen sind nochmal nachträglich in Resolve stabilisiert, was i.d.R. nur sehr leichte/subtile Stabilisierungen waren.

Ich hatte keinen ND-Filter für das Smartphone, sondern mit hohen Verschlusszeiten (1/100-1/500 bzw. 18 bis 90 Grad-Shutter) bei ISO 100 (=niedrigste ISO des Pixel 5) gedreht und dann in Resolve künstliches Motion Blur auf alle Clips (per Group-Node) gelegt. Das funktioniert IMHO erstaunlich gut - so gut, dass ich mich frage, ob man sich damit allgemeiner als Workflow anfreunden sollte. (Die kurzen Verschlusszeiten bieten nebenbei den Vorteil besserer Stabilisierung und Optical Flow-Verlangsamung in der Post sowie das Fehlen von Farbstichen und Eintrübungen durch ND-Glas vor der Linse.)

Das CinemaDNG-Material wurde in Resolve in den "DaVinci YRGB Color Managed"-Workflow mit Preset "Wide Gamut" und Ausgabefarbraum Rec709/Gamma 2.4 importiert; bei den Raw-Projekteinstellungen habe ich "Sharpness" auf 0 und "Color Boost" auf 10 gedreht. Der Rest wurde händisch gegradet, z.T. mit getrackten Masken/Power Windows sowie mit Qualifiern, hauptsächlich per Lift/Gamma/Gain + RGB-Kurven, teilweise auch mit den HDR-Dials, sowie häufig mit der Hue-vs-Saturation-Kurve. Das Konzept war, alle Zeichen der Immobilienentwickler (Logos, Plakate etc.) ggü. der Umgebung heller, kontrastreicher und gesättigter sowie in ihren Gelb/Orange/Rottönen hervorzuheben, die Umgebung im Komplementärkontrast grau-blau-grün zu halten und den Himmel möglichst zwischen den Einstellungen gematcht rosa-blau.

Ich hatte hier IMHO keine Probleme mit der Biegsamkeit des CinemaDNG-Materials; nur bei 00:38 ist das Hochziehen des Gelb/Rots eigentlich zu extrem und resultiert in sichtbarem Rauschen + Color Banding:
1.8_1.8.4.jpg
Ich hätte das sehr einfach mit Neat Video glätten können:
1.8.5-neat_1.8.5.jpg ...wollte dann aber das Rauschen als etwas surrealen Effekt drinlassen.

Das Material wurde auch sonst nicht entrauscht, obwohl z.T. ziemlich starkes Chroma-Rauschen drin ist. Ich hatte hier probeweise eine Neat-Group Node gesetzt und mit Temporal Denoising das Chroma-Rauschen komplett eliminiert, fand das Ergebnis dann aber zu glatt, auch noch bei per 50% Key reduzierter Dosierung. (Wie gesagt, ich drehe u.a. auch deswegen gerne Raw, damit das Bildrauschen als Textur drinbleibt und die Bilder weniger glatt bzw. dreckiger sind.)

Rausgerendert wurde das Video in DNxHR HQX (12bit), und die Datei wurde dann mit ffmpeg/x264 mit dem Preset "veryslow" und Tune-Parameter "Grain" zu 32MBit/s h264-mp4 transkodiert. Letztere Datei kann man von Vimeo herunterladen (391 MB).


EDIT: Die Überraschung bleibt für mich weiterhin die Qualität/Auflösung der kleinen Smartphone-Optik, an der ich nichts auszusetzen finde. Im Gegensatz zu herkömmlichen Kamera-Apps wird bei der CinemaDNG-Aufnahme ja nichts algorithmisch verbessert, hoch- oder schöngerechnet. Da haben sich schon enorme Dinge getan bei der Smartphone-Technologie.

Space


Antwort von cantsin:

cantsin hat geschrieben:
zumindest auf meinem Smartphone werden allerdings immer 30p aufgenommen und sind die 24p nur 80% Zeitlupe.
Update hierzu: 25p funktionieren, als native 25p. Gut möglich, dass das (wegen der PAL/NTSC-Bildfrequenzen) eine Beschränkung meiner Telefon-Hardware ist.

Space


Antwort von cantsin:

Letzte Neuigkeiten: Es gibt jetzt, auf der normalen Github-Downloadseite des Projekts, eine gut funktionierende Beta-Version eines Windows-Tools, das Dateien von Motion Cams nativem Aufnahmeformat zu CinemaDNG wandelt. Das Programm läuft auch problemlos mit Wine unter Linux.

Damit ist es nicht mehr zwingend erforderlich, die Raw-Video-Aufnahmedateien innerhalb der Android-App zu transkodieren, was in den meisten Fällen Rechen-/Wartezeit sowie Speicherplatz spart.

Daneben gibt es noch ein Kommandozeilen-Tool, das dasselbe erledigt, innerhalb von MotionCams normalem GitHub-Repository. Allerdings hat es z.Zt. Kompilationsprobleme unter Linux (nicht unter MacOS). Der Entwickler wird das Kommandozeilentool weiterhin gratis und Open Source zur Verfügung stellen, während die Windows-GUI-Version proprietäre Kaufsoftware wird, um die Entwicklung von Motion Cam zu sponsern.

Unterstützte Frameraten hängen tatsächlich von der Telefon-Hardware ab.

Space


Antwort von Darth Schneider:

Was muss man da denn doch noch extern transcodieren ?
Ich dachte die Smartphones nehmen gleich intern richtig mit CDng auf ?
Wohl doch noch nicht ganz so einfach….

Meine Frau hat sich inzwischen ein iPhone 13 Pro bestellt.
Bin dann mal gespannt auf das 4K ProRes das da dann raus kommt…;)

Gruss Boris

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Was muss man da denn doch noch extern transcodieren ?
Ich dachte die Smartphones nehmen gleich intern richtig mit CDng auf ?
Motion Cam nimmt aus Performancegründen erst in einem eigenen, internen Video-Raw-Format auf (ähnlich wie MagicLantern das auch mit seinem MLV-Format tut). Du kannst die Aufnahmen dann direkt in der App in CinemaDNG umwandeln. Seit kurzem kann man sich diesen Schritt aber auch sparen und auf den Rechner verlegen.

Space


Antwort von klusterdegenerierung:

Habe es nun noch mal mit ein paar anderen settings auf meinem P20 getestet und nun schafft es tatsächlich 4k 16:9 25p durchgehend.
Das einzige was ich noch mal checken muß ist der fokus, das sah so aus als würde der nicht gehen.

Ansonsten eine feine Sache, allerdings ist es dann jetzt doch doof das ich keinen SD Slot habe, früher nie vermisst. ;-)

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Habe es nun noch mal mit ein paar anderen settings auf meinem P20 getestet und nun schafft es tatsächlich 4k 16:9 25p durchgehend.
Installiere am besten die aktuelle 8.0.6-beta6 direkt von Github: https://github.com/mirsadm/motioncam/releases
- Der Entwickler hat in den letzten Versionen die Datenkompression deutlich verbessert, was wiederum der Performance bzw. den machbaren Auflösungen zugute kommt.
Das einzige was ich noch mal checken muß ist der fokus, das sah so aus als würde der nicht gehen. Du musst mit dem Finger auf das Objekt tippen, dass Du scharfstellen willst. Wenn das funktioniert, erscheint ein dünner weisser Kreis auf dem Bildschirm:

motion_cam-screenshot.png
Wenn der Fokus stimmt, kannst Du ihn mit dem AF-Schloss-Ikon unten rechts festsetzen.

Space


Antwort von rush:

klusterdegenerierung hat geschrieben:

Ansonsten eine feine Sache, allerdings ist es dann jetzt doch doof das ich keinen SD Slot habe, früher nie vermisst. ;-)
Mich ärgert(e) das schon länger - insbesondere das vermeintliche Top-Smartphones offenbar bewusst auf diese Speichererweiterungen verzichten.
Mag sein das diese zum Wegschreiben von RAW eh zu lahm wären, aber ich tue mich dennoch arg schwer unglaublich viel Geld für ein s.g. "Flagschiff" Smartphone auszugeben welches dann murkelige 128GB Speicher mitbringt. Selbst 256GB finde ich nicht sonderlich zukunftssicher um ehrlich zu sein wenn man eine längerfristige Nutzung anpeilt.

Mag sein das viele Nutzer sowieso spätestens alle 2 Jahre Ihr Endgerät wechseln und die Cloud-Dienste abfeiern - aber generell werden die Apps, Anwendungsdaten und Fotos/Videos eher größer als kleiner. Von ergänzender Musik die Spotify nicht bietet und man entsprechend auf dem Gerät ablegt oder gespeicherten Serien/Filmen für unterwegs im Flieger/Bahn etc. ganz zu schweigen.

Space


Antwort von iasi:

Warum findet man eigentlich noch immer kaum etwas bei youtube, das mit der App gedreht wurde?

Und die paar Schnippsel, die es gibt, sind ohne Infos zu Auflösung, Einstellungen, Gerät.

Sonst quillt youtube über mit Test, Clips etc. wenn ein neues Gerät auf den Markt kommt.

Space


Antwort von cantsin:

iasi hat geschrieben:
Warum findet man eigentlich noch immer kaum etwas bei youtube, das mit der App gedreht wurde?
Wirklich so naiv? Weil die üblichen Verdächtigen/Influencer mit so einem Video, in diesem Fall, kein Geld verdienen würden. (Kein kommerzieller Hersteller dahinter, der Influencer mit Gaben versorgt, keine Produkte, die man über affiliate links unter dem Video mit Provision verkaufen kann.)

Ansonsten hat auch niemand einen Grund, die verwendete Kamera oder App in den Titel oder Beschreibungstext eines YouTube-Videos zu schreiben. Die Leute, die das ausserhalb der Influencer-Szene machen, posten meistens nur eine wackelige Einstellung der Wäscheleine in ihrem Vorgarten als Testvideo...

Ansonsten:

https://www.youtube.com/watch?v=6oyRKH6Yumw

https://www.youtube.com/watch?v=VxHkN7MfuJw

https://www.youtube.com/watch?v=nRXH2Cl73Xo

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Warum findet man eigentlich noch immer kaum etwas bei youtube, das mit der App gedreht wurde?
Wirklich so naiv? Weil die üblichen Verdächtigen/Influencer mit so einem Video, in diesem Fall, kein Geld verdienen würden. (Kein kommerzieller Hersteller dahinter, der Influencer mit Gaben versorgt, keine Produkte, die man über affiliate links unter dem Video mit Provision verkaufen kann.)

Ansonsten hat auch niemand einen Grund, die verwendete Kamera oder App in den Titel oder Beschreibungstext eines YouTube-Videos zu schreiben. Die Leute, die das ausserhalb der Influencer-Szene machen, posten meisten nur eine wackelige Einstellung der Wäscheleine in ihrem Vorgarten als Testvideo...
Oder es weiß schlicht niemand davon.

8 Tage alt und 42 Aufrufe:

https://www.youtube.com/watch?v=KsIBrnOvs5c

Space


Antwort von cantsin:

iasi hat geschrieben:
8 Tage alt und 42 Aufrufe:

https://www.youtube.com/watch?v=KsIBrnOvs5c
Naja, das sind ja genau die Hinterhof-Wäscheleinen-Schwenk-Testvideos, von denen ich weiter oben schrieb...

Space


Antwort von iasi:

Der Weitwinkellook verschwindet leider auch nicht, wenn man oben und unter abschneidet.
Aber immerhin hat er sich bemüht. Interessant auch, was er dazu schreibt:

https://www.youtube.com/watch?v=6oyRKH6Yumw


Er hier wiederum ... Na ja.

https://www.youtube.com/watch?v=c5-hTa7KrJk

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Habe es nun noch mal mit ein paar anderen settings auf meinem P20 getestet und nun schafft es tatsächlich 4k 16:9 25p durchgehend.
Installiere am besten die aktuelle 8.0.6-beta6 direkt von Github: https://github.com/mirsadm/motioncam/releases
- Der Entwickler hat in den letzten Versionen die Datenkompression deutlich verbessert, was wiederum der Performance bzw. den machbaren Auflösungen zugute kommt.
Das einzige was ich noch mal checken muß ist der fokus, das sah so aus als würde der nicht gehen. Du musst mit dem Finger auf das Objekt tippen, dass Du scharfstellen willst. Wenn das funktioniert, erscheint ein dünner weisser Kreis auf dem Bildschirm:


motion_cam-screenshot.png


Wenn der Fokus stimmt, kannst Du ihn mit dem AF-Schloss-Ikon unten rechts festsetzen.
Hallo cantsin, danke für den Tipp, aber die Version läuft bei mir nicht gut, die CPU Usage geht direkt ins rote und drückt die frames runter.
Die Version aus dem AppStore läuft fantastisch, da ist selbst bei 4K der CPU Balken fasst immer nur ein Millimeter groß und die frames bleiben konstant bei 25, was ich echt klasse finde. :-)

Bei Fokus habe ich mich wohl vertand, der funzt super.
Klasse wäre noch eine Blenden Einstellung. :-)

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Klasse wäre noch eine Blenden Einstellung. :-)
Das geht bei Smartphones prinzipiell nicht, die haben keine Blende...

Space


Antwort von klusterdegenerierung:

rush hat geschrieben:
klusterdegenerierung hat geschrieben:

Ansonsten eine feine Sache, allerdings ist es dann jetzt doch doof das ich keinen SD Slot habe, früher nie vermisst. ;-)
Mich ärgert(e) das schon länger - insbesondere das vermeintliche Top-Smartphones offenbar bewusst auf diese Speichererweiterungen verzichten.
Mag sein das diese zum Wegschreiben von RAW eh zu lahm wären, aber ich tue mich dennoch arg schwer unglaublich viel Geld für ein s.g. "Flagschiff" Smartphone auszugeben welches dann murkelige 128GB Speicher mitbringt. Selbst 256GB finde ich nicht sonderlich zukunftssicher um ehrlich zu sein wenn man eine längerfristige Nutzung anpeilt.

Mag sein das viele Nutzer sowieso spätestens alle 2 Jahre Ihr Endgerät wechseln und die Cloud-Dienste abfeiern - aber generell werden die Apps, Anwendungsdaten und Fotos/Videos eher größer als kleiner. Von ergänzender Musik die Spotify nicht bietet und man entsprechend auf dem Gerät ablegt oder gespeicherten Serien/Filmen für unterwegs im Flieger/Bahn etc. ganz zu schweigen.
Ja das sehe ich auch so und ich habe das P20 ja schon lange und dachte ich könnte es jetzt gegen ein moderneres tauschen, aber da muß man dann schon viel Geld in die Hand nehmen, das man zumindest in Punkto Linsen & Raw Quali am P20 vorbei kommt.

Gerne hätte ich wieder so eines, aber ohne Google Dienste kann ich damit nix anfangen und ein iPhone ist mir zu teuer und die anderen großen Marken mag ich alle nicht, da bleibt kaum Auswahl.

Aber bislang bin ich mit den 128GB gut klar gekommen, denn Musik nutze ich nicht auf dem Phone und dann gibt es ausser Navikarten kaum noch große Dateien, zumindest für mich. :-)

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Klasse wäre noch eine Blenden Einstellung. :-)
Das geht bei Smartphones prinzipiell nicht, die haben keine Blende...
Ja klar, aber in meiner Cam App habe ich ja den Portraitmode mit Blendeneinstellung, sowas meine ich, dann kann man wenigstens etwas dof vortäuschen. ;-)

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Aber bislang bin ich mit den 128GB gut klar gekommen, denn Musik nutze ich nicht auf dem Phone und dann gibt es ausser Navikarten kaum noch große Dateien, zumindest für mich. :-)
MotionCam hat übrigens in der aktuellen Version eine Option, Aufnahmen während der Aufzeichnung auf mehrere Speicherorte zu verteilen, wenn der Speicherplatz nicht reicht. Ob man sich aber ernsthaft einen zusätzlichen Flash-Speicher (z.B. einen schnellen USB-Stick) ans Smartphone flanschen will, wage ich zu bezweifeln - bevor man mit solchem RIgging beginnt, sollte man lieber gleich zu einer traditionellen Kamera greifen...

Wie hier im Thread schon mehrfach gesagt, sehe ich die Raw-Videoaufzeichnung von Motioncam als willkommene (und wie auch MagicLantern eher experimentelle) Möglichkeit, bestmögliche B-/C-Roll oder ungeplante Spontanvideos mit dem Gerät aufzunehmen, das man sowieso immer dabei hat - und dieses Material in optimaler Form zu erhalten, um es in Resolve & Co. mit anderem Kameramaterial zu mischen.

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Aber bislang bin ich mit den 128GB gut klar gekommen, denn Musik nutze ich nicht auf dem Phone und dann gibt es ausser Navikarten kaum noch große Dateien, zumindest für mich. :-)
MotionCam hat übrigens in der aktuellen Version eine Option, Aufnahmen während der Aufzeichnung auf mehrere Speicherorte zu verteilen, wenn der Speicherplatz nicht reicht. Ob man sich aber ernsthaft einen zusätzlichen Flash-Speicher (z.B. einen schnellen USB-Stick oder eine MicroSD-Karte im USB-C-Reader) ans Smartphone flanschen will, wage ich zu bezweifeln. Bevor man mit solchem RIgging beginnt, sollte man lieber gleich zu einer traditionellen Kamera greifen...

Wie hier im Thread schon mehrfach gesagt, sehe ich die Raw-Videoaufzeichnung von Motioncam als willkommene (und wie auch MagicLantern eher experimentelle) Möglichkeit, bestmögliche B-/C-Roll oder ungeplante Spontanvideos mit dem Gerät aufzunehmen, das man sowieso immer dabei hat - und dieses Material in optimaler Form zu erhalten, um es in Resolve & Co. mit anderem Kameramaterial zu mischen. Sonst ist es bei Smartphone-Videomaterial ja genau umgekehrt: dass der Videolook so fest eingebacken ist, dass man das Material anderer Kameras daran angleichen muss.

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
MotionCam hat übrigens in der aktuellen Version eine Option, Aufnahmen während der Aufzeichnung auf mehrere Speicherorte zu verteilen, wenn der Speicherplatz nicht reicht. Ob man sich aber ernsthaft einen zusätzlichen Flash-Speicher (z.B. einen schnellen USB-Stick) ans Smartphone flanschen will, wage ich zu bezweifeln - bevor man mit solchem RIgging beginnt, sollte man lieber gleich zu einer traditionellen Kamera greifen...
Ist bei der Storeversion aber auch so, aber wenn man keinen SD Card Slot hat, wie ich hier mit rush besprach, dann hat man da nicht viel von. ;-)

Space


Antwort von klusterdegenerierung:

Wo wir gerade bei Raw sind, wie kann man nochmal in Resolve die Raw settings copieren und wie eine node auf andere clips anwenden?
Jetzt jeden Clip in den Raw settings händisch einzustellen finde ich dann doch sehr anstrengend.

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Ist bei der Storeversion aber auch so, aber wenn man keinen SD Card Slot hat, wie ich hier mit rush besprach, dann hat man da nicht viel von. ;-)
Fast alle besseren Android-Smartphones unterstützen USB-Host, Du kannst also (wie gesagt) USB-Sticks, SD-Karten via USB-Reader oder selbst eine USB-SSD wie die Samsung T5 an den USB-C-Anschluss des Smartphones hängen und darauf aufzeichnen. Nur ist die Frage, wie praktikabel es ist, wenn so etwas am Telefon hängt und über seine Steckverbindung eine potentielle Fehlerquelle ist...

Für die Raw-Settings kannst Du einfach Deinen Resolve-Color-Managed Workflow verwenden und ansonsten die CinemaDNG-Parameter in den Projekteinstellungen tweaken. Aber sowieso hängen die immer jeweils von Deinem Telefon bzw. dessen Kamerasensor ab.

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
Für die Raw-Settings kannst Du einfach Deinen Resolve-Color-Managed Workflow verwenden und ansonsten die CinemaDNG-Parameter in den Projekteinstellungen tweaken. Aber sowieso hängen die immer jeweils von Deinem Telefon bzw. dessen Kamerasensor ab.
?

Space


Antwort von roki100:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Ist bei der Storeversion aber auch so, aber wenn man keinen SD Card Slot hat, wie ich hier mit rush besprach, dann hat man da nicht viel von. ;-)
Fast alle besseren Android-Smartphones unterstützen USB-Host, Du kannst also (wie gesagt) USB-Sticks, SD-Karten via USB-Reader oder selbst eine USB-SSD wie die Samsung T5 an den USB-C-Anschluss des Smartphones hängen und darauf aufzeichnen. Nur ist die Frage, wie praktikabel es ist, wenn so etwas am Telefon hängt und über seine Steckverbindung eine potentielle Fehlerquelle ist...
Es gibt auch Cages für Smartphones und damit wahrscheinlich nicht mehr oder weniger praktikabler als mit echte Kameras die ext. aufzeichnen.

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
cantsin hat geschrieben:
Für die Raw-Settings kannst Du einfach Deinen Resolve-Color-Managed Workflow verwenden und ansonsten die CinemaDNG-Parameter in den Projekteinstellungen tweaken. Aber sowieso hängen die immer jeweils von Deinem Telefon bzw. dessen Kamerasensor ab.
?
Screenshot from 2022-01-09 01-05-11.png Screenshot from 2022-01-09 01-05-44.png

Space


Antwort von klusterdegenerierung:

Ja ne, so war das nicht gemeint, dann ist ja das ganze Projekt so, wenn ich aber paffzig von den files mit sehr ähnlichen aber doch abweichenden settings habe, bringt mir das ja so nix.

Ich möcht die settings halt gerne wie eine node einfügen und die settings leicht tweaken.

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Ich möcht die settings halt gerne wie eine node einfügen und die settings leicht tweaken.
Das geht zwar nicht, aber Clip-spezifische Raw Settings von einem Clip auf denen anderen anwenden/kopieren, geht, indem Du im "Color"-Modul den "Camera Raw"-Tab aufrufst, den Ausgangsclip anklickst (er erscheint dann rot umrandet), Control gedrückt hältst, die Zielclips auswählst und dann im Raw Tab den Knopf "Use Settings" klickst.

Space


Antwort von klusterdegenerierung:

Ah, ja sowas, tippitoppi!
Danke, so nun gibts aber einen Münster Tatort zum schlafen gehen. :-)

Space


Antwort von klusterdegenerierung:

Cantsin hast Du vielleicht eine Ahnung warum die App auf einem neuerem und eigentlich performanterem Handy als mein P20 nur 15fps schafft?
Habe ich da irgendwas falsch gemacht, oder kann ich da was mit dem Cam2 app tool testen warum das phone das nicht hinbekommt?

Mein Sohn möchte das Handy dann doch nicht haben, aber wenn es nicht mehr im Ärmel hat als mein altes ist es für mich auch obsolet.

Space


Antwort von cantsin:

Keine Ahnung... Um welches Modell handelt es sich denn?

Space


Antwort von roki100:

klusterdegenerierung hat geschrieben:
Cantsin hast Du vielleicht eine Ahnung warum die App auf einem neuerem und eigentlich performanterem Handy als mein P20 nur 15fps schafft?
Habe ich da irgendwas falsch gemacht, oder kann ich da was mit dem Cam2 app tool testen warum das phone das nicht hinbekommt?
Wahrscheinlich nutzt Du die volle Auflösung? Da kommt es zu droppedframes? Du musst den Crop schon weiter runter drehen....

Space


Antwort von klusterdegenerierung:

Ja klar, deswegen schafft mein altes auch die volle Auflösung bei 25p dauerhaft mit links, ach roki!

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
Keine Ahnung... Um welches Modell handelt es sich denn?
Dank Dir cantsin, werde es verkaufen. ;-)

Space


Antwort von roki100:

klusterdegenerierung hat geschrieben:
Ja klar, deswegen schafft mein altes auch die volle Auflösung bei 25p dauerhaft mit links, ach roki!
verstehe ich nicht? P20 schafft nicht die volle Auflösung (es gibt droppedframes), ich habe hier P30 und dieser schafft das auch nicht...

Space


Antwort von pmk:

Guten Morgen,

ich habe eine Frage an die User von Huawei P20, ich habe die "Pro" Version... Das App kann allerdings bei mir nur den "Monochrome" Sensor benutzen, ist das so richtig?

Wenn ich andere Camera Apps benutze, die "Camera2 API" unterstützen, lassen tatsächlich nur den "monochrome" Sensor im RAW format speichern. Andere Sensoren (Std 40MP und Tele) nur als JPEG, PNG etc.

Ich benutze Standard Firmware von Huawei (Android 10, ohne Root). Muss ich das Handy rooten oder gar custom Rom installieren?

Danke für die Tipps!

Space


Antwort von klusterdegenerierung:

pmk hat geschrieben:
Guten Morgen,

ich habe eine Frage an die User von Huawei P20, ich habe die "Pro" Version... Das App kann allerdings bei mir nur den "Monochrome" Sensor benutzen, ist das so richtig?

Wenn ich andere Camera Apps benutze, die "Camera2 API" unterstützen, lassen tatsächlich nur den "monochrome" Sensor im RAW format speichern. Andere Sensoren (Std 40MP und Tele) nur als JPEG, PNG etc.

Ich benutze Standard Firmware von Huawei (Android 10, ohne Root). Muss ich das Handy rooten oder gar custom Rom installieren?

Danke für die Tipps!
Bei meinem P20 gibt es Raw selbstverständlich auch in Farbe, dafür muß man auch nichts umstellen, aber vielleicht ist ganz simpel in der App selbst SW eingeschaltet.

Space


Antwort von pmk:

klusterdegenerierung hat geschrieben:
pmk hat geschrieben:
Guten Morgen,

ich habe eine Frage an die User von Huawei P20, ich habe die "Pro" Version... Das App kann allerdings bei mir nur den "Monochrome" Sensor benutzen, ist das so richtig?

Wenn ich andere Camera Apps benutze, die "Camera2 API" unterstützen, lassen tatsächlich nur den "monochrome" Sensor im RAW format speichern. Andere Sensoren (Std 40MP und Tele) nur als JPEG, PNG etc.

Ich benutze Standard Firmware von Huawei (Android 10, ohne Root). Muss ich das Handy rooten oder gar custom Rom installieren?

Danke für die Tipps!
Bei meinem P20 gibt es Raw selbstverständlich auch in Farbe, dafür muß man auch nichts umstellen, aber vielleicht ist ganz simpel in der App selbst SW eingeschaltet.
Hi,

Danke aber verstehe ich leider nicht. Bei mir geht RAW mit Farbe bei dem offiziellen Kameraprogramm (nur Fotos) und zusätzlich über App von Drittanbietern, aber das ist wie gesagt nur SW im Raw Format möglich.

Wo ist die Einstellung hierzu? Vielleicht bitte ein Screenshot per PN schicken oder hier hochladen?

Danke!

Space


Antwort von klusterdegenerierung:

Falls Du von der hier bereichteten App sprichst, wie ist denn die Einstellung bei capture Mode?
Bei mir ist es RAW10.
Die Grundeinstellungen der normalen Cam solltest Du in der Cam app finden, vielleicht da nochmal gucken.

Space


Antwort von pmk:

Screenshot_20220518_164923.jpgScreenshot_20220518_164800_com.motioncam.jpgklusterdegenerierung hat geschrieben:
Falls Du von der hier bereichteten App sprichst, wie ist denn die Einstellung bei capture Mode?
Bei mir ist es RAW10.
Die Grundeinstellungen der normalen Cam solltest Du in der Cam app finden, vielleicht da nochmal gucken.
Hi, so sieht bei mir aus, weiß ich nicht was ich noch einstellen kann/muss

Space


Antwort von Onkel Danny:

Kurz und bündig, die App umgeht die Android Cam API.
Darum kann sie auch RAW anbieten(Foto und Video).

Nachteil, sie funktioniert nur mit recht wenigen Smartphones einwandfrei.

Bei meinem Samsung friert die Vorschau nach 3 Sekunden ein, leider.
Bei anderen mit einen Quadpixel Sensor, können Muster entstehen.
Bei wieder anderen kann es eben Schwarz/Weiß oder Falschfarben sein.

Außerdem, werden bei mehreren Sensoren, auch nicht immer alle richtig erkannt.

Und ja, die meisten Cam Apps, nutzen die Standard API von Android und funktionieren
entsprechend einwandfrei.

Leider schiebt der Entwickler die meisten Probleme auf die Hersteller der Smartys.
Ganz so einfach ist es aber auch nicht.

Da kann man auch nichts einstellen weiter, da hat man einfach Pech gehabt, sorry.

greetz
Onkel Danny

Space


Antwort von klusterdegenerierung:

"Onkel Danny" hat geschrieben:
Kurz und bündig, die App umgeht die Android Cam API.
Darum kann sie auch RAW anbieten(Foto und Video).

Nachteil, sie funktioniert nur mit recht wenigen Smartphones einwandfrei.

Bei meinem Samsung friert die Vorschau nach 3 Sekunden ein, leider.
Bei anderen mit einen Quadpixel Sensor, können Muster entstehen.
Bei wieder anderen kann es eben Schwarz/Weiß oder Falschfarben sein.

Außerdem, werden bei mehreren Sensoren, auch nicht immer alle richtig erkannt.

Und ja, die meisten Cam Apps, nutzen die Standard API von Android und funktionieren
entsprechend einwandfrei.

Leider schiebt der Entwickler die meisten Probleme auf die Hersteller der Smartys.
Ganz so einfach ist es aber auch nicht.

Da kann man auch nichts einstellen weiter, da hat man einfach Pech gehabt, sorry.

greetz
Onkel Danny
Und was soll er mit der Info wenn sein Handy eines derer ist die mit der App voll funktionieren?

Space


Antwort von klusterdegenerierung:

pmk hat geschrieben:
Hi, so sieht bei mir aus, weiß ich nicht was ich noch einstellen kann/muss
Hab ich das jetzt richtig verstanden das die Handy app auch nur SW Raws erzeugt?
Wie schaut es mit anderen apps aus, da auch nur SW?

Space


Antwort von pmk:

Inzwischen bin ich etwas schlauer geworden. Also "Motion Cam App" (und andere ähnliche Apps) nutzt das API "Camera2".

Von diesem API ergibt sich ob bestimmte Kamera Raw-Aufnahme möglich ist oder nicht.

Mein Huawei mit EMUI 10 erlaubt nur die SW Kamera in RAW, der Rest nicht.

Ich gucke gerade wie ich diese Voreinstellung umgehen kann.

Wer interessiert, kann das App "Camera2 Probe" installieren. Mit diesem App, sieht man wie das "Camera2" API gerade eingestellt ist.

Space


Antwort von klusterdegenerierung:

Keine Ahnung ob Du jetzt nicht mitgelesen hast, aber ich spreche die ganze Zeit von exakt dem gleichen Handy und der App und der latest EMUI und ich habe Farbe.

Aber auch hier wieder keine Antwort auf die einfachsten Fragen, ob Dein Handy auch ansonsten nur SW Raws produziert oder nur in dieser App?
Irgendwann mußt Du schon ein Ausschlußkriterium haben.

Space


Antwort von pmk:

klusterdegenerierung hat geschrieben:
Keine Ahnung ob Du jetzt nicht mitgelesen hast, aber ich spreche die ganze Zeit von exakt dem gleichen Handy und der App und der latest EMUI und ich habe Farbe.

Aber auch hier wieder keine Antwort auf die einfachsten Fragen, ob Dein Handy auch ansonsten nur SW Raws produziert oder nur in dieser App?
Irgendwann mußt Du schon ein Ausschlußkriterium haben.
Schau meine Nachricht heute um 14:08 nach. RAW in Farbe nur über offizielles Huawei Camera App (Pro Modus) und über Drittherstellern App (im Hintergrund Camera2 API) nur SW im Raw.

Hast P20 Pro oder P20? Und Gerät gerootet?

Space


Antwort von Onkel Danny:

Kluster, quatsch jemand anderen voll.

Meine Aussage ist klar und einfach verständlich.
Die App macht bei vielen Phones, unterschiedlichste Probleme.

Und man kann selbst, nichts daran ändern!

Sein Phone hat er doch genannt...

@pmk
Da Kluster ein Billigheimer ist, wahrscheinlich nur das P20, ohne Pro.

Ob gerooted oder nicht, spielt bei der App keine Rolle.

Es wird einerseits an der Motiocam App selbst, als auch an der verwendeten API liegen,
das nicht alle Phones(samt cams) funktionieren.

Camera2Probe sagt einem nur, welche Framerates, von welcher cam unterstützt werden(und vieles mehr).
Also eine reine Info App. Einstellen oder ändern, kann man damit aber leider nichts.
Laut der App kann mein Phone alles was benötigt wird, es geht trotzdem nicht einwadfrei ;)

greetz
Onkel Danny

Space


Antwort von cantsin:

Das P20Pro hat sowieso einen Blau/Rot/Gelb- statt eines Bayer-Blau/Rot/Grün-Filters. Damals, als ich dieses Telefon hatte, konnte ich deshalb keine seiner Raw-Stills mit generischen Rawkonvertern konvertieren (ohne nicht extrem seltsame Farben zu erhalten). Mit Resolve und anderen Programmen, die CinemaDNG schlucken, dürfte es daher auch nicht funktionieren.

Space


Antwort von pmk:

Man kennt sich hier scheinbar sehr gut :)

Ich habe nachgeschaut, worin unterscheiden sich das P20 und P20 Pro
Screenshot_20220518_224339.jpg Also wenn "kluster" ein P20 hat, hat er zu Video RAW mit diesem App einen klaren Vorteil, da der Kamerasensor 12MP von dem P20 bei dem offiziellen Huawei Firmware für RAW freigegeben scheint, während mein P20 Pro nur bei der SW Kamera 😅

Ich glaube wenn ich mein Handy roote, könnte ich selbst bestimmen, welche Kamera für RAW möglich ist.

Da Huawei bei meinem Handy offensichtlich nur die SW Kamera bei Raw unter Camera2 API freigibt, scheint es bei den anderen Kameras oder besser gesagt Sensoren von dem P20 PRO nicht sinnvoll ist im Raw Format zu betreiben (vielleicht würde es nur zu Abstürzen kommen)

Bei dem 40MP Sensor liegt wahrscheinlich an die hier bereits genannten Farbanordnungen des Sensors. Die Roh-datei über das Huawei Kamera App ist übrigens jetzt top geworden 👍.

Danke für die Tipps!

Space


Antwort von klusterdegenerierung:

"Onkel Danny" hat geschrieben:
Kluster, quatsch jemand anderen voll.
Haha, Du bist echt süß, schnucki.
Wie gesagt, null Probleme mit dem P20, aber wahrscheinlich hast Du, der es nicht besitzt, als einziger ein Problem mit dem P20. :-)

Space


Antwort von Darth Schneider:

Kluster ein Billigheimer ?
Mit Obi WAN Kenobis Worten, (mit sehr britischem Akzent ausgesprochen)…
I dont think so….;)

@Kluster
Das mit dem Schnucki ist mal ne ganz neue, überraschende Seite an dir…

PS:
Schade das die RAW App nicht mit den iPhones funtzt, warum machen die das denn nicht ?
Eigentlich schade.
Verbietet das etwa Apple ?

Gruss Boris

Space


Antwort von Onkel Danny:

@pmk
Ja man kennt sich und die Forenschwätzer nur zu gut, einfach ignorieren.

Dein Problem ist, wie cantsin es perfekt beschrieben hat, das irreguläre Bayer-Pattern auf deinem Sensor.
Damit kommt die App/API nicht klar.

Aber auch mit root kann man daran kaum etwas ändern.

Solange Du keine config oder den Code selbst änderst, wird hier nichts passieren.
Sorry, aber so sieht die Realität aus.

greetz
Onkel Danny

Space


Antwort von klusterdegenerierung:

"Onkel Danny" hat geschrieben:
@pmk
Ja man kennt sich und die Forenschwätzer nur zu gut, einfach ignorieren.
Damit beschreibst Du Dich ganz gut, aber schön das Du mal wieder rein schaust, ist schon etwas langweilig ohne Dich.

Space


Antwort von klusterdegenerierung:

pmk hat geschrieben:
Schau meine Nachricht heute um 14:08 nach. RAW in Farbe nur über offizielles Huawei Camera App (Pro Modus) und über Drittherstellern App (im Hintergrund Camera2 API) nur SW im Raw.
Hast P20 Pro oder P20? Und Gerät gerootet?
Servus, also meine Buildnummer ist 10.0.0.192 GPU Turbo, Entwickleroptionen sind aktiv, aber keine nennenswerten Änderungen, Auflösung in der Cam app steht auf 12MP = Raw im Pro-Modus.

In der App ist folgendes gesetzt: Losssless Raw compression, 4 Threads, Cam Preview quali is low, capture mode Raw10, Memory & Video Memory 512MB, supported frames 30p, internal mic.

Alles was ich nicht angegeben habe ist aus.
Hier ein screenshot vom gerade aufgezeichnetem Raw Video, Du siehst die bunten Frames, wenn ich auf convert klicke, bekomme ich farbige DNGs.

Ich nutze die neuste App Version.

Space


Antwort von cantsin:

Bin immer wieder erstaunt, welche Videobildqualität und welch gute Farben mit der Kombination Google Pixel 6 + Motioncam (das übrigens mittlerweile nicht mehr kostenlos ist) + Resolve Color Transform mit aktiviertem Tone Mapping und Forward OOTF möglich sind. Zumal die Kombination von Handkamera, Telefon-IBIS und Resolves "Perspective"-Stabilizer richtig gut funktioniert, vor allem bei kurzen Verschlusszeiten (mit der Post wieder reingerechnetem motion blur) und 4:3-Open Gate-4K-Aufnahme in einer HD-Timeline.

Hier habe ich, natürlich ungeplant, ein Spontan-Karaoke auf der documenta gedreht. Das Video wird wahrscheinlich im offiziellen Videokanal der documenta fifteen landen. 1:1-Screengrabs:

1.1.4_1.1.3_1.1.4.POST.jpg 1.3.1_1.3.1.POST.jpg

Space


Antwort von klusterdegenerierung:

Sieht aufjedenfall besser aus als das Footage meines damals knapp 4000€ teuren Pana Henkelmann mit nur 8Bit.

Space


Antwort von lapkas:

Hab ich das jetzt richtig verstanden das die Handy picsart mod app auch nur SW Raws erzeugt?
Wie schaut es mit anderen apps aus, da auch nur SW?

Space


Antwort von cantsin:

lapkas hat geschrieben:
Hab ich das jetzt richtig verstanden das die Handy app auch nur SW Raws erzeugt?
Wie schaut es mit anderen apps aus, da auch nur SW?
Was meinst Du mit "SW"? Schwarz-Weiß? Meine Beispielbilder oben sind farbig...

Space


Antwort von Frank Glencairn:

RAW ist per Definition immer SW (deshalb ist ja die Dateigröße bei raw auch so klein), die Farben entstehen erst am Rechner.

Space


Antwort von iasi:

Gibt"s mittlerweile auch Phones bei dem die App mit der Normal- oder Telebrennweite funktioniert?

Space


Antwort von cantsin:

iasi hat geschrieben:
Gibt"s mittlerweile auch Phones bei dem die App mit der Normal- oder Telebrennweite funktioniert?
Ja, alle von Xiaomi.

Space


Antwort von klusterdegenerierung:

Ein nagelneues eher fetteres Redmi macht die Grätsche, mein altes Huawei P20 läuft gut.

Space


Antwort von cantsin:

Auf dem Discord-Channel des Entwicklers gibt's eine Liste mit empfehlenswerten Smartphones für Motioncam:
https://discordapp.com/channels/9808849 ... 4480278618

Z.Zt. sieht die so aus:
Oneplus 9 Pro - has access to main lens only (maybe they can unlock in the feature access to aux)
Oneplus 8 Pro - has access to all lenses in Android 10-11, it can record 60fps raw frames
Oneplus 7 Pro - has access to all lenses
Xiaomi MI 10u - has access to all lenses, it can capture up to 100 frames per second in some modes (is recommended a phone with large storage data, due to the fact that it has USB 2.0 port so transfer is slow via cable)
Xiaomi MI 11U - has access to all lenses, (is recommended a phone with large storage data, due to the fact that it has USB 2.0 port so transfer is slow via cable)
Xiaomi POCO F3 - this device perform very well with main camera
Samsung S20FE (? beside Exynos cpu) - has access to main and ultrawide upto 30fps
Samsung Note 10 (Snapdragon) - has access to main and ultrawide upto 30fps
Samsung Snapdragon - performance is good in general due to main sensor near 12mp capture size, with tele lens limitation ?
LG V40/V35 256GB/G8/V50 - performance is good in general due to main sensor near 12mp capture size


Space


Antwort von cantsin:

Hier mal ein interessanter Vergleich/Shootout zwischen der internen ProRes-Aufnahme eines iPhone 14 Pro und der CinemaDNG-Aufnahme eines OnePlus 8 Pro mit Motioncam:



Space


Antwort von iasi:

Ein ziemlicher Unterschied.

Nun würden mich die Aufnahmedaten noch interessieren, denn sonst ist dies schwer einzuordnen.

Space


Antwort von cantsin:

iasi hat geschrieben:
Nun würden mich die Aufnahmedaten noch interessieren, denn sonst ist dies schwer einzuordnen.
Es gibt ein neues Vergleichsvideo (One Plus 8 Pro mit Motioncam gegen eine Panasonic S1H), diesmal auch mit Originaldateien zum Herunterladen:

https://www.youtube.com/watch?v=4dIZhupRN_o

Die S1H ist natürlich (qua Detailauflösung und Bildrauschen) deutlich besser - wie man vor allem in den Blätterdetails ab Minute 2:20 sieht.

Aber der Unterschied ist IMHO schon so knapp, dass man selbst dieses 2020er-Smartphone (Gebrauchtpreis z.Zt. um die 350 EUR mit 128GB Speicher) bedenkenlos als B-/C-Cam einsetzen und sein Material mit dem der größeren Kamera mischen kann.

Qua Detailauflösung ist das Smartphone-Bild (mit seinen 4K Pixeln, trotz Einschränkungen der Optiken und beim Rauschverhalten des Sensors) IMHO deutlich besser als z.B. das CinemaDNG einer OG Pocket oder Canon-Kamera mit MagicLantern.

Download der Kameradateien hier: https://bit.ly/3WHeKWa

Space


Antwort von roki100:

Das was Du als fast kein Unterschied siehts, nennen andere (wie ich) Sony-Look, alles Sony Sensoren... Das kann man also auch mit andere Kameras machen, die einen 2020er +/- Sony Sensor haben.

Space


Antwort von cantsin:

Und jetzt: Blackmagic Pocket 4K gegen Google Pixel 7 Pro mit Motioncam und CinemaDNG-Aufnahme... Langsam schließen sich die Lücken, zumindest hinsichtlich der Video-Bildqualität bei guten Lichtverhältnissen:

https://www.youtube.com/watch?v=4u_Zg23EoOA

Space


Antwort von Darth Schneider:

Aber die Lücken schliessen sich auch nur wenn seriös verglichen und getestet wird.

Der Vergleich da oben sagt leider gar nix aus. Weil wir wieder weder die Kamera Einstellungen der Pocket kennen, und auch nicht ob mit ProRes Proxys mit Einstellung Video gedreht wurde, oder mit BRaw QO mit Einstellung Film.
Das alles macht einen grossen Unterschied, sogar die ISO…
Gruss Boris

Space


Antwort von Jott:

Auf YouTube kannst du Details nachlesen, wie die Optik der BM (LEICA DG 12-60mm F2.8-4.0). Und du kannst die ungeschnittenen Original-Aufnahmen runterladen, drin rumpeepen und mit MediaInfo spionieren. Ist ja ein beliebtes Hobby.

Dass man heute mit Smartphones filmen kann, ohne dass es jemand merkt (sofern man es nicht verrät!), dürfte inzwischen unstrittig sein. Ist doch eine tolle Entwicklung.

Space


Antwort von Jott:

"Darth Schneider" hat geschrieben:
Aber die Lücken schliessen sich auch nur wenn seriös verglichen und getestet wird.
Auf YouTube kannst du Details nachlesen, wie die Optik der BM (LEICA DG 12-60mm F2.8-4.0). Und du kannst die ungeschnittenen Original-Aufnahmen runterladen, drin rumpeepen, mit MediaInfo spionieren und völlig unbeeinflusst selbst seriös vergleichen, testen und dir ein Bild machen. Ein erfüllendes Hobby!


Dass man heute mit Smartphones filmen kann, ohne dass es jemand merkt (sofern man es nicht verrät!), dürfte inzwischen unstrittig sein. Ist doch eine tolle Entwicklung.

Space


Antwort von Darth Schneider:

@Jott
Und was nützt das jetzt dem Vergleich ?

Wenn Leute im Netz Leute solche Vergleiche hochladen, und weder was von Kamera Einstellungen noch was von den verwendeten Codecs und Kompression was schreiben.
Dann gehe ich automatisch davon aus das die Tester nicht zu viel, bis gar nichts von der Materie überhaupt zu wissen scheinen. Und sehe somit gar keinen Grund darin mir irgendwelche mit Files zu Pixelpeepen von denen ich gar nicht weiss wie sie entstanden sind.

Und natürlich filmen die Smartphones heute sehr toll, das zweifle ich doch überhaupt nicht an. (Hab ja selber ein iPhone Pro 13..)
Das hat aber mit dem Kamera Vergleich da oben auch nix zum tun.

Ich finde den Vergleich schlicht unseriös, somit absolut sinnlos, nicht weil die Bilder schlecht aussehen sondern weil wichtige Infos dazu einfach fehlen.
Gruss Boris

Space


Antwort von pillepalle:

Etwas sieht man dabei schon. Nämlich das die Bildverbesserungs-Algorythmen per Software mit den neuesten Smartphone-Sensoren qualitativ an einen 6 Jahre alten MFT Sensor heranreichen. Ob man es nun vorzieht 900,-€ für das Smartphone auszugeben, oder 1300,-€ für die Pocket, ist dann eher eine Frage der persönlichen Präferenzen, eher Möbilität oder Gestaltungsmöglichkeiten.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Etwas sieht man dabei schon. Nämlich das die Bildverbesserungs-Algorythmen per Software mit den neuesten Smartphone-Sensoren qualitativ an einen 6 Jahre alten MFT Sensor heranreichen.
Nee, da wird CinemaDNG Raw aufgezeichnet, komplett an den Bildverbesserungsalgorithmen des Smartphones vorbei.

Die heutigen Smartphone-Sensoren und -Optiken sind halt mittlerweile sehr gut, zumindest unter guten Lichtverhältnissen.

Space


Antwort von pillepalle:

Ok, dann sind die Sensoren so gut wie 6 Jahre alte MFT Sensoren. Man vergleicht eben unterschiedliche Technologien.

VG

Space


Antwort von Darth Schneider:

@Cantisn
Also und woher weisst du das so genau das beim Smartphone keine interne kleinen Manipulationen vorgenommen werden, bevor die Bilder in CDng gespeichert werden ?
Und schreib jetzt nicht das das nicht theoretisch möglich wäre…;)))
Hab da jedenfalls meine sehr grossen Zweifel.

Das ginge doch gar nicht so toll, mit einem so kleinen Sensor, ganz ohne irgendwelchen zusätzlichen, digitalen, Heinzelmännchen..
Wie denn auch ?

Also ist das dann am Schluss überhaupt noch echtes raw ?
Wohl mehr eine philosophische Frage, weil gut aussehen tun die Smartphones heute ja eh.

Was meint eigentlich Red dazu ?
Bei der 4K Pocket musste das CDng ja aus rechtlichen Gründen gleich nach dem auf den Markt bringen wieder verschwinden..;)

Jemand könnte ne 4K Pocket mit einem Downgrade in den Ur Zustand zurück versetzen und den Test mit CDng in Beiden Cams wiederholen.
Das wäre dann wirklich interessant.

Ich würde das schon machen hab aber gar kein Android Smartphone…
Gruss Boris

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Ich finde den Vergleich schlicht unseriös, somit absolut sinnlos, nicht weil die Bilder schlecht aussehen sondern weil wichtige Infos dazu einfach fehlen.
Sebastian Merca, der Macher des Videos, hat mir gerade die Informationen gegeben. Die BM Pocket 4K wurde in Braw Q0 (laut exiftool mit 619 Mbit/s) aufgenommen, und das Vergleichsvideo wurde in ProRes HQ gemastert und auf YouTube hochgeladen.

Space


Antwort von Darth Schneider:

Das tönt schonmal sehr gut.
Aber klärt nur die eine Seite.
Und was macht das Google Pixel 7 Smartphone ganz genau mit dem Signal bevor es als Cng gespeichert wird…?

Das weiss der YouTube Tester aber leider auch nicht, höchstens die Leute von Google die das Smartphone programmiert haben…

Blackmagic ist diesbezüglich eben viel offener als Google…;)))
Get my point ?
Gruss Boris

Space


Antwort von pillepalle:

Ist doch relativ egal warum es so aussieht. Das worin sich die Kameras im Wesentlichen unterscheiden ist, dass man mit der einen (dem Smartphone) quasi nur draufhalten kann, weil man selbst die grundlegndsten Dinge (Blende, Belichtungszeit, Framerate) nur rudimentär oder gar nicht einstellen kann und die Objetivauswahl sehr begrenzt ist. Sobald man etwas anderes/spezielles haben möchte, stößt man mit einem Smartphone eben schnell an seine Grenzen. Dafür passt es in die Hosentasche und man hat es immer dabei.

VG

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
@Cantisn
Also und woher weisst du das so genau das beim Smartphone keine interne kleinen Manipulationen vorgenommen werden, bevor die Bilder in CDng gespeichert werden ?
Was natürlich passiert, ist das interne Binning des 48MP-Quad-Bayer-Sensors nach 12MP Raw/DNG. Aber das hast Du auch bei Kameras wie z.B. der Sony A7Siii, selbst wenn Du mit der Foto-Raw schiesst.

Ansonsten siehst Du den Unterschied einfach, wenn Du die Bilder, die mit Googles Kamera-App gemacht wurden, mit den Motioncam-DNGs vergleichst. Abgesehen von JPEG- und MPEG-spezifischer Signalverarbeitung wie künstlicher Nachschärfung, die bei DNG wegfällt, fällt bei Motioncam auch Googles HDR-Tonemapping und temporales Denoising weg, schon aus dem simplen Grund, dass das nur funktioniert, wenn die Smartphone-Kamera intern Bildreihen in hoher Geschwindigkeit mit verschiedener Belichtung aufnimmt und zu einem Still zusammenrechnet. Das geht bei CinemaDNG-Aufnahme rein technisch nicht.

Das ginge doch gar nicht so toll, mit einem so kleinen Sensor, ganz ohne irgendwelchen zusätzlichen, digitalen, Heinzelmännchen.. So klein ist der Sensor des Pixel 7 Pro und anderer Highend-Smartphones gar nicht. Es handelt sich um einen 1/1.31" Sensor (9.75mm x 7.5mm), der nicht viel kleiner ist als der Sensor der ersten BM Pocket (12.48mm x 7.02mm), und natürlich mit modernster Sensortechnik (die heutzutage zuerst in Smartphones landet).
Also ist das dann am Schluss überhaupt noch echtes raw ? Sogar mehr als Blackmagics Braw. Du kannst die DNGs von Motioncam in jedem Raw- Konverter öffnen, und in RawTherapee und Darktable optional auch undebayert betrachten...

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Blackmagic ist diesbezüglich eben viel offener als Google…;)))
Im Gegenteil. Android ist Open Source, und Googles Kamera-API ist dokumentiert. DNG ist ebenfalls ein offener Standard. Die ersten Versionen von Motioncam waren Open Source. Übrigens, nur um das klarzustellen, ist Motioncam keine Google-Software, sondern stammt von einem unabhängigen Entwickler, und hat nichts mit Googles Kamera-App und deren Bildverarbeitung zu tun.

Blackmagics Kameras und Braw-Format sind hingegen komplett proprietär und nicht öffentlich dokumentiert.

Motioncam ist viel näher an anderen unabhängigen Raw-Video-Softwareprojekten wie MagicLantern und CinePi.

Space


Antwort von Darth Schneider:

Ok danke, Sehr hilfreiche Infos, jetzt sehe ich das Ganze viel klarer.
Scheint mir schon echt toll und echt raw zu sein.

Und Red akzeptiert das einfach klaglos ?
Oder wissen die womöglich „noch“ gar nix davon ?
Gruss Boris

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Das worin sich die Kameras im Wesentlichen unterscheiden ist, dass man mit der einen (dem Smartphone) quasi nur draufhalten kann, weil man selbst die grundlegndsten Dinge (Blende, Belichtungszeit, Framerate) nur rudimentär oder gar nicht einstellen kann
Blende gibt's natürlich gar nicht bei Smartphonekameras, und das ist auch die größte Einschränkung.

Bei den Brennweiten bist Du beschränkt auf das, was die eingebauten Kameramodule als Festbrennweiten bieten - in meinem Fall 17mm, 25mm und 107mm-KB-äquivalent.

Belichtungszeit kannst Du bei Motioncam frei wählen, und zwar auch mit wahnwitzigen Werten wie 1/0.2 bis 1/6000, oder als Shutter Angle-Presets zwischen 45 und 270 Grad. Als Framerates gehen auf meinem Pixel 6 Pro 2p, 5p, 10p, 24p, 25p, 30p, 48p, 50p und 60p. ISO kann ebenfalls manuell mit festen Werten von ISO 44 bis 11.000 eingestellt werden.

Space


Antwort von Funless:

Das Highlight Rolloff gefällt mir persönlich bei den Motion Cam Clips besser als bei der Pocket 4K.

Space


Antwort von Jott:

"Darth Schneider" hat geschrieben:
Und Red akzeptiert das einfach klaglos ?
Gute Frage auf Dauer. Allerdings ist das Ganze ein nicht kommerzieller Hack, was sollte RED da tun können.

Apple dagegen dürfte wohl nur wegen Red zähneknirschend auf ProRes raw im iPhone verzichten. Nur Vermutung. Die gesamte Branche blickt jedenfalls mit Spannung auf die Nikon-Klage. Popcorn!

Space


Antwort von andieymi:

"Darth Schneider" hat geschrieben:
Und Red akzeptiert das einfach klaglos ?
Oder wissen die womöglich „noch“ gar nix davon ?
Gruss Boris
Scheint wohl auch unkomprimiertes Raw zu sein, da greift das Red Patent ja eben nicht.

Aber dann viel Spaß mit den cDNGs über den oft noch mit USB2.0 angebundenen Port der meisten Android Smartphones. Das war schon in der Ursa ein Pain in the ass format, oder halt jedes Mal die mSD rausfriemeln, das ist dann mit der Performance von mSD (meist UHS-I, UHSI-II eher rar) auch kein Spaß.

Aber hey, jede Möglichkeit macht irgendjemanden froh, wenn jetzt jemand mit einem OPO sich die mSD mit unkomprimiertem cDNG vollballern will und dabei Spaß hat freut mich das! :)

Space


Antwort von Darth Schneider:

So bleibt das somit auch ein Spielzeug.
Smartphones sind für solche unkomprimierten Datenmengen eh voll die falschen Werkzeuge. (Genau so wie eigentlich schon die iPhones mit dem ProRes….)

Darum lässt Red das doch zu.

Ich denke zu dem nicht das Nikon eine Chance hat, denn wenn die wirklich gewinnen würden ?

Ja dann war’s das womöglich für die Firma Red, und wer würde das dann verantworten und auch die Konsequenzen tragen ?
Das Patent Amt ? Der amerikanische Staat ? Die Japaner ? Oder wer denn sonst ?

Genau mal gar niemand hätte in Amerika oder in Japan überhaupt die Eier, eine Firma wie Red wegen so einem Verfahren sterben zu lassen, oder nur für grosse Verluste zu sorgen…

Weil auch so ein Sieg im Gerichtssaal kann dann wiederum später sehr teuer für den Kläger selbst werden…Wenn deshalb Existenzen bedroht werden…
Gruss Boris

Space


Antwort von Jott:

"Darth Schneider" hat geschrieben:
Ja dann war’s das womöglich für die Firma Red
Ach was. Selbst wenn das Patent fallen sollte, müssen sie doch nur weiterhin gute und konkurrenzfähige Kameras für ihre Zielgruppe bauen. Nur Jarred Land müsste dann vielleicht mal seine Kappe richtig rum aufsetzen und erwachsen werden! :-)

Space


Antwort von andieymi:

"Darth Schneider" hat geschrieben:
So bleibt das somit auch ein Spielzeug.
Smartphones sind für solche unkomprimierten Datenmengen eh voll die falschen Werkzeuge. (Genau so wie eigentlich schon die iPhones mit dem ProRes….)

Darum lässt Red das doch zu.

Ich denke zu dem nicht das Nikon eine Chance hat, denn wenn die wirklich gewinnen würden ?

Ja dann war’s das womöglich für die Firma Red, und wer würde das dann verantworten und auch die Konsequenzen tragen ?
Red wird das genau nicht jucken, solange deren Kameras hauptsächlich aus anderen Gründen gekauft werden. Auf dem Levle ist Bildqualität ohnehin nur der kleinste Gemeinsame Nenner, das was mal vorhanden sein muss um überhaupt in Erwägung gezogen zu werden. Aber das wars dann auch. Selbst wenn Nikon das gewinnen sollte, hilft Nikon das keinen Deut um wirklich mit Red konkurrieren zu können. Mit dem Mount, mit dem Objektivangebot und der Marktdurchdringung, mit dem Rundum-Feature-Set scheitert es da an anderen Dingen.

Ich weiß nicht, wieso immer das Red Patent auftaucht. Eine Z9 ist keine Cine Cam und wird auch mit internem komprimiertem Raw keine werden.
Man muss Features und nicht nur Specs vergleichen und da ist der interne Codec nur ein Punkt. Wenn auch ein wichtiger, vielleicht die Grundlage. Aber es gibt genügend Kameras mit guten Codecs am Markt, der Rest entscheidet über den Einsatz-Zweck. Darum hilft es den meisten Fotoherstellern eigentlich Nüsse, komprmiertes Raw intern anzubeieten. Sie qualifizieren sich deswegen nicht dann automatisch für Projekte mit anderem Anforderungsprofil.

Und es gibt heute einfach genügend Bewegtbildkameras mit gutem Bild, als das Fotokameras mit gutem Bild (und manch fehlendem Feature) da einfach so mehr mitspielen könnten, nur weil sie jetzt (komprimiertes) Raw gelernt haben. Das ging in Zeiten einer Red One (mit Film) und in den Anfangstagen von Blackmagic, aber heute reicht das nicht mehr.

Solange da niemand den Mut besitzt (Looking at you Nikon & Panasonic, Canon tut das eh mit eigener Serie, Sony auch), die Bildqualität in ein Cinetaugliches & modulares Gehäuse mit dem erweitertem Featureset (Firmwarefeatures: Timecode, Outputkontrolle, mehrere Bildausgänge, Stromversorgung von Zubehör (mit mehr statt 5V-USB), interne NDs, Zusammenarbeit mit Zubehörherstellern, etc. hilft denen Raw so viel wie gar nichts. Die verkaufen deswegen keine Kamera mehr für den ausgerufen Listenpreis von 5999€.

Aber schon interessant, wie jeder 2. Thread hier nach 10 Posts sich um das Patent dreht. Vor ein paar Wochen/Monaten war das gefühlt Netflix-Zertifizierung.

Space


Antwort von Darth Schneider:

Nun ja wir haben hier internes CDng Recording,,das Thema hängt somit doch auch mit dem Red Patent zusammen…

Und wenn neue Kameras erscheinen die für Filmer interessant sind, ja dann hängt das zwar nicht mit Netflix direkt zusammen.

Aber es ist doch aber trotzdem sehr gute Werbung und auch sehr nett wenn manche auch verhältnismässig sehr günstige Consumer Kameras von Netflix überhaupt zertifiziert werden.

Somit hängt das doch Alles zusammen.
Das kann man drehen wie man will.

Gruss Boris

Space


Antwort von andieymi:

"Darth Schneider" hat geschrieben:
Nun ja wir haben hier internes CDng Recording,,das Thema hängt somit doch auch mit dem Red Patent zusammen…
Nur wenn es komprimiertes cDNG wäre. Ist es aber nicht, zumindest hab ich auf der Homepage und im Play-Store nichts dergleichen gelesen.

Unkomprimiertes cDNG ist mittlerweile quasi EOL. Das interessiert niemand mehr. Adobe sagt die cDNG-Initiative gibt's nicht mehr.

Space


Antwort von cantsin:

andieymi hat geschrieben:
Nur wenn es komprimiertes cDNG wäre. Ist es aber nicht, zumindest hab ich auf der Homepage und im Play-Store nichts dergleichen gelesen.

Unkomprimiertes cDNG ist mittlerweile quasi EOL. Das interessiert niemand mehr. Adobe sagt die cDNG-Initiative gibt's nicht mehr.
MotionCam nimmt, ähnlich wie MagicLantern, in einem eigenen komprimierten Raw-Dateiformat auf und konvertiert das dann in unkomprimiertes oder komprimiertes CinemaDNG (was sowohl in der App selbst erledigt werden kann oder extern mit einem für Windows und Mac verfügbarem Konvertierungstool).

Genau wie MagicLantern dürfte es aber unter dem Radar von RED segeln oder sogar von dem Patent überhaupt nicht betroffen sein, weil REDs Patent für eine Kamera gilt. Ich bin zwar kein Anwalt, aber sowohl MagicLantern und MotionCam können wohl mit Fug und Recht argumentieren, dass sie keine Kameras sind, sondern Anwendersoftware. Wenn jemand Android-Smartphones mit vorinstalliertem MotionCam ausliefern würde, wäre das allerdings vom Patent tangiert.
andieymi hat geschrieben:
Aber dann viel Spaß mit den cDNGs über den oft noch mit USB2.0 angebundenen Port der meisten Android Smartphones.
Ist bei meinem Google Pixel kein Problem. Das Ding hat USB 3.1, und Offloaden der Raw-Aufnahmen (egal, ob im MotionCam-internen Format oder bereits umgewandelt in CinemaDNG) geht genauso flott wie von einer schnellen SD-Karte oder USB-SSD. Und da Android-Telefone sich im Gegensatz zu iPhones ganz normal wie USB-Laufwerke im Betriebssystem mounten lassen, geht das auch ohne große Verrenkungen.

Space


Antwort von Darth Schneider:

Ich bin auch gar kein Anwalt.;)
Aber so einfach wird das nicht sein,

ich denke dann könnte z.B. BMD, Nikon oder Atomos einfach eine separat zu beziehende Gratis App herausbringen, mit dem sich dann in den Kameras komprimiertes CDng oder was auch immer für komprimiertes echtes RAW aufzeichnen liesse,..

Und dann Red gegenüber einfach behaupten, wir verkaufen die Kameras so nicht…

So in der Art läuft das ja auch mit dem Google Smartphone…Ausser das halt die App in Form eines Hacks von extern kommt, und bisher „noch“ nix komprimiert.

Was für die führenden Kamera Hersteller eigentlich auch gar kein Hindernis darstellen würde, sowas bei Bedarf bei der Kundschaft auch selber in die Wege zu leiten. ;)))
Gruss Boris

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
ich denke dann könnte z.B. BMD, Nikon oder Atomos einfach eine separat zu beziehende Gratis App herausbringen, mit dem sich dann in den Kameras komprimiertes CDng oder was auch immer für komprimiertes echtes RAW aufzeichnen liesse,..

Und dann Red gegenüber einfach behaupten, wir verkaufen die Kameras so nicht…
Bei Canon und MagicLantern läuft das genauso seit dem Jahr 2010 und hat RED bisher nicht auf den Plan gerufen. Wobei, wie auch bei Android und MotionCam, es wahrscheinlich hilft, dass Kamera-/Smartphone-Hardware und Raw-Videoaufnahmesoftware von zwei verschiedenen Herstellern stammen und auch nicht in Zusammenarbeit beider entwickelt wurden.

Space


Antwort von Darth Schneider:

@Cantsin
Wobei ich sehr, sehr stark bezweifle das die Macher von Magic Lantern in gar keinem Kontakt mit Canon standen/sind.

Schliesslich hat auch sicher Canon von dem Magic Lantern Hack stark profitiert, damals, als es noch überhaupt kein RAW in Dslrs/dsims gab

Oder denkst du Red kann verbieten das die Mitarbeiter zwischen drin mal zusammen ein Kaffee oder ein Bier trinken und dabei etwas plaudern ?.;)))
Gruss Boris

Space


Antwort von cantsin:

MagicLantern ist ein Open Source-Hacker-Projekt unbezahlter Ehrenamtler, und keine Firma steckt dahinter. Das Projekt hat eine lange Entwicklungsgeschichte, die 2006 mit der alternativen CHDK-Firmware für Canon-Digiknipsen anfing. CHDK ermöglicht u.a. Raw-Foto-Aufnahme auf Canon-Kompaktkameras, die von Haus aus nur JPEG aufnehmen, und implementiert noch andere Dinge wie z.B. Bracketing und Timelapses. Die haben damals sogar einen Embedded-BASIC-Interpreter auf die Kameras portiert, um diese Funktionen zu ermöglichen.

MagicLantern basiert teilweise auf dem CHDK-Code, bzw. fing auf dessen Basis an, nur eben mit Canons damals populären DSLRs als Zielsystem.

@Darth, Sebastian Merca von MotionCam hat Deine Forenbeiträge hier per Google-Übersetzer mitgelesen und schreibt Dir noch folgendes zu Deiner Frage, was das Google Pixel 7 intern vor der Raw-Frame-Abspeicherung tut:

"Leider weiß das auch der YouTube-Tester nicht, höchstens die Leute von Google, die das Smartphone programmiert haben... Sag' ihm, dass er nicht 100% falsch liegt, aber... um herauszufinden, ob vermeintliches Raw-Quellmaterial tatsächlich raw ist oder nicht, sieh' Dir das Bildrauschen an! Einige Telefone kochen ihre Rohdaten stark vor, wie Samsungs Smartphone-Kameras, und backen interne Bildverarbeitung ein. Übrigens kochen iPhones ihre Raws stärker als jede andere Marke - da ist 'roh' wirklich nicht mehr 'roh'".

Space


Antwort von Darth Schneider:

@Cantsin
Interessant und aufschlussreich.
Also das mit Apple stimmt ganz bestimmt, da sehen ja die Gesichter auf den Bildern alle egal mit welcher App man filmt oder fotografiert immer so aus als wären sie mindestens frisch gepudert, eher wie echt retuschiert…;)))
Die Samsungs kenne ich gar nicht.

Falls du ihm eh zurück schreibst, dann schreib ihm: „Hut ab vor seiner Arbeit, beeindruckend ist das allemal wenn jemand überhaupt so was bewerkstelligen kann“
Gruss Boris

Space


Antwort von klusterdegenerierung:

Habe mir ein neues Smartphone gegönnt, nix wildes, aber ich wollte jetzt auch nicht wieder das Schlußlicht in der AppWelt sein, aber leider unterstützt der Prozessor sogarkein Raw. An was man Heute alles denken muß! :-(

Space


Antwort von Heiko1974:

Wir geht ihr eigentlich mit den großen Daten um, könnt ihr mir einen Tip geben wie man weniger Speicher beim Filmen verbraucht?
LG Heiko!

Space


Antwort von cantsin:

Heiko1974 hat geschrieben:
Wir geht ihr eigentlich mit den großen Daten um, könnt ihr mir einen Tip geben wie man weniger Speicher beim Filmen verbraucht?
Da gibt's leider keine Tips, außer dem, sparsam zu drehen und ggfs. (bei Smartphones, die das unterstützen) auf eine externe USB-SSD.

Die Datengrößen sind nunmal der Preis von Raw...

Space


Antwort von Heiko1974:

Wie ist denn der beste Workflow um schnell wieder Platz zu schaffen um weiter aufnehmen zu können?
Am besten wäre es doch dann ein USB-Stick überall mit hinzunehmen um schon unterwegs die Files dann dort hin zu kopieren, oder?
Ergibt es Sinn, die Dateien in einer ZIP umzuwandeln, wäre das platzsparender?
Fragen über Fragen ;)

Space


Antwort von cantsin:

Heiko1974 hat geschrieben:
Am besten wäre es doch dann ein USB-Stick überall mit hinzunehmen um schon unterwegs die Files dann dort hin zu kopieren, oder?
Das ist eine einfache und gute Möglichkeit (natürlich wenn der Stick groß genug ist).
Ergibt es Sinn, die Dateien in einer ZIP umzuwandeln, wäre das platzsparender? Nein.

Ist Video-Raw für Dich eine völlig neues Gebiet? Hast Du dafür einen funktionierenden Nachbearbeitungs-Workflow?

Space


Antwort von Heiko1974:

Ja so ist es, komplett neu.
Ich habe schon ein bisschen mit Resolve und RAW experimentiert, was aber nicht mein Problem ist, sondern der Workflow mit Motion Cam und Pixel 6 pro. Ich finde die Qualität der Videos sehr gut.
Aber gut, dann sollte man neben einem USB Stick eben auch immer eine Powerbank dabei haben.
Kannst du mir ein paar Einstellungen empfehlen?

Space


Antwort von cantsin:

Heiko1974 hat geschrieben:
Kannst du mir ein paar Einstellungen empfehlen?
24p, 25p oder 30p UHD als Bildrate und Auflösung. Wenn Du einen 16:9-Crop (3840x2160) einstellst, reduziert sich die Datenmenge auf zwei Drittel gegenüber Open Gate 3:2 (4080x3064).

Dann die .mcraw-Dateien nicht in der App nach CinemaDNG konvertieren, sondern auf Deinen USB-Speicher kopieren und mit den MotioncamTools auf Deinem Mac- oder Windows-Rechner in CinemaDNG konvertieren.

Die Dateien in Resolve importieren. In den Projekteinstellungen (Zahnrad unten rechts am Bildschirm) in "Camera Raw" den Tab von "ARRI" nach "CinemaDNG" umschalten und in den "Project Settings" den Color Space auf "Blackmagic Design" und das Gamma auf "Blackmagic Design Film" setzen sowie im Submenü "Color Management" das Farbmanagement von "DaVinci YRGB" auf "DaVinci YRGB Color Managed" umschalten.

Das ist der einfachste Weg, um direkt korrekte und gute Farben für das importierte CinemaDNG-Material zu erhalten.

Space


Antwort von Heiko1974:

Das mit den Framerate Reduzierung ist eine gute Idee, die ich so noch nicht bedacht habe.
Die Auflösung habe ich so eingestellt. Ich habe schon probiert ob man nicht direkt auf einem USB Stick aufnehmen kann, hat aber irgendwie nicht geklappt. Wäre aber eigentlich ganz cool, direkt da aufnehmen und dann alles andere am PC machen.

Space


Antwort von cantsin:

Heiko1974 hat geschrieben:
Das mit den Framerate Reduzierung ist eine gute Idee, die ich so noch nicht bedacht habe.
Die Auflösung habe ich so eingestellt. Ich habe schon probiert ob man nicht direkt auf einem USB Stick aufnehmen kann, hat aber irgendwie nicht geklappt. Wäre aber eigentlich ganz cool, direkt da aufnehmen und dann alles andere am PC machen.
Es dürfte keinen USB-Stick geben, der die für Raw-Video nötigen Datenraten - 190 MB/s bei open gate 24p, 126 MB/s bei UHD 24p - in Echtzeit wegschreiben kann. Du bräuchtest da schon eine USB-SSD.

Es könnte aber sein, dass das USB 3.x-Speicherinterface des Google Pixel für die Echtzeitaufzeichnung sowieso zu langsam ist, was nicht an der Telefon-Hardware liegt, sondern laut den motioncam-Entwicklern mit Googles Pixel-spezifischer USB-Treiberlösung zusammenhängt.

Space


Antwort von Heiko1974:

Ja dann bleibt mir erstmal sowieso nichts anderes übrig.
Ich danke dir sehr für deine Hilfe, LG Heiko!

Space


Antwort von klusterdegenerierung:

Hat jemand zufällig auch einen i7 PC der mit dem cachen von DNGs enorme Probleme hat?
Nun habe ich endlich ein neues Smartphone erworben das mit links Raw Daten nicht nur mühelos aufzeichnen kann, sondern auch mit links bei Seite schaufelt, also DNGs rendert.

Aber mein PC, der immer schon eine DNG Mimose war, weswegen ich auch keine Lust mehr auf den Shogun oder Ninja hatte, kac... jetzt so richtig rein und ich frage mich was da schief läuft.

Egal welches Browser Programm oder gar der Explorer mit thumbnail Vorschau selbst, geht selbst bei einer sechnellen SSD in die Knie wenn es um das generieren von Vorschauen geht.

Ist das normal? Ich kann mich dran erinnern das Frank immer auf seinen BMD DNG Workflow geschworen hat, aber wenn es bei ihm auch nur im Ansatz soo langsam von statten ging, dann kann ich mir das nicht vorstellen, bzw dann muß was bei mir im Argen sein, denn darauf kann keiner warten und erst Recht nicht wenn man ein paar min DNG in 4K filmt.

Wie sieht das denn bei Euch aus und wie sind mittlerweile die Erfahrungen mit der App und lohnt eine Pro Version für ProRes, denn das wäre mir def lieber als DNG?

Danke! :-)

Space


Antwort von Frank Glencairn:

Bei mir laufen DNGs eigentlich genau so butterweich wie BRAW.
Schau mal auf deinen Taskmanager wo der Flaschenhals ist, irgendwas muß da dann ja am Anschlag sein.

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Egal welches Browser Programm oder gar der Explorer mit thumbnail Vorschau selbst, geht selbst bei einer sechnellen SSD in die Knie wenn es um das generieren von Vorschauen geht.
Wenn ich Dich richtig verstehe, probierst Du, die DNG-Serien mit Betriebssystem-Bordmitteln zu betrachten. Das funktioniert mit keinem Raw-Bildformat gut.

Ich würde hier direkt nach Resolve gehen (bloßes Betrachten/Browsen der DNG-Serien geht im Media-Tab) oder dieses Programm hier installieren:
https://www.fastcinemadng.com/info/dng/dng-viewer.html

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Egal welches Browser Programm oder gar der Explorer mit thumbnail Vorschau selbst, geht selbst bei einer sechnellen SSD in die Knie wenn es um das generieren von Vorschauen geht.
Wenn ich Dich richtig verstehe, probierst Du, die DNG-Serien mit Betriebssystem-Bordmitteln zu betrachten. Das funktioniert mit keinem Raw-Bildformat gut.

Ich würde hier direkt nach Resolve gehen (bloßes Betrachten/Browsen der DNG-Serien geht im Media-Tab) oder dieses Programm hier installieren:
https://www.fastcinemadng.com/info/dng/dng-viewer.html
Ja, so könnte man sagen, aber so ganz ist das ja nicht, denn alle meine Raw Formate aus zig Jahren werden in zb. ACDSee, Thumbview, Faststone Imageviewer, Bridge oder Explorer Vorschau in windeseile dargestellt. (Also wenn sie gecached werden, nach dem cachen natürlich noch schneller)

Bei den DNG"s, die ich wegen der Auflösung durchaus auch als Still nutzen möchte, ist das unterirdisch, da dauert ein frame mitunter Sekunden!
Das macht bei hunderten natürlich kein Spaß und natürlich könnte ich mir diese Frames auch in Resolve auf der Timeline ansehen und von dort exportieren oder zum Explorer leiten, aber das ist mir oft zu umständlich, wo doch sonst alles ratzefatze geht, selbst mit 45MB großen Sony Raws etc. pp.

Natürlich läuft das auf einer Resolve Spur wie anderes Material auch und gerade deswegen habe ich die Vermutung das hier irgendwas in meinem System hängt, fehlt, verbuckstielt ist oder sonst was schief läuft.

Vielleicht benötige ich neue DNG encoder, falls es sowas gibt?
Sonst noch einer ne Idee? :-)

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Bei den DNG"s, die ich wegen der Auflösung durchaus auch als Still nutzen möchte, ist das unterirdisch, da dauert ein frame mitunter Sekunden!
Das macht bei hunderten natürlich kein Spaß und natürlich könnte ich mir diese Frames auch in Resolve auf der Timeline ansehen und von dort exportieren oder zum Explorer leiten,
Wenn Du sie Dir im "Media"-Tab ansiehst, kannst Du sie direkt betrachten/browsen, und brauchst keine Timeline.

Der von mir weiter oben verlinkte Fast CinemaDNG Processor macht das ganze noch einfacher, weil Du den per Rechtsklick im Windows-Dateiexplorer starten kannst.

Space


Antwort von klusterdegenerierung:

Ja schon, klar, kann man alles machen, aber ich möchte auf der anderen Seite nicht auf den üblichen Workflow verzichten, das ich mir Raws in Bridge oder Explorer ansehe und an ACR weiterleite, aber für DNG muß scheinbar wohl eine Ausnahme her, gerade hat sich Bridge beim scrollen der Dateien schon aufgehangen.

Space


Antwort von cantsin:

Fürs Abspielen von CinemaDNGs gibt's jetzt noch ein neues Programm (Windows + MacOS, Open Source):
https://www.cined.com/octopus-raw-playe ... -released/

Space


Antwort von klusterdegenerierung:

Danke Cantsin, das Teil ist um Längen besser, easy und schnell und man kann via Explorer direkt zum aktuellen Frame gehen.
Was noch mega wäre, gerade für Handyfilme, wenn man das Bild rotieren könnte, zumindest habe ich das noch nicht gefunden.

PS. Ich hatte ja noch die Frage wegen Pro und nicht Pro, hast Du das mal getestet, macht Pro einen Sinn, nutt Du das?
Danke!

Space


Antwort von cantsin:

Seit kurzem hat MotionCam auch Gyroflow-Unterstützung. Dieses Video hier wurde (auf einem Xiaomi 13 Ultra mit MotionCam + Gyroflow) handheld gedreht, im schönen ländlichen Taiwan:

https://www.youtube.com/watch?v=NHA4t8ZNxW8

Space


Antwort von Darth Schneider:

Diese ständigen voll unmotivierten, langweiligen Kamerabewegungen nerven und lenken von den eigentlich coolen Motiven nur ab….
Gruss Boris

Space


Antwort von klusterdegenerierung:

"Darth Schneider" hat geschrieben:
Diese ständigen voll unmotivierten, langweiligen Kamerabewegungen nerven und lenken von den eigentlich coolen Motiven nur ab….
Gruss Boris
Aha, aber im Forst Video findest Du sowas toll!
Sehr qualifizierter Einwand!

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
Seit kurzem hat MotionCam auch Gyroflow-Unterstützung. Dieses Video hier wurde (auf einem Xiaomi 13 Ultra mit MotionCam + Gyroflow) handheld gedreht, im schönen ländlichen Taiwan:
Danke fürs teilen cantsin!
Ich bin total geflasht über die Quali und die smoothness des Gyrostabis und dem Raw output.

Motioncam ist echt mega und mit meinem Xiaomi funzt sie auch gut.
Hast Du auch die PC App mit der man in ProRes codieren kann, bzw direkt in ProRes aufzeichnen kann?

Bin am überlegen ob ich sie mir holen soll, aber am Ende des Tages muß man ja immer eine kopierstation dabei haben bei den Daten mengen.

Space


Antwort von iasi:

cantsin hat geschrieben:
Seit kurzem hat MotionCam auch Gyroflow-Unterstützung. Dieses Video hier wurde (auf einem Xiaomi 13 Ultra mit MotionCam + Gyroflow) handheld gedreht, im schönen ländlichen Taiwan:

https://www.youtube.com/watch?v=NHA4t8ZNxW8
Geht zwar in Richtung Urlaubsvideo, aber schon beachtlich, was das Telefon liefert, auch wenn die Lichtsituation wohl eher nicht sehr fordernd war.

Variable Blende gibt´s leider nur bei 23mm - aber immerhin gibt es sie.

Bleibt die Frage: Lässt sich auch direkt auf eine externe SSD aufzeichnen?

Und noch eine Frage: Sind die 8k die volle Sensorauflösung?
Raw würde dann ja bedeuten, dass man 8k wegschreiben müsste.

Space


Antwort von cantsin:

iasi hat geschrieben:
Bleibt die Frage: Lässt sich auch direkt auf eine externe SSD aufzeichnen?
Ja.
Und noch eine Frage: Sind die 8k die volle Sensorauflösung?
Raw würde dann ja bedeuten, dass man 8k wegschreiben müsste.
Wo siehst Du 8K? Das Xiaomi hat einen typischen 50MP-Quad-Bayer-Sensor, bei dem man dann effektiv 12,5 MP bzw. 4K Bayer-Raw-Auflösung erhält.

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Hast Du auch die PC App mit der man in ProRes codieren kann, bzw direkt in ProRes aufzeichnen kann?
Nee, hab mich damit noch nicht beschäftigt... Die Motioncam-Entwickler basteln z.Zt. einer optionalen 10bit-Log-Aufzeichnung in ProRes und anderen Codecs (sicher um mit dem iPhone gleichzuziehen), aber ich hab' mir das noch nicht näher angesehen.

MotionCam ist halt eine ziemlich experimentelle und bastelige Angelegenheit, ähnlich wie MagicLantern auf alten Canon-Kameras. Für kritisch Produktivanwendungen würde ich, bei aller Liebe, eher zum aktuellen iPhone mit ProRes-Log greifen.

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Bleibt die Frage: Lässt sich auch direkt auf eine externe SSD aufzeichnen?
Ja.
Und noch eine Frage: Sind die 8k die volle Sensorauflösung?
Raw würde dann ja bedeuten, dass man 8k wegschreiben müsste.
Wo siehst Du 8K? Das Xiaomi hat einen typischen 50MP-Quad-Bayer-Sensor, bei dem man dann effektiv 12,5 MP bzw. 4K Bayer-Raw-Auflösung erhält.
Ich sehe da die 50MP.
Wie die 4k-Raw nun genau ausgegeben werden, sehe ich jedoch nicht. Die Hardware muss schließlich korrekt angesprochen werden, um die 4 zu 1 Zusammenfassung zu erreichen.

Space


Antwort von Darth Schneider:

@Kluster
Schau die beiden Videos nochmal,
im Forst Video hat es zig Shots drin wo sich die Cam gar nicht bewegt.
Im Smartphone Video bewegt sich die Kamera hingegen fast bei jeder Einstellung monoton in die selbe Richtung, also gar nicht zu vergleichen diesbezüglich, und so einfach einfach todlangweilig.

Abwechslung zwischen Kamera unbewegt und weniger dafür motivierte Kamerabewegung finde ich halt viel besser.
Was ist denn daran jetzt so falsch, beziehungsweise unqualifiziert ?
Gruss Boris

Space


Antwort von cantsin:

iasi hat geschrieben:
cantsin hat geschrieben:
Wo siehst Du 8K? Das Xiaomi hat einen typischen 50MP-Quad-Bayer-Sensor, bei dem man dann effektiv 12,5 MP bzw. 4K Bayer-Raw-Auflösung erhält.
Ich sehe da die 50MP.
Wie die 4k-Raw nun genau ausgegeben werden, sehe ich jedoch nicht. Die Hardware muss schließlich korrekt angesprochen werden, um die 4 zu 1 Zusammenfassung zu erreichen.
Das ist das gleiche wie bei der Sony A7SIII, deren 12 MP-Sensor eigentlich auch ein 48 MP-Quad-Bayer-Sensor ist. Nur dass es sich bei Smartphones aus Marketinggründen eingebürgert hat, auch die (eigentlich zusammengefassten) Quad-Bayer-Sensel mitzuzählen.

Space


Antwort von klusterdegenerierung:

"Darth Schneider" hat geschrieben:
im Forst Video hat es zig Shots drin wo sich dieKamera gar nicht bewegt.
Dann melde Dich doch im DSLR Forum an, dort kannst Du Dir Natur Fotos ansehen und wenn Du Dich selbst dabei auch nicht bewegst, werden sie noch Eindrucksvoller!

Space


Antwort von Darth Schneider:

@Kluster
Was ist denn heute dein Problem ?
Nur weil mir die Kamerabewegungen in dem Film halt nicht gefallen, haust du dumme Sprüche raus ? Das erinnert mich einfach an den einschläfernden, ausgelutschten Ken Burns Effekt….:))



Ich habe sonst gar nix gegen Kamerabewegungen, wenn sie sie sich nicht ständig monoton und unnötig bewegt
Und ich stehe gar nicht auf Natur Dia Shows…;))
Gruss Boris

Space


Antwort von klusterdegenerierung:

"Darth Schneider" hat geschrieben:
Nur weil mir die Kamerabewegungen in dem Film halt nicht gefallen, haust du dumme Sprüche raus ?
Ich habe keine Probleme, ich hatt eher das Gefühl Du möchtest nur blöde daher quatschen, denn in dem Film sind genauso moves drin wie im Forst Film und plötzlich, wer weiß warum, kommt son Ding von Dir.
Du egal.

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:


Ich sehe da die 50MP.
Wie die 4k-Raw nun genau ausgegeben werden, sehe ich jedoch nicht. Die Hardware muss schließlich korrekt angesprochen werden, um die 4 zu 1 Zusammenfassung zu erreichen.
Das ist das gleiche wie bei der Sony A7SIII, deren 12 MP-Sensor eigentlich auch ein 48 MP-Quad-Bayer-Sensor ist. Nur dass es sich bei Smartphones aus Marketinggründen eingebürgert hat, auch die (eigentlich zusammengefassten) Quad-Bayer-Sensel mitzuzählen.
Ich dachte an die beiden Hardwareschaltungen, die dann auch korrekt angesprochen werden müssen. Wenn das für die App kein Problem darstellt, dann ist es ja OK.

Space


Antwort von cantsin:

iasi hat geschrieben:
Ich dachte an die beiden Hardwareschaltungen, die dann auch korrekt angesprochen werden müssen. Wenn das für die App kein Problem darstellt, dann ist es ja OK.
Über Googles Kamera-API liefern die Quad Bayer-Sensoren i.d.R. nur die zusammengefassten Pixelwerte, auch wenn Raw-Fotos gemacht werden. Motioncam nutzt dasselbe API.

Space


Antwort von TheGadgetFilms:

"Darth Schneider" hat geschrieben:
Diese ständigen voll unmotivierten, langweiligen Kamerabewegungen nerven und lenken von den eigentlich coolen Motiven nur ab….
Gruss Boris
Hahaha, hab es deshalb nach genau 2 sek. abgestellt.

Space


Antwort von cantsin:

https://www.youtube.com/watch?v=V9wxLzPFZkw

U.a. gibt es jetzt neben Raw- auch Log-Aufnahme inkl. der Möglichkeit, eigene LUTs zu verwenden, sowie focus racking (Schärfeverlagerungen) vorab zu definieren und während der Aufnahme abzurufen.

Space


Antwort von cantsin:

Die aktuelle Developer-Version von MagicLanterns MLVApp unterstützt jetzt auch das (MCRAW-) Kamera-Rawformat von MotionCam, neben MagicLanterns MLV-Format:
https://github.com/tlenke/MLV-App/relea ... 15.0-alpha

D.h. man kann jetzt alternativ auch mit der MLVApp und ihrem sehr reichen Featureset unprozessierte Raw-Aufnahmen von Motioncam entweder nach CinemaDNG oder in herkömmliche Videoformate (inkl. ProRes und DNxHR) wandeln, letztere auch mit diversen Farbkorrekturen.

Das ist vor allem eine gute Nachrichte für Linuxer, da das Motioncam-eigene Umwandlungsprogramm nur auf MacOS und Windows läuft. (Man kann alternativ auch direkt im Smartphone wandeln.)

Hab's gerade getestet, und es funktioniert gut.

Space


Antwort von Frank Glencairn:

Ich finde es sowieso ganz beachtlich, daß die ML Entwickler da immer noch Zeit und Energie rein stecken.
Auf der anderen Seite gibt es ja auch noch eine ganze Gemeinschaft die auf die Canon M schwört, und versucht da ne Cinema Kamera draus zu machen.






Space


Antwort von cantsin:

Ich habe ja sowohl die EOS M mit MagicLantern, als auch ein Pixel 6 Pro mit MotionCam, muss aber sagen, dass die CinemaDNGs aus dem Smartphone denen aus der EOS M bildqualitativ um Klassen überlegen sind.

Was für die EOS M spricht, sind die Wechselobjektive (sowie Objektive mit Blende), inkl. der Möglichkeit, alte 8- und 16mm-Objektive zu adaptieren, plus SD-Karten als Speichermedium.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kameras Allgemein-Forum

Antworten zu ähnlichen Fragen //


Android und RAW - Was kommt da auf uns zu?
Blackmagic Camera App bald auch für Android Smartphones
Blackmagic Camera App ab sofort für ausgewählte Android Smartphones verfügbar
RawTherapee und CinemaDNG / RAW einfach nur Top!
ProRes Raw zu CinemaDNG-Konverter
Prores RAW zu CinemaDNG
Assimilate Play Pro Studio: Universeller Player samtTranskoding von ProRes RAW zu CinemaDNG
Nikon Z6 Problem: Bild-Flackern bei LOG (und RAW) Videoaufnahme
Firmware 2.0 für Sigma fp Kamera bringt CinemaDNG mit 120fps
Mobile Schnitt-App LumaFusion: Neue Version 3.2 - und jetzt auch für Android
Leica S3 Mittelformatkamera: DCI-4K 4:2:2 Videoaufnahme mit voller Sensorfläche
Leica Q3 mit 8K Videoaufnahme, Phasen-Autofokus, LOG und ProRes-Aufnahme vorgestellt
Problem bei Videoaufnahme mit Nikon D5100
CinemaDNG und FCPX/Motion?
Bitte um Hinweise zu CinemaDNG Workflow
Akkulaufzeit für Videoaufnahme Alpha | sony alpha 7 iii
GH 2 Dauer Videoaufnahme
Sony A1: Überhitzung bei der 8K Videoaufnahme und 4K 120 fps - erste Tests ...
Mobile SSDs für die Videoaufnahme, Backups und mehr - worauf achten?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash