Logo Logo
/// 

Fraunhofer zeigt erste JPEG XS Implementierung auf der // NAB 2018



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Produktionsfirmen und Studios versuchen seit geraumer Zeit spezielle Kabel, Switches und Schnittstellen für die Videoübertragung also in erster Linie SDISDI im Glossar erklärt durch kommerziel...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Fraunhofer zeigt erste JPEG XS Implementierung auf der // NAB 2018




Antwort von WoWu:

Vielleicht zur besseren Einordnung und Verständnis, warum ein neuer CodecCodec im Glossar erklärt vor dem Hintergrund erweiterter Anforderungen entwickelt wurde, hier der Vergleich mit "Stand der Technik" Algorithmen.

JPEG-LS und JPEG sowie sein Nachfolger JPEG-XT der eine rückwärtskompatible Unterstützung höherer Bittiefen bietet, erschweren eine präzise Ratensteuerung, und typische Implementierungen zeigen eine Latenz von einem Frame.
JPEG 2000 verwendet einen komplexen Entropie-Coder, der viele Hardware- und Softwareressourcen für Echtzeit-Implementierungen impliziert.
HEVC als Verteilungs-Codec benötigt eine große Kodierungskomplexität, ohne die Robustheit mehrerer Generationen zu gewährleisten.
VC-2 hingegen ist von geringer Komplexität, aber die angewandte Technologie liefert nur ein begrenztes BildQualität.
ProResProRes im Glossar erklärt, wie in einem SMPTE-Offenlegungsdokument (RDD 36) dargestellt, basiert auf Makroblöcken von 16x16 Pixeln, was eine Implementierung mit niedriger Latenz unter 32 Zeilen unmöglich macht. Darüber hinaus macht die symbolische Entropiecodierung schnelle CPU-Implementierungen zu einer Herausforderung. DSC zielt schließlich auf eine ASIC-basierte Display-Komprimierung ab, was eine effiziente Implementierung auf FPGAs und GPUs schwierig macht.

Aufgrund solcher Unzulänglichkeiten der bestehenden Codecs ist JPEG XS entwickelt, der eine präzise Ratensteuerung mit einer Latenz von weniger als 32 Zeilen bietet und in ein kostengünstiges FPGA passt.
Die Komprimierungsqualität sollte VC-2 überlegen sein und gleichzeitig die Implementierung auf verschiedenen Plattformen unterstützen.

"Es dient wirklich nur dazu über ein Netzwerk einen Live-Videostream mit geringerer DatenrateDatenrate im Glossar erklärt zu übertragen ohne, dass man mit dem bloßen Auge gegenüber einer kompressionslosen Übertragung einen Unterschied wahrnimmt."

Das muss sich erst noch zeigen denn die Datenraten gestatten das durchaus.
Und ProResProRes im Glossar erklärt war auch nichts Anderes als ein JPEG, noch dazu aus dem DCTDCT im Glossar erklärt Zweig.
Damit ist bei Xs Schluss.
Vielleicht ist PRR ja nur die Panic Reaktion vor einer möglichen Alternative ?



Antwort von iasi:




"Es dient wirklich nur dazu über ein Netzwerk einen Live-Videostream mit geringerer DatenrateDatenrate im Glossar erklärt zu übertragen ohne, dass man mit dem bloßen Auge gegenüber einer kompressionslosen Übertragung einen Unterschied wahrnimmt."

Das muss sich erst noch zeigen denn die Datenraten gestatten das durchaus.
Und ProResProRes im Glossar erklärt war auch nichts Anderes als ein JPEG, noch dazu aus dem DCTDCT im Glossar erklärt Zweig.
Damit ist bei Xs Schluss.
Vielleicht ist PRR ja nur die Panic Reaktion vor einer möglichen Alternative ?

Die RAW-Vorteile bietet XS aber eben nicht - weshalb also XS statt eines RAW-Codec?





Antwort von Jott:

wowu glaubt/spekuliert, ProResProRes im Glossar erklärt Raw sei JPEG XS. Warum auch immer.



Antwort von Jan:

WoWu spekuliert selten, in der Regel weiß er es.



Antwort von Jott:

Klar doch.



Antwort von WoWu:

@Iasi
Du hast es ja in der Zunahme der Bandbreitenerforderniss mit einem generellen Problem zu tun, dass sich von der Kamera bis hin zum Endverbraucher zieht.
Am vorderen Ende aber stellt sich eben die Frage, wie geht man mit 80 GBit um.
Selbst HDMIHDMI im Glossar erklärt macht in seiner derzeit maximalen Ausformung 18GBit.
Wenn Du im Endgerät ohnehin nur Bruchteile des Bildes darstellen kannst, stellt sich die Frage, wo Du vorne anfängst zu reduzieren.
Dass es zukünftig immer schwerer, bis unmöglich wird, 8K in 120F 12Bit in der Kamera durchweg zu verarbeiten und als RGBRGB im Glossar erklärt raus zu geben, bedeutet, dass in dem Fall bereits ein CodecCodec im Glossar erklärt erforderlich wäre, der sich kaum mehr unter den derzeit vorhandenen findet und selbst in den heute üblichen Verarbeitungen zunehmend schwierig ist.
Die Frage stellt sich also nach Alternativen ziemlich heftig, auch im Kamerabereich, wenn man das De-Mosaicing, (aus welchen Gründen auch immer) nicht auslagern will.
Bei RAW stellt sich ebenfalls die Frage nach der Reduktion, selbst wenn man nur ein Luminanzsignal pro PixelPixel im Glossar erklärt herausgibt.
Mit 120p und 4/8 K führt aber selbst das die heutigen Schnittstellen an ihre Limits.
Vornehmlich natürlich bei den Kameras im unteren und mittleren Preissegment denn ich weiß nicht, ob man Endverbrauchern den Umgang mit Glasfaserübertragung noch zumuten möchte.
Man muss also bereits hier über die entsprechende Reduktion nachdenken.
Aber man käme eben rd. mit einem Drittel der Menge hin, was immernoch immens ist.
Stellt sich also die Frage, an welcher Stelle man den Workflow aufbricht bzw. ob es überhaupt noch sinnvoll erscheint oder ob nicht die fertige KompressionKompression im Glossar erklärt als IP Signal hier Vorteile hat, wenn hinterher ohnehin im 12 BitBit im Glossar erklärt Bereich geblieben wird.
(ich gebe zu bedenken, dass 12Bit heute noch von kaum jemandem gearbeitet wird und sowas RAW vorbehalten ist, zukünftig aber Endverbrauchet Signal (PQ) ist (sein soll)).
Die Sache mit dem WeißabgleichWeißabgleich im Glossar erklärt ist schon heute bei vielen Kameras Schall und Rauch, weil die Quanteneffizienz in den meisten Kameras bereits vor dem RAW Signal ausgeglichen wird. Bliebe also nur die Farbraumneutralität, die sich in den neuen (zukünftigen) Farbräumen auch nicht mehr wirklich stellt.
Letztlich bleibt als RAW Vorteil dann nur noch die neutrale Archivierung.
Aber es gibt ja ohnehin nur wenige Firmen, die (auch in der Vergangenheit (echte)) RAW Signale ausgegeben haben denn was in zahlreichen "Entwicklungsprogrammen" so vor sich ging, hatte auch nichts mit De-Mosaicing zu tun.
Insofern ist gar nicht auszuschließen, dass sich in der Bildverarbeitung ein Paradigmenwechsel vollzieht.
Und wie man das nun labelt ist ziemlich egal. Das haben die Firmen früher auch nicht so genau genommen und irgendwas auf ihre Verpackungen gedruckt.
Fakt ist eben, wie eingangs erwähnt, dass die Schere zwischen Anforderungen und Machbarem immer weiter auseinander geht und das offenbar auch in der verfügbaren Codierentwicklung irgendwo Grenzwerte in Bezug auf Speicherhandhabung (Latenzen) erreicht sind.
Ob XS nun die endgültige Lösung sein wird, kann bestimmt noch niemand sagen, aber es deutet zumindest gangbare Lösungen an, deren Richtung sich schon eine ganze Weile abzeichnen (Übergang auf IP Infrastrukturen).



Antwort von domain:

Mit der DCT-Transformation ist es wohl endgültig vorbei, Wavelet macht das Rennen, wie aus folgendem interessanten Artikel hervorgeht:

https://www.ibc.org/download?ac=3823

Außerdem:
"... the JPEG XS codec maintains the initial quality and can thus be used for compressed workflows in broadcast and video production pipelines.
All other codecs show much stronger quality decay, causing that JPEG XS delivers the best quality from all codecs."




Antwort von WoWu:

Jedenfalls diese alte DCTDCT im Glossar erklärt ist weg vom Fenster.
H264 hatte ja schon eine andere.
Das war nur noch ProResProRes im Glossar erklärt von den derzeit so üblichen Codecs, das mit der ursprünglichen DCTDCT im Glossar erklärt gearbeitet hat, die auch in den alten JPEGs werkelt.
JPEG hatte ja schon in den "calls for paper" für H265 mit angeboten, könnte aber damals keine Echtzeitfunktionalität auf ihrer WDT darstellen.
Sonst hätten wir XS wahrscheinlich schon früher gehabt.

Wir werden sehn, wie sich das alles entwickelt.



Antwort von TheBubble:


Jedenfalls diese alte DCTDCT im Glossar erklärt ist weg vom Fenster.
H264 hatte ja schon eine andere.

Nicht grundsätzlich, es kommt immer auf die Anwendung an. H264 hat eine Integer-Approximation festgelegt, auch um die Akkumulation von Rundungsfehlern im Rahmen der temporalen KompressionKompression im Glossar erklärt zu vermeiden. Z.B. bei MPEG-2MPEG-2 im Glossar erklärt war das Problem dabei auch nie die DCTDCT im Glossar erklärt (II) selbst, sondern weil nie festgelegt wurde, wie Decoder (und Encoder) die Gleitkommaberechnungen durchzuführen hatten.

Bei Intraframe-Codecs spielt das nur eine viel geringere Rolle, da mit den Ergebnissen im Rahmen des Codecs nicht weitergearbeitet wird.

Eine DWT profitiert davon, auf viel größere Bereiche angewendet zu werden als die häufig genutzten 8x8 Blöcke. Klar könnte man auch auf viel größere Blöcke die DCTDCT im Glossar erklärt anwenden, aber der Rechenaufwand würde enorm steigen.

XS setzt vermutlich auf eine DWT, da man vor allem innerhalb der gleichen Zeile arbeiten will. Es soll ja für Live-Anwendungen geeignet sein, wo möglichst kurze Zeitverzögerungen gewünscht sind.



Antwort von mash_gh4:


Jedenfalls diese alte DCTDCT im Glossar erklärt ist weg vom Fenster.
H264 hatte ja schon eine andere.
Das war nur noch ProResProRes im Glossar erklärt von den derzeit so üblichen Codecs, das mit der ursprünglichen DCTDCT im Glossar erklärt gearbeitet hat, die auch in den alten JPEGs werkelt.

ich glaub, da freust du dich ein bisserl zu früh!

NDI, das ja vermutlich neben den unkomprimierten AVoIP varianten gegenwärtig den größten bzw. realistischsten marktanteil und ein erfreuliches wachstum unter den hier angesprochen studio-übertragunsglösungen verzeichnen dürfte, basiert auch wieder nur auf ausgesprochen einfachen techniken, die aber für diese einfachen broadcast-zweck ausreichen dürften. ich selbst war darüber richtig erstaunt, wie simple das technisch abgewickelt wird:

https://wiki.multimedia.cx/index.php/SpeedHQ

in der praxis scheint das aber trotzdem ganz gut zu funktionieren, so wie halt auch prores/dnxhr/hqx, obwohl sie technisch eigentlich alle heillos überholt sind, wie wir alle wissen.



Antwort von WoWu:

Das ist richtig, deswegen hatte ich oben auch "derzeit so übliche" geschrieben.
Dass es immernoch Exoten gibt, die darauf aufsetzen, wird sich wohl auch nicht ändern ... und es ist ja auch nicht so, dass solche Bilder unbrauchbar wären.
Hat man ja bei den ganzen MPEGMPEG im Glossar erklärt 2 Verfahren und auch bei PR gesehen.
Es ist nur eben so, dass sich Anforderungen ändern und alte Verfahren häufig solchen Anforderungen im direkten Vergleich nicht mehr Stand halten.
Aber den Fehlern solcher Verfahren wird wohl keiner hinterher weinen.
Aber neue (andere) Verfahren sind nun mal auch nicht fehlerfrei. Wenn ich aber damit weiterreichende Anforderungen begegnen kann, ist das wenigstens ein Schritt nach vorn.



Antwort von Jott:

ProRes ist weg vom Fenster. Arri ist tot. Externe Recorder sind ebenso tot wie ihre Hersteller. Weltweiter Stillstand in der gesamten Film- und TV-Branche. An Tausenden von Highend-Projekten kann nicht weiter gearbeitet werden. Armageddon! :-)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Fraunhofer Institut zeigt 50% besseren HEVC Nachfolger VVC auf der // IBC 2018
NHK zeigt 8K Kamera mit 240fps auf der // NAB 2018
Fraunhofer HHI zeigt 3D UHD Panorama-Kamera Omnicam-360 // NAB 2016
AJA zeigt 8K Workflows per FS-HDR und KONA 5 auf der Inter BEE 2018
Syrp zeigt Genie II und Magic Carpet Pro auf der // NAB 2017
Einhandgimbals auf der NAB 2018
AJA demonstriert HDR Image Analyzer auf der // NAB 2018
Fraunhofer Institut zeigt HEVC/VR DASH Streaming per Videokacheln // CES 20
AJA zeigt KUMO 3232-12G, KONA HDMI und mehr // NAB 2018
Erste CFexpress-Karte mit 1TB und 1.400 MB/s von ProGrade // NAB 2018
Fraunhofer IIS zeigt Lichtfeld Plugins und Multi-Kamera-System HIGGS // IBC
Canon auf der NAB 2018: Canon EOS C100 MKIII vs Vollformat Spiegellose ?
Erste ProRes RAW-Recoder durch Update von Atomos Shogun und Sumo 19 // NAB 2018
Der erste Kino-Film, der auf einem Handy gedreht wurde: Tangerine L.A.
RAWs der GH3 auf eine Bildgröße von 2MP konvertieren & als JPEG abspeic
"Das vergessene deutsche Kino" - Filme aus der Weimarer Republik auf der Berlinale 2018
Was ist denn jetzt mit der neuen Pana auf der NAB?
Das Kollaborations-Tool Frame.io zeigt sich in Version 3.5 auf der // IBC 2019
Grass Valley EDIUS 9 - erste Einblicke auf der // IBC 2017
Hands-on mit dem neuen RED DSMC2 Side Handle auf der NAB 2016 // NAB 2016
Star Wars 8: Neues Video zeigt erste Bilder
Western Digital zeigt erste 1TB SDXC Karte // Photokina 2016
Sony zeigt erste 8K 3-Chip Kamera: UHC-8300 // IBC 2017
Nikon bucht Stand auf der NAB!
4k V i b r a t o r e n auf der NAB Anfang April 2015?
Zoom F6 auf der NAB: Pegeln war gestern!

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
19. Oktober / Nürnberg
Die Lange Nacht der Wissenschaften
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
alle Termine und Einreichfristen