Newsmeldung von slashCAM:Nicht nur bei Sony fiel der Buzz-Satz in einer Vorabpräsentation der CES-Consumer Camcorder 2016, auch AMD hat...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
AMD: 10 Bit für HDR und alle...// CES 2016
Antwort von CameraRick:
Wow, AMD hat es geschafft. Sie werden wieder, wenn auch nur langsam, wieder interessant.
Wenn jetzt in 2016 noch eine gescheite Unterstützung der Hardware dazu kommt, würde ich umsteigen.
Antwort von Chainshot:
Nvidia make your move!
Kein Marken gehype aber sowas darf man sich echt wünschen... Konsumer machens möglich. :)
Antwort von j.t.jefferson:
Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
Antwort von mash_gh4:
Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
h.265
prinzipell geht es auch schon mit h.264. da aber x264 für die 10bit benutzung anders kompiliert werden muss bzw. immer unterschiedliche varianten für 8 und 10bit genutzt werden müssen, aber auch die meisten anderen gängigen hard- und softwareösungen fast durchgängig damit nicht klar kommen, gibt's damit in der praxis nichts als probleme. erst mit h.265 zeichnet sich eine änderung ab. intel hat bspw. für die nächste prozessoren-generation auch bereits 10bit hardwareunterstützung für h.256 angekündigt.
Antwort von thsbln:
Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
DNXHD, ProRes, Grass Valley HQX
Antwort von Christian Schmitt:
Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
DNXHD, ProRes, Grass Valley HQX
"für den Consumer"...
Antwort von srone:
Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
DNXHD, ProRes, Grass Valley HQX
"für den Consumer"...
fallende ssd preise, bei gleichzeitig steigenden kapazitäten, erleben wir jeden tag, 4k 10bit 4:2:2 in 5mbit, sind dann wohl auch keine lösung. ;-)
lg
srone
Antwort von WoWu:
Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
H.264 und H.265 können es beide.
AVC-I ist ein reines H.264 Format auch die XAVC Codecs sind auf H.264 basiert und vermutlich wird kaum ein Hersteller HEVC (H.265) allein als 8Bit mehr implementieren.
Antwort von maxx miliano:
Wahnsinn! 2016 und schon erleben wir den kastrierten 10 Bit-pfad..
Immerhin, mir ist des egal und interessiert diese rumlaborieren an der
is es 10 bit is es net, nicht. Das ist so als würdest net beim Arzt sitzen
( 2016, womögl. ein Uniklinik) sondern beim Bader, der dir empfohlen hat,
dass 3 Gebete und ein halber Ochse ins Kloster, dir helfen möge..
Denen steh des Wasser bereits übern"Arsch!
2020 kauft keiner nix nirgends mehr Kamera-Pc-und den ganzen Schnockes.
Ein 12 Core Smartphone mit alles in der Kiste drin...um 19,90.-!!!
Das man 2016 überhaupt spricht nun 10 bit langsam...
Arschgeigen! Und solange du Foren hast wo dann weiter 24 Monate rumeiern, sehn die Hersteller, ja wir könne die Verarsche llongiert bis zum
nächsten..
SONY IST SO EIN EPIC FAIL... A7 um 3500 kann INTERN sauber 10bit.
oder die Gurke koste 699,- okay. ende.
Und nix wir reichen nach, am ersten tag oder ich zahle nix für Kiste, weil es
eine technische Werbe/Probefahrt ist und kommt die Nachfolgerin gebe ich
den unfertigen Schmarrn zurück und bekomme die Nächste!
Wh. sind schon einige FAILS weg.
egal... die leben echt in einer Parallelwelt, dort ist erst 2007 oder so...
Antwort von Funless:
Also maxx, der Charme deiner drogenindizierten Offenheit kennt wahrlich keine Grenzen. :)
Antwort von enilnacs:
10bit FÜR(!) HDR... ok. Nur sollten die bloss nicht 10bit MIT(!) HDR verwechseln. Da muss es vom Content bis zum LCD/OLED ALLES passen.
Aber ich sehe schon die ersten Marketingslogans: HyperultraHDR AMD GPU mit 10 bit, "macht ihre Spiele NOCH realer"** Und der Ottonormalo schliesst es an einem billigen 100 Euro sRGB LCD :-) und stauuuuuuuuuunt :-D
in 3 punkt Schrift unten hellgrau auf dunkelgrau ;-) (falls überhaupt):
**10 bit HDR nur mit einem HDR fähigen Monitor und HDR Inhalte***
***Inhalte erst ab ca. 2018 verfügbar auf Superxhdrmegatollhaha.com mit folgendem passwort: 1337supermegaGEILhdr
Prooooost!
LOL :-D
Antwort von Taunus:
Wahnsinn! 2016 und schon erleben wir den kastrierten 10 Bit-pfad..
Immerhin, mir ist des egal und interessiert diese rumlaborieren an der
is es 10 bit is es net, nicht. Das ist so als würdest net beim Arzt sitzen
( 2016, womögl. ein Uniklinik) sondern beim Bader, der dir empfohlen hat,
dass 3 Gebete und ein halber Ochse ins Kloster, dir helfen möge..
Denen steh des Wasser bereits übern"Arsch!
2020 kauft keiner nix nirgends mehr Kamera-Pc-und den ganzen Schnockes.
Ein 12 Core Smartphone mit alles in der Kiste drin...um 19,90.-!!!
Das man 2016 überhaupt spricht nun 10 bit langsam...
Arschgeigen! Und solange du Foren hast wo dann weiter 24 Monate rumeiern, sehn die Hersteller, ja wir könne die Verarsche llongiert bis zum
nächsten..
SONY IST SO EIN EPIC FAIL... A7 um 3500 kann INTERN sauber 10bit.
oder die Gurke koste 699,- okay. ende.
Und nix wir reichen nach, am ersten tag oder ich zahle nix für Kiste, weil es
eine technische Werbe/Probefahrt ist und kommt die Nachfolgerin gebe ich
den unfertigen Schmarrn zurück und bekomme die Nächste!
Wh. sind schon einige FAILS weg.
egal... die leben echt in einer Parallelwelt, dort ist erst 2007 oder so...
Kann dieser Typ auch einen Satz in Deutsch verfassen ??
Dass diesen Mist kein Mensch interessiert scheint ihm wohl nicht klar zu sein.
Antwort von SirRollingVonShutter:
Das ist schon seit dritter Account, keine Ahnung was das soll. Neuer Account und es ist sofort ersichtlich welcher Dusselkopf dahintersteckt.
Antwort von CameraRick:
10bit FÜR(!) HDR... ok. Nur sollten die bloss nicht 10bit MIT(!) HDR verwechseln. Da muss es vom Content bis zum LCD/OLED ALLES passen.
Aber ich sehe schon die ersten Marketingslogans: HyperultraHDR AMD GPU mit 10 bit, "macht ihre Spiele NOCH realer"** Und der Ottonormalo schliesst es an einem billigen 100 Euro sRGB LCD :-) und stauuuuuuuuuunt :-D
in 3 punkt Schrift unten hellgrau auf dunkelgrau ;-) (falls überhaupt):
**10 bit HDR nur mit einem HDR fähigen Monitor und HDR Inhalte***
***Inhalte erst ab ca. 2018 verfügbar auf Superxhdrmegatollhaha.com mit folgendem passwort: 1337supermegaGEILhdr
Prooooost!
LOL :-D
Da schätzt Du die Leute glaube ich ein wenig falsch ein. Die haben doch auch schon mit den 144Hz Monitoren etc alles mitgemacht, da wird es keinen wundern dass man einen HDR-fähigen Monitor braucht.
Die Inhalte produziert Amazon angeblich ja schon, und die Videospielhersteller sind vermutlich mit einem Patch früher fertig, als es die Dinger gibt. Oder zumindest zeitnah.
Es doch toll, wenn an der Stelle endlich mal was voran geht - aber sich drüber zu beömmeln macht natürlich mehr Spaß
Antwort von WoWu:
Den 10 Bit ist das sowieso egal, welche Übertagungsfunktion man darin überträgt.
Antwort von srone:
Den 10 Bit ist das sowieso egal, welche Übertagungsfunktion man darin überträgt.
Sag sowas nicht, das bringt uns nur wieder in teufels küche, da kommt doch bestimmt wieder einer, der mit extremmaterial bemängelt, daß es nicht wie raw aussieht ;-)
lg
srone
Antwort von merlinmage:
Wäre nur mal schön wenn Nvidia da offiziell mit draufspringt, ob jeder das jetzt braucht ist verhandelbar, aber "nice to have" ist es mit den richtigen Displays allemal ;)
Antwort von mash_gh4:
Wäre nur mal schön wenn Nvidia da offiziell mit draufspringt, ob jeder das jetzt braucht ist verhandelbar, aber "nice to have" ist es mit den richtigen Displays allemal ;)
unter linux können auch die billigen gtx katen schon lange 10bit ausgeben.
es ist nur eine frage der treiber bzw. ungustiöser firmenpolitik, dass das unter windows nicht funktioniert.
das selbe gilt übrigens auch für das durchreichen an virtuelle maschinen, wo man mit freier software halt extra bestimmte vorkehrungen zur verfügung gestellt bekommt, damit die nvida-treiber nicht erkennen können, in welcher umgebung sie laufen.
Antwort von merlinmage:
Gab ja unter Windows auch mal eine Zeit wo 10bit Output drin war, keine Ahnung ob die es wieder rausgeworfen haben. Da der Ref Monitor sowieso über ne AJA läuft ist mir 10Bit Ausgabe auf den Arbeitsmonitoren relativ latte. ;)
Antwort von mash_gh4:
ein ganz spannender beitrag zum aktuellen stand der dinge in puncto 10bit unterstützung bzw. performance in gebräuchlichen werkzeugen, ist mir unlängst einmal untergekommen:
http://www.obe.tv/about-us/obe-blog/ite ... onversions
Antwort von CameraRick:
Gab ja unter Windows auch mal eine Zeit wo 10bit Output drin war, keine Ahnung ob die es wieder rausgeworfen haben. Da der Ref Monitor sowieso über ne AJA läuft ist mir 10Bit Ausgabe auf den Arbeitsmonitoren relativ latte. ;)
Das sagt nVidia zum Thema:
http://nvidia.custhelp.com/app/answers/ ... force-gpus
In DirectX Vollbildanwendungen geht es. Wie ist das bei Linux, geht es da richtig oder munkelt man da nur? Im nVidia Treiber kann ich das locker flockig auf 10bit stellen, ist kein Thema, schade nur wenn es nicht ankommt :o)
Antwort von mash_gh4:
Wie ist das bei Linux, geht es da richtig oder munkelt man da nur?
nachdem ich mich selber noch immer mit recht durchschnittlichen 8bit displays begnüge, kann ich es dir leider nicht aus eigener erfahrung bestätigen. aber nach allem, was mir dazu bisher im netz so nebenbei untergekommen ist, dürfe es tatsächlich der fall sein. und zwar mit dem ganz normalen closed source treiber von nvidia. übertragung per display port ist natürlich auch voraussetzung.
edit: hier noch die betreffende stelle aus der nvidia linux treiber doku:
ftp://download.nvidia.com/XFree86/Linux ... pth30.html