Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Neuer LG 4K Monitor LG 32UL99-W / LG32UD99-W



Frage von rdcl:


Könnte evtl. für einige interessant sein: Demnächst soll der LG UL950-W in Deutschland auf den Markt kommen. Hier ien Link dazu: https://www.lg.com/de/monitore/lg-32UL950-W
Der Monitor verwendet eine neue Paneltechnologie, die LG "Nano IPS" nennt und wohl für eine gleichmäßigere Ausleuchtung sorgen soll. Laut LG deckt der Monitor 135% sRGB und 98% DCI-P3 ab und kommt mit HDR600. Preis liegt auf Amazon gerade bei 1.260€, ist aber dort nicht lieferbar.
Ich habe gerade mit LG gechattet, da hat man mir gesagt dass der Monitor 3D LUTs untestützt und noch im ersten Quartal 2019 erhältlich sein soll. Der Kollege konntem mir nur nicht genau sagen ob der Monitor nativ 24p / 25p unterstützt. Die Angabe war nur bis max. 60Hz. Ich warte aber jetzt schon seit 3 Wochen auf ein Austauschgerät für den LG32UD99-W, dann kann ich mal testen ob der mit der Blackmagic Intensity Pro 4K funktioniert.

Space


Antwort von klusterdegenerierung:

Es gibt ihn ja auch in kleiner und darüber habe ich mich ja hier schon mal ausgelassen.
Viele enttäuschte Besitzer weil das Panel das Gegenteil von hochwertig ist.
"https"://www.amazon.de/LG-Products-27UK650-W-Mon ... s=lg+27+4k

Flecken & keine hoche Farbtreue sind nur 2 Dinge die man dazu immer wieder ließt.
Ich hatte ihn schon fasst bestellt und bin froh das ich es gelassen hab.
Das hat mit professionell nicht viel zu tun, das ist allemalle ein netter Office bis Gamermoni, mehr darf man da nicht erwarten.

Ich habe dort wie gesagt auch den Tip für BenQ bekommen und mir diesen gekauft und bin so froh darüber, denn das ist in Bezug auf den Preis echt das beste was ich je hatte, kann ich nur wärmstens empfehlen!! 10Bit kann ich hier natürlich auch einstellen, auch wenn es mit einer Intensity natürlich mehr Sinn machen würde.

https://www.benq.eu/de-de/monitor/business/bl2711u.html

Space


Antwort von rdcl:

Der verlinkte LG monitor ist über 1 Jahr alt und hat somit auch kein Nano-IPS Panel. Der unterstützt auch keine Hardware-Kalibrierung. Dieses Modell war nie das "Flagschiff" von LG und wurde auch nicht mit besonders großer Farbtreue beworben, was man z.B. auch daran sieht dass LG kein Zertifkat für die Kalibrierung beilegt. Wie es mit dem neuen Panel ausschaut muss man abwarten. Ich habe wie gesagt den 32UD99-W getestet, der hat mir schon extrem gut gefallen. Ist quasi der Vorgänger von dem neuen, aber auch noch ohne Nano-IPS.

BenQ habe ich mir heute auch angeschaut, da wäre dieser hier evtl. interessant: https://www.benq.com/en/monitor/video-p ... 200pt.html

Space


Antwort von klusterdegenerierung:

Cool wäre wenn Du beide testen könntest, aber wenn ich sehe wie gut meiner für 400€ (einführungspreis 800€) schon ist, dann würde ich dem PV3200PT eine extrem gute Leistung zutrauen. Grundsätzlich denke ich das die Benqs in der hinsicht auf jeden Fall professioneller aufgestellt sind.

Mich würde das Thema weiterhin interessieren und ich würde es begrüßen wenn Du dazu weiter schreibst.
Auf jeden Fall bin ich so positiv überrascht, das ich mir einen zweiten bestellen wollte, denn das ist dann richtig nett. :-)

Bin gespannt, berichte ruhig und teste den PV3200PT auf jeden Fall! :-)

Space


Antwort von rdcl:

klusterdegenerierung hat geschrieben:
Cool wäre wenn Du beide testen könntest, aber wenn ich sehe wie gut meiner für 400€ (einführungspreis 800€) schon ist, dann würde ich dem PV3200PT eine extrem gute Leistung zutrauen. Grundsätzlich denke ich das die Benqs in der hinsicht auf jeden Fall professioneller aufgestellt sind.

Mich würde das Thema weiterhin interessieren und ich würde es begrüßen wenn Du dazu weiter schreibst.
Auf jeden Fall bin ich so positiv überrascht, das ich mir einen zweiten bestellen wollte, denn das ist dann richtig nett. :-)

Bin gespannt, berichte ruhig und teste den PV3200PT auf jeden Fall! :-)
Ich muss dich leider enttäuschen. Ich werde nicht beide bestellen. Und ich habe auch leider keine Möglichkeit einen Monitor wirklich zu testen, im Sinne von aussagekräftigen Messungen oder ähnlichem. Ich traue LG allerdings schon einiges zu. Die Oberklasse-Monitore von denen sind eigentlich immer ziemlich beeindruckend, wie gesagt auch mit 3D Lut und externer Hardwarekalbirierung. Der LG C8 und C9 OLED hängt ja auch in einigen Grading Suiten habe ich mir sagen lassen, bzw. wird oft empfohlen wenn man den Platz für 55" hat.

Eigentlich warte ich ja auf den Eizo CG279X, aber der ist immernoch nicht verfügbar. Und 4K für die Hälfte des Preises sind natürlich auch toll, vorausgesetzt die Farbe stimmt.

Space


Antwort von klusterdegenerierung:

Ist ja auch nicht zwingend erforderlich, manchmal reicht ja auch schon ein Blick bei einem Fachhändler oder jemand von dem Du weißt das er so einen hat, mir wäre bei dem Preis die Katze im Sack zumindest zu teuer.

Space


Antwort von rdcl:

Kurzes Update: Ich habe gestern den LG 32UD99-W wieder bekommen und habe mich heute ans Kalibrieren gemacht.
Kalibriert habe ich mit Xrite iDisplay Pro, einmal mit der iProfiler Software von Xrite selbst und einmal mit der True Color Pro Software von LG, die dann alle Einstellungen direkt am Monitor selbst vornimmt.
Beide Programme waren pain in the ass zum installieren, aus diversen Gründen. Falls es jemanden interessiert kann ich das auch näher ausführen.

Hier sind die Ergebnisse:

LG True Color Pro:
LG_Cal.jpg Uniformity (gemessen mit iProfiler):
Uniformity_LG.jpg Xrite iProfiler:
XRITE_cal.jpg XRITE_cal_2.jpg Uniformity:
Uniformity_XRITE.jpg Ich habe auch die Kalibrierungsberichte mit allen Daten gespeichert, falls die jemand sehen möchte kann ich die gerne hochladen. Gleiches gilt für die Settings für die Kalibrierung. Wenn es wen interessiert, einfach fragen. Insgesamt hat der Monitor nach der Kalibrierung bei beiden Programmen ein Delta E unter 1.

Wie man an der uniformity sehen kann sind die Messungen jetzt nicht 1000% genau, da ich die Probe mit der Hand auf die verschiedenen Messpunkte gehalten habe. Mag sein dass ich da auch mal kurz gewackelt habe. Die Kalibrierung sollte an der uniformity ja eigentlich nicht großartig was ändern.

Weitere Infos: Der Monitor läuft mit 24 und 25p bis zu 60p, kann also mit Blackmagic oder anderen I/O Karten verwendet werden. Getestet mit Avid, Premiere, After Effects und Resolve. Über die True Color Pro Software wird die Kalibrierung direkt im Monitor gespeichert. Ich habe allerdings keine Möglichkeit gefunden andere Profile zu laden. Das heißt die XRite Kalibrierung ist jetzt lediglich ein angepasstes Setting im Monitor.

Der subjektive Eindruck:
Ich bin zufrieden. Momentan steigt der Monitor glaube ich im Preis, evtl. weil das Nachfolgemodell in den Startlöchern steht?! Ich habe 799€ bezahlt und dafür habe ich einen sehr akkuraten und schicken Monitor bekommen, was die Messwerte für mich auch belegen.

Ich meine einen Lichthof im rechten unteren Eck zu erkennen, ich bin da aber auch etwas empfindlich, bzw. fällt mir sowas schnell auf. ABER: Die Ausleuchtung ist gleichwertig, wenn nicht sogar besser, als bei den Eizos auf denen ich auch oft in Agenturen arbeite. Auch die sind nicht 100% homogen, und ich persönlich kann damit Leben.

Ein weitere Aspekt: ich war mir nicht sicher ob es Sinn macht, einen 4K Monitor als Vorschaumonitor zu benutzen, wenn 90% meiner Projekte in HD kommen. Die Bedenken kann ich ausräumen, HD Content, z.B. aus dem Avid sieht super aus auf dem Monitor, auch Grafiken werden schön scharf hochskaliert. Mein Tisch ist allerdings auch recht tief, ich sitze nicht mit der Nase vor dem Ding. Und für Projekte die in 4K kommen ist einfach nur ein Traum, auch wenn der Monitor natürlich nur UHD Auflösung hat. Bei mir sieht es im Moment so aus:
20190123_182711.jpg Alles in allem bin ich also super happy, falls jemand Fragen hat, gerne her damit. Wie gesagt, der Nachfolger soll im ersten Quartal noch rauskommen und hat dann das neue Nano IPS Panel, dass einen besseren Schwarzwert und eine noch bessere Homogenität haben soll.

Cheers

Space


Antwort von Huitzilopochtli:

warum, um himmels willen, kalibrierst du nicht mit display cal?

Space


Antwort von cantsin:

Huitzilopochtli hat geschrieben:
warum, um himmels willen, kalibrierst du nicht mit display cal?
Wenn ich das richtig verstehe, hat der Monitor Hardware-Kalibrierung.

Space



Space


Antwort von Huitzilopochtli:

true color pro von lg kannst du getrost in die tonne treten. dann lieber software-kalibrierung.

Space


Antwort von rdcl:

Huitzilopochtli hat geschrieben:
warum, um himmels willen, kalibrierst du nicht mit display cal?
Gute Frage... die LG Software weil die eben direkt mit dem Monitor kommuniziert und die Kalibrierung im Monitor speichert. Und Xrite weil die Probe von Xrite ist.

Ist da so ein großer Unterschied zu erwarten?

Die Probe ist leider nur gemietet und muss morgen um 10 zurück. Ich weiß nicht ob ich da noch einen Test mit DisplayCal schaffe.

Space


Antwort von rdcl:

Huitzilopochtli hat geschrieben:
true color pro von lg kannst du getrost in die tonne treten. dann lieber software-kalibrierung.
Ich hab die Kalibrierung von True Color Pro im Monitor gespeichert, benutze aber im Moment die von Xrite. Es ist ja auch keine Software Kalibrierung, man muss die Parameter halt nur selbst am Monitor einstellen.

Space


Antwort von Huitzilopochtli:

am mac habe ich sie nur ganz kompliziert zum laufen gebracht, bzw. ab high sierra gar nicht mehr. der support war grottig, die ergebnisse mies.

ich würde mich eingehend mit display cal befassen. perfekter support, kostenlos und sowas von umfangreich (dass es einen vermutlich erstmal umhaut; aber die nacht ist ja noch jung ;)

viel wichtiger als die kalibrierung scheint mir ohnehin die profilierung zu sein.

Space


Antwort von klusterdegenerierung:

Danke für den ausführlichen Bericht!
Wie hast Du das Setup denn nun angeklemmt, bzw was hast Du für eine hardware das Du ihn bei Resolve als Vorschaumoni ans laufen bekommst?

Space


Antwort von rdcl:

klusterdegenerierung hat geschrieben:
Danke für den ausführlichen Bericht!
Wie hast Du das Setup denn nun angeklemmt, bzw was hast Du für eine hardware das Du ihn bei Resolve als Vorschaumoni ans laufen bekommst?
Die beiden 27er Monitore hängen an einer GTX1080ti und der 32er an einer Blackmagic Intensity Pro 4K.

Space


Antwort von klusterdegenerierung:

Jetzt habe ich da mal ein paar Fragen!
Da ich ja von Nvidia komme und mich nicht mit den Intensity karten auskenne, muß ich jetzt mal fragen, hast Du da über HDMI überhaupt 10Bit vom Moni anliegen, denn via Nvidia geht das ja nur über Displayport?

Desweiteren ist es ja eine mini PCI Karte, wie ist es denn dann um Deinen PCI Bus gestellt, macht der jetzt mit der 1080 noch 16x, oder hast Du ein Board mit 4x 16 PCI, denn 2x reicht ja nicht?

Hast Du nun true 10 Bit und kannst Du diese dann in Resolve auch vom üblichen 8Bit differenzieren?
Was hast Du für die Karte bezahlt wenn ich fragen darf und bekommst Du sie mit der Nvidia einigermaßen gut gemached?

Space


Antwort von Sammy D:

Huitzilopochtli hat geschrieben:
am mac habe ich sie nur ganz kompliziert zum laufen gebracht, bzw. ab high sierra gar nicht mehr. der support war grottig, die ergebnisse mies.

ich würde mich eingehend mit display cal befassen. perfekter support, kostenlos und sowas von umfangreich (dass es einen vermutlich erstmal umhaut; aber die nacht ist ja noch jung ;)

viel wichtiger als die kalibrierung scheint mir ohnehin die profilierung zu sein.
Wenn du den Monitor ueber eine Videokarte betreiben willst, bleibt dir beim LG nichts anderes uebrig als TrueColorPro, da keine andere Software (meines Wissens nach) den Monitor ansprechen kann. Ein Profil kannst du da nicht laden.

Aber du hast recht, der Support von LG ist mies. Updates fuer ein neues OS gibts immer erst mit fast einem Jahr Verzoegerung.

Space


Antwort von rdcl:

klusterdegenerierung hat geschrieben:
Jetzt habe ich da mal ein paar Fragen!
Da ich ja von Nvidia komme und mich nicht mit den Intensity karten auskenne, muß ich jetzt mal fragen, hast Du da über HDMI überhaupt 10Bit vom Moni anliegen, denn via Nvidia geht das ja nur über Displayport?

Desweiteren ist es ja eine mini PCI Karte, wie ist es denn dann um Deinen PCI Bus gestellt, macht der jetzt mit der 1080 noch 16x, oder hast Du ein Board mit 4x 16 PCI, denn 2x reicht ja nicht?

Hast Du nun true 10 Bit und kannst Du diese dann in Resolve auch vom üblichen 8Bit differenzieren?
Was hast Du für die Karte bezahlt wenn ich fragen darf und bekommst Du sie mit der Nvidia einigermaßen gut gemached?
Also: Ob Nvidia wirklich 10 Bit ausgibt kann ich nicht genau sagen. Wenn man in der Nvidia Systemsteuetung von RGB auf z.B. YUV422 (glaube es geht auch mit 444) umstellt, wird zumindest bei mir 10 Bit als Einstellung angegeben. Angeschlossen sind die mit HDMI-Kabeln vom Monitor weg und HDMI zu Displayport Adaptern an der Grafikkarte. Ich weiß gerade ehrlich gesagt garnicht auswendig warum. Wahrscheinlich hat die Karte 3x DP und nur 1x HDMI.
Das ist für mich aber auch uninteressant, weil die 27er ja beides GUI-Monitore sind. Da brauche ich ja kein 10bit. Ich habe trotzdem alle 3 kalibriert und habe von den kleinen zum großen in einer grünen Fläche einen Unterschied gesehen, was ist nicht so ganz nachvollziehen kann, da ja alle 3 gleich kalibriert wurden. Das war aber mehr zufällig, ich habe da nicht genau drauf geachtet dass alle 3 matchen weil es ja nicht so wichtig ist. Ich werde mir das morgen nochmal anschauen.

Mein Mainboard ist ein ASUS x299 TUF Mark1 mit 2x16 und 1x8 PCIe. In der Kombi läuft die GraKa mit 16 und die BM mit 8 wenn ich das richtig sehe.

Die BM Intensity Pro gibt 10bit aus, das LG Panel dürfte 10bit (8 + frc) sein, also kein "echtes" 10bit Panel. Da bin Ich mir aber garnicht sicher. Ob man da einen Unterschied sieht kann man wahrscheinlich jahrelang diskutieren. Die Karte bekommt man für 200€.

Space



Space


Antwort von rdcl:

Ich habe gerade mal meinen Monitor hier zu Hause (auch LG aber schon wesentlich älter, 8bit IPS) zuerst mit iProfiler und dann mit DisplayCal kalibriert. Da war kein Unterschied.

Space


Antwort von klusterdegenerierung:

Im Nvidia Panel kann man es hier einstellen: Screenshot.
Das wird dann auch von Win10 erkannt und so akzeptiert, wo es aber zur Anwendung kommt kann ich nicht sagen, sehe keinen Unterschied bis auf die brillianz des Monis selbst.

Das ganze funktioniert aber nur via Displayport, klemmt man ihn über HDMI an, bekomme ich keine 10Bit Option mehr, deswegen war ich skeptisch ob Du auch 10Bit an HDMI hast, bei Cams bekommt man das ja auch nicht, oder?

Space


Antwort von rdcl:

klusterdegenerierung hat geschrieben:
Im Nvidia Panel kann man es hier einstellen: Screenshot.
Das wird dann auch von Win10 erkannt und so akzeptiert, wo es aber zur Anwendung kommt kann ich nicht sagen, sehe keinen Unterschied bis auf die brillianz des Monis selbst.

Das ganze funktioniert aber nur via Displayport, klemmt man ihn über HDMI an, bekomme ich keine 10Bit Option mehr, deswegen war ich skeptisch ob Du auch 10Bit an HDMI hast, bei Cams bekommt man das ja auch nicht, oder?
Mir fällt gerade ein dass die 27er ja gar keine 10bit Monitore sind. Also eher nein, kein 10bit bei denen :)

Space


Antwort von rdcl:

rdcl hat geschrieben:
klusterdegenerierung hat geschrieben:
Im Nvidia Panel kann man es hier einstellen: Screenshot.
Das wird dann auch von Win10 erkannt und so akzeptiert, wo es aber zur Anwendung kommt kann ich nicht sagen, sehe keinen Unterschied bis auf die brillianz des Monis selbst.

Das ganze funktioniert aber nur via Displayport, klemmt man ihn über HDMI an, bekomme ich keine 10Bit Option mehr, deswegen war ich skeptisch ob Du auch 10Bit an HDMI hast, bei Cams bekommt man das ja auch nicht, oder?
Mir fällt gerade ein dass die 27er ja gar keine 10bit Monitore sind. Also eher nein, kein 10bit bei denen :)


Space


Antwort von klusterdegenerierung:

Aber wir reden doch überhaupt nicht von Deinen 27ern, Du hast Doch hier Deinen 32er zur Diskussion gestellt!
Ich habe das alles nur deswegen geschrieben, weil die Intesity nur HDMI out hat!

Space


Antwort von rdcl:

klusterdegenerierung hat geschrieben:
Aber wir reden doch überhaupt nicht von Deinen 27ern, Du hast Doch hier Deinen 32er zur Diskussion gestellt!
Ich habe das alles nur deswegen geschrieben, weil die Intesity nur HDMI out hat!
Achso, ich dachte du hättest gefragt ob Nvidia 10 bit ausgibt.
Also der 32er hat natürlich 10bit und bekommt von der BM auch 10bit über HDMI

Space


Antwort von klusterdegenerierung:

rdcl hat geschrieben:
Achso, ich dachte du hättest gefragt ob Nvidia 10 bit ausgibt.
Also der 32er hat natürlich 10bit und bekommt von der BM auch 10bit über HDMI
Das Nvidia 10Bit zumindest annimmt sieht man ja im Panel, aber eben nicht über HDMI, deswegen meine Frage ob Du überhaupt 10Bit aus HDMI bekommst.

Aber Du kannst ihn nicht Software kalibrieren über die Karte, habe ich das richtig verstanden?
Das heißt ich wäre auf die hardware profile im Display oder auf eine hardware kalibrierung angewiesen?

Space


Antwort von rdcl:

klusterdegenerierung hat geschrieben:
rdcl hat geschrieben:
Achso, ich dachte du hättest gefragt ob Nvidia 10 bit ausgibt.
Also der 32er hat natürlich 10bit und bekommt von der BM auch 10bit über HDMI
Das Nvidia 10Bit zumindest annimmt sieht man ja im Panel, aber eben nicht über HDMI, deswegen meine Frage ob Du überhaupt 10Bit aus HDMI bekommst.

Aber Du kannst ihn nicht Software kalibrieren über die Karte, habe ich das richtig verstanden?
Das heißt ich wäre auf die hardware profile im Display oder auf eine hardware kalibrierung angewiesen?
Ah, jetzt verstehe ich glaube ich.
Zum Kalibrieren hing der Monitor an der Nvidia. Das geht.nicht anders, weil die Blackmagic ja keinen "Desktop" ausgibt. Man kann die Kalibrierung also nicht über die BM laufen lassen.
Ob der Monitor an der Nvidia auf 10bit gestellt warst gerade eine gute Frage.

Genau, du kannst entweder über die LG Software kalibrieren und gleichzeitig einstellen und speichern, oder über andere Software direkt am Monitor die Farben und Helligkeit einstellen bis die Software sagt es passt und dann beginnt die Kalibrierung. Das waren eigebtlich nur 1, 2 Prozentpunkte jeweils. Die Kalibrierung ist dann auch im Monitor gespeichert in dem Sinne dass du halt eins von den Presets änderst (custom). Die LG Software speichert das als preset Calibration 1 oder 2

Space


Antwort von Huitzilopochtli:

mit display cal kannst du auch über blackmagic karten profilieren. und vor allem eine richtige vorschau-lut erzeugen. davinci beherrscht leider kein colormanagement.

Space



Space


Antwort von rdcl:

Wie genau kann man mit DisplayCal über BM Karten Kalbirieren? Ich kann nur die beiden an der NVidia auswählen.

Space


Antwort von Huitzilopochtli:

https://hub.displaycal.net/wiki/3d-lut- ... r-resolve/

mag aber tatsächlich sein, dass die das mit deinem setup nichts bringt. ich war eben nur schwer enttäuscht von der hardwarekalibrierung meines lg monitors und hab mir geschworen beim nächsten mal gleich einen gescheiten vorschaumonitor von eizo zu holen.

Space


Antwort von rdcl:

Huitzilopochtli hat geschrieben:
https://hub.displaycal.net/wiki/3d-lut- ... r-resolve/

mag aber tatsächlich sein, dass die das mit deinem setup nichts bringt. ich war eben nur schwer enttäuscht von der hardwarekalibrierung meines lg monitors und hab mir geschworen beim nächsten mal gleich einen gescheiten vorschaumonitor von eizo zu holen.
Danke, ich habe es schon gefunden und die Kalibrierung läuft gerade.

Sehe ich das richtig dass DisplayCal dann eine Lut generiert, die ich dann immer in Resolve anwenden müsste?

Space


Antwort von Huitzilopochtli:

rdcl hat geschrieben:
Huitzilopochtli hat geschrieben:
https://hub.displaycal.net/wiki/3d-lut- ... r-resolve/

mag aber tatsächlich sein, dass die das mit deinem setup nichts bringt. ich war eben nur schwer enttäuscht von der hardwarekalibrierung meines lg monitors und hab mir geschworen beim nächsten mal gleich einen gescheiten vorschaumonitor von eizo zu holen.
Danke, ich habe es schon gefunden und die Kalibrierung läuft gerade.

Sehe ich das richtig dass DisplayCal dann eine Lut generiert, die ich dann immer in Resolve anwenden müsste?
ja, wenn du korrekte farben sehen möchtest. aber als vorschau-lut, nicht in irgend einer node.

Space


Antwort von rdcl:

Verstehe. Sehr nervig dass man über die LG Software keine LUTs laden kann.

Space


Antwort von Huitzilopochtli:

rdcl hat geschrieben:
Verstehe. Sehr nervig dass man über die LG Software keine LUTs laden kann.
weshalb? display cal funktioniert besser.

eine möglichkeit wäre es, dass du true tone die kalibrierung überlässt und über display cal nur profilierst. aber wie gesagt, ich fand true color pro eine zumutung, dass ichs gleich hab sein lassen.

Space


Antwort von Huitzilopochtli:

ich finds sehr nervig, dass immer noch nicht alle programme ein sauberes icc-colormanagement implementiert haben.

Space


Antwort von klusterdegenerierung:

Hm, hört sich alles nicht so berauschend an, vielleicht wärt ihr ja doch mit meinem Benq glücklicher geworden? ;-)

Space


Antwort von Huitzilopochtli:

ja, mit einem benq-monitor zeigt der quicktime-player auf einmal ein korrektes gamma an. aber nur bei benq. faszinierend.

Space



Space


Antwort von klusterdegenerierung:

Ich bin ja jetzt auch nicht der Monitor Experte, habe aber schon alle möglichen Fabrikate hier gehabt, inkl. 30°Apple Cinema und Dell etc. bis zu den billigsten, aber der Benq ist wenn man den Preis bedenkt die größte Überraschung die ich je hatte.

Noch nie hatte ich so ein homogenes Bild und noch nie konnte ich einen Moni so gut einmessen, selbt mit Benqs eigener Softwarelösung hatte ich in ein paar minuten ein perfektes Bild.

Was ich auch einen riesen Vorteil finde ist das er pivotfähig ist und das er nicht so brechenhässlich ist wie so manches Modell heutzutage. ;-) (Gamer)

Space


Antwort von rdcl:

Optimal wäre es wohl, ein LUT von DisplayCal in den Monitor zu laden, so dass man sich das Farbmanagement in den Progrmmen selbst sparen kann.

Ich hoffe ja persönlich dass die LG und die DisplayCal Kalibrierung gleich sind, weil die von LG ist ja im Monitor gespeichert.

@Kluster: Den LG kann man auch drehen

Space


Antwort von Huitzilopochtli:

rdcl hat geschrieben:
Optimal wäre es wohl, ein LUT von DisplayCal in den Monitor zu laden, so dass man sich das Farbmanagement in den Progrmmen selbst sparen kann.

Ich hoffe ja persönlich dass die LG und die DisplayCal Kalibrierung gleich sind, weil die von LG ist ja im Monitor gespeichert.
ich denke, du solltest dich nochmal eingehender mit kalibrierung und profilierung auseinandersetzen. das display cal forum ist wirklich sehr informativ. florian antwortet in der regel auch persönlich.

Space


Antwort von rdcl:

Huitzilopochtli hat geschrieben:
rdcl hat geschrieben:
Optimal wäre es wohl, ein LUT von DisplayCal in den Monitor zu laden, so dass man sich das Farbmanagement in den Progrmmen selbst sparen kann.

Ich hoffe ja persönlich dass die LG und die DisplayCal Kalibrierung gleich sind, weil die von LG ist ja im Monitor gespeichert.
ich denke, du solltest dich nochmal eingehender mit kalibrierung und profilierung auseinandersetzen. das display cal forum ist wirklich sehr informativ. florian antwortet in der regel auch persönlich.
Warum? Habe ich da einen Denkfehler?

Kalibrierung von Helligkeit, Weißpunkt und RGB in DisplayCal über die Regler vom Monitor selbst. Dann Profilierung und LUT erstellen, ebenfalls mit DisplayCal. Und könnte ich die LUT jetzt direkt im Monitor speichern, hätte ich in allen Programmen das korrekte Bild ohne dass ich die LUT noch extra im Farbmanagement der Software verwenden muss. Oder sehe ich das falsch?

Space


Antwort von Huitzilopochtli:

rdcl hat geschrieben:
Huitzilopochtli hat geschrieben:


ich denke, du solltest dich nochmal eingehender mit kalibrierung und profilierung auseinandersetzen. das display cal forum ist wirklich sehr informativ. florian antwortet in der regel auch persönlich.
Warum? Habe ich da einen Denkfehler?

Kalibrierung von Helligkeit, Weißpunkt und RGB in DisplayCal über die Regler vom Monitor selbst. Dann Profilierung und LUT erstellen, ebenfalls mit DisplayCal. Und könnte ich die LUT jetzt direkt im Monitor speichern, hätte ich in allen Programmen das korrekte Bild ohne dass ich die LUT noch extra im Farbmanagement der Software verwenden muss. Oder sehe ich das falsch?
einfach im display cal forum informieren. da bekommst du verlässliche informationen.

Space


Antwort von Sammy D:

rdcl hat geschrieben:
Huitzilopochtli hat geschrieben:


ich denke, du solltest dich nochmal eingehender mit kalibrierung und profilierung auseinandersetzen. das display cal forum ist wirklich sehr informativ. florian antwortet in der regel auch persönlich.
Warum? Habe ich da einen Denkfehler?

Kalibrierung von Helligkeit, Weißpunkt und RGB in DisplayCal über die Regler vom Monitor selbst. Dann Profilierung und LUT erstellen, ebenfalls mit DisplayCal. Und könnte ich die LUT jetzt direkt im Monitor speichern, hätte ich in allen Programmen das korrekte Bild ohne dass ich die LUT noch extra im Farbmanagement der Software verwenden muss. Oder sehe ich das falsch?
Da ist kein Denkfehler.
Du musst folglich in jedes Programm die von DisplayCal generierte LUT laden.

In Resolve geht das, in FCPX z.B. geht es meines Wissens nicht. Dort gibts nur die Camera LUT und Custom LUT, aber keine Moeglichkeit diese rein fuer das Monitoring ueber eine Videokarte anzuwenden. Die Videokarte kann das ColorManagement von macOS nicht ansprechen.

Space


Antwort von rdcl:

Ich habe eben nochmal mit dem LG Support gechattet, da hat der Kollege zumindest angedeutet das man wohl doch LUTs in den Monitor laden kann. Da der Fall aber doch etwas sehr speziell ist hat er mir eine Mailadresse gegeben an die ich mich wenden soll. Das habe ich jetzt getan. So komme ich also auch noch in den Genuss des LG Supoorts :D

Sobald ich etwas von LG höre melde ich mich hier wieder.

Space


Antwort von rdcl:

Ich habe eben eine Antwort von LG bekommen. Leider gibt keine Möglichkeit LUTs in den Monitor zu laden. Die beste Möglichkeit im Moment ist also die Kalibrierung und Profilierung über TCP vorzunehmen, wenn man das Farbmanagement nicht über die Software regeln möchte.

Ich habe LG in meiner Antwort freundlich ans Herz gelegt darüber nachzudenken so eine Funktion, falls technisch möglich, bei einem zukünftigen Update in TCP einzubauen, weil es ein riesiger Mehrwert wäre. Mal sehen... :)

Space


Antwort von rdcl:

Ich habe jetzt auch mal den BenQ Support angeschrieben und habe gefragt, ob man beim BenQ PV3200PT 3D LUTs uploaden kann. Laut einem Bericht von Lightillusion ist der einzige BenQ Monitor der das kann der PV270.

https://www.lightillusion.com/benq_manual.html

Aber da der PV3200PT quasi aus der gleichen Serie kommt wie der PV270 (PV3200PT = für Video, PV270 = für Foto), könnte es schon sein dass der PV3200PT das kann.

Space



Space


Antwort von rdcl:

So, ich habe gerade mit BenQ telefoniert und laut Aussage von dem Kollegen kann man auch beim BenQ PV3200PT keine LUTs oder ICC-Profile auswählen und hochladen. Die Hardware-Kalibrierung erfolgt ausschließlich über die BenQ Software. Also quasi genau das Gleiche wie beim dem LG Monitor. Die Frage wäre da jetzt natürlich wie genau die BenQ Software arbeitet und ob die, so wie DisplayCal über Resolve, den Monitor über eine I/O Karte ansteuern. Ich bezweifle es allerdings.

Space


Antwort von Huitzilopochtli:

wo genau liegt eigentlich gerade das problem?

Space


Antwort von rdcl:

Dass beide Monitore nur mit der hauseigenen Software die Kalibrierung bzw. Profilierung wirklich im Monitor speichern. Ein 3D Lut, dass ich z.B. mit DisplayCal erstellt habe, lässt sich nicht direkt im Monitor laden. Und Farbmanagement auf Softwareebene will ich umgehen.
Von meiner Alternative, dem Eizo CG279x, ist bis jetzt noch nicht viel zu sehen. Anfangs hieß es mal der kommt Anfang Dezember 2018, jetzt evtl. Ende Januar. Mal sehen...

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
Dass beide Monitore nur mit der hauseigenen Software die Kalibrierung bzw. Profilierung wirklich im Monitor speichern. Ein 3D Lut, dass ich z.B. mit DisplayCal erstellt habe, lässt sich nicht direkt im Monitor laden. Und Farbmanagement auf Softwareebene will ich umgehen.
Von meiner Alternative, dem Eizo CG279x, ist bis jetzt noch nicht viel zu sehen. Anfangs hieß es mal der kommt Anfang Dezember 2018, jetzt evtl. Ende Januar. Mal sehen...
Farbmanagent findet immer auf Softwareebene statt, wie soll sonst eine Umrechnung gehen.

Was hast du eigentlich vor?

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
rdcl hat geschrieben:
Dass beide Monitore nur mit der hauseigenen Software die Kalibrierung bzw. Profilierung wirklich im Monitor speichern. Ein 3D Lut, dass ich z.B. mit DisplayCal erstellt habe, lässt sich nicht direkt im Monitor laden. Und Farbmanagement auf Softwareebene will ich umgehen.
Von meiner Alternative, dem Eizo CG279x, ist bis jetzt noch nicht viel zu sehen. Anfangs hieß es mal der kommt Anfang Dezember 2018, jetzt evtl. Ende Januar. Mal sehen...
Farbmanagent findet immer auf Softwareebene statt, wie soll sonst eine Umrechnung gehen.

Was hast du eigentlich vor?
Bei einer Ausgabe über die BM Intensity Pro 4K findet kein Farbmanagement auf Softwareebene statt. Dafür soll die Profilierung ja im Monitor gespeichert werden und nicht als Lut in Resolve angewendet.
Was ich vorhabe ist eigentlich relativ simpel: Ich will auf einem vernünftig kalibrierten Monitor arbeiten.

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:

Farbmanagent findet immer auf Softwareebene statt, wie soll sonst eine Umrechnung gehen.

Was hast du eigentlich vor?
Bei einer Ausgabe über die BM Intensity Pro 4K findet kein Farbmanagement auf Softwareebene statt. Dafür soll die Profilierung ja im Monitor gespeichert werden und nicht als Lut in Resolve angewendet.
Was ich vorhabe ist eigentlich relativ simpel: Ich will auf einem vernünftig kalibrierten Monitor arbeiten.
Ich denke, mit Resolve und einer BM Karte hat man die Möglichkeit, seinen Monitor zu profilieren/kalibrieren?

Space


Antwort von Huitzilopochtli:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:

Farbmanagent findet immer auf Softwareebene statt, wie soll sonst eine Umrechnung gehen.

Was hast du eigentlich vor?
Bei einer Ausgabe über die BM Intensity Pro 4K findet kein Farbmanagement auf Softwareebene statt. Dafür soll die Profilierung ja im Monitor gespeichert werden und nicht als Lut in Resolve angewendet.
Was ich vorhabe ist eigentlich relativ simpel: Ich will auf einem vernünftig kalibrierten Monitor arbeiten.
Was stört dich an der Vorschau-Lut in Resolve? Ich würde mich eher bei Blackmagic beschweren, dass sie kein vernünftiges Farbmanagement unterstützen.

Space


Antwort von rdcl:

@ Dienstag: Die Kalibreirung über Resolve funktioniert nicht mit der LG Software. Ich nehme an für BenQ gilt das auch.

@ Huitzilopochtli: Ich will nicht in sämtlichen Programmen mit denen ich arbeite die LUT anwenden müssen. Ich bin mir auch garnicht sicher ob das bei allen geht.

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
@ Dienstag: Die Kalibreirung über Resolve funktioniert nicht mit der LG Software. Ich nehme an für BenQ gilt das auch.

@ Huitzilopochtli: Ich will nicht in sämtlichen Programmen mit denen ich arbeite die LUT anwenden müssen. Ich bin mir auch garnicht sicher ob das bei allen geht.
Ok, der Unterschied zwischen Profilierung und Kalibrierung ist dir schon klar? Was gibt die BM denn für Signale aus? Kann dein Monitor die?

Space



Space


Antwort von klusterdegenerierung:

Ah er hat ein neues Opfer gefunden, dabei ist ihm wohl entgangen das der To schon hinlänglich seine Erfahrung über profilieren und kalibrieren dargestellt hat und der Monitor schon lange via HDMI über die BMC Karte läuft, aber egal, erstmal Tür aufreissen Stühle an die Seite treten und nen lauten machen!

Space


Antwort von Huitzilopochtli:

rdcl hat geschrieben:
@ Dienstag: Die Kalibreirung über Resolve funktioniert nicht mit der LG Software. Ich nehme an für BenQ gilt das auch.

@ Huitzilopochtli: Ich will nicht in sämtlichen Programmen mit denen ich arbeite die LUT anwenden müssen. Ich bin mir auch garnicht sicher ob das bei allen geht.
wieviele programme für color correction verwendest du?

ich finde die vorschau-luts in davinci sehr praktisch. je nach farbraum (srgb, rec709etc.), wähle ich die entsprechende vorschau-lut und bekomme korrekte farben und das korrekte gamma angezeigt. eigentlich sehr komfortabel.

für photoshop oder capture one etc. benötigst du die lut nicht, bzw. würde sie falsche farben darstellen.

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
rdcl hat geschrieben:
@ Dienstag: Die Kalibreirung über Resolve funktioniert nicht mit der LG Software. Ich nehme an für BenQ gilt das auch.

@ Huitzilopochtli: Ich will nicht in sämtlichen Programmen mit denen ich arbeite die LUT anwenden müssen. Ich bin mir auch garnicht sicher ob das bei allen geht.
Ok, der Unterschied zwischen Profilierung und Kalibrierung ist dir schon klar? Was gibt die BM denn für Signale aus? Kann dein Monitor die?
Du könntest dir wenigstens die Mühe machen mal den Thread zu lesen.

Space


Antwort von rdcl:

Huitzilopochtli hat geschrieben:
rdcl hat geschrieben:
@ Dienstag: Die Kalibreirung über Resolve funktioniert nicht mit der LG Software. Ich nehme an für BenQ gilt das auch.

@ Huitzilopochtli: Ich will nicht in sämtlichen Programmen mit denen ich arbeite die LUT anwenden müssen. Ich bin mir auch garnicht sicher ob das bei allen geht.
wieviele programme für color correction verwendest du?

ich finde die vorschau-luts in davinci sehr praktisch. je nach farbraum (srgb, rec709etc.), wähle ich die entsprechende vorschau-lut und bekomme korrekte farben und das korrekte gamma angezeigt. eigentlich sehr komfortabel.

für photoshop oder capture one etc. benötigst du die lut nicht, bzw. würde sie falsche farben darstellen.
Resolve, After Effects, Premiere und Media Composer.

Space


Antwort von dienstag_01:

Normal geben I/O Karten in 709 aus. Und da gehört ein Monitor, der 709 kann ran. Ich wüsste nicht, wo da was umgerechnet werden müsste.

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
Normal geben I/O Karten in 709 aus. Und da gehört ein Monitor, der 709 kann ran. Ich wüsste nicht, wo da was umgerechnet werden müsste.
Ich hab ehrlich gesagt keine Ahnung was du mir sagen möchtest. Ich habe nirgendwo geschrieben das irgendetwas umgerechnet werden soll.

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:
Normal geben I/O Karten in 709 aus. Und da gehört ein Monitor, der 709 kann ran. Ich wüsste nicht, wo da was umgerechnet werden müsste.
Ich hab ehrlich gesagt keine Ahnung was du mir sagen möchtest. Ich habe nirgendwo geschrieben das irgendetwas umgerechnet werden soll.
Farbmanagment ist doch umrechnen oder?

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
rdcl hat geschrieben:


Ich hab ehrlich gesagt keine Ahnung was du mir sagen möchtest. Ich habe nirgendwo geschrieben das irgendetwas umgerechnet werden soll.
Farbmanagment ist doch umrechnen oder?
Kann man wahrscheinlich so sehen. Was ich möchte ist aber eigentlich ziemlich simpel:
Damit die Kalibrierung (ich nutze das Wort jetzt für Kalibrierung + Profilierung) im Monitor selbst gespeichert wird, muss man bei diesem Monitor die Software von LG benutzen. Da funktioniert aber die Ausgabe über die BM Karte nicht. Dafür könnte ich aber, wie von Huitzilopochtli empfohlen, DisplayCal benutzen. Die LUT die dann von DisplayCal generiert wird kann man aber leider nicht in den Monitor laden. Das ist das ganze Problem.
Natürlich könnte ich die LUT auf Softwareebene anwenden, z.B. in Resolve, das versuche ich aber zu vermeiden. Mit einem Eizo würde das z.B. funktionieren.

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:

Farbmanagment ist doch umrechnen oder?
Kann man wahrscheinlich so sehen. Was ich möchte ist aber eigentlich ziemlich simpel:
Damit die Kalibrierung (ich nutze das Wort jetzt für Kalibrierung + Profilierung) im Monitor selbst gespeichert wird, muss man bei diesem Monitor die Software von LG benutzen. Da funktioniert aber die Ausgabe über die BM Karte nicht. Dafür könnte ich aber, wie von Huitzilopochtli empfohlen, DisplayCal benutzen. Die LUT die dann von DisplayCal generiert wird kann man aber leider nicht in den Monitor laden. Das ist das ganze Problem.
Natürlich könnte ich die LUT auf Softwareebene anwenden, z.B. in Resolve, das versuche ich aber zu vermeiden. Mit einem Eizo würde das z.B. funktionieren.
Die Ausgabe über die BM Karte sehe ich nicht als notwendig an, die kann eh nur 601/709. Und wenn du das als Profil im Monitor hinterlegen kannst und kalibriert hast, ich denke, das ist perfekt.

Space



Space


Antwort von Huitzilopochtli:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:

Farbmanagment ist doch umrechnen oder?
Kann man wahrscheinlich so sehen. Was ich möchte ist aber eigentlich ziemlich simpel:
Damit die Kalibrierung (ich nutze das Wort jetzt für Kalibrierung + Profilierung) im Monitor selbst gespeichert wird, muss man bei diesem Monitor die Software von LG benutzen. Da funktioniert aber die Ausgabe über die BM Karte nicht. Dafür könnte ich aber, wie von Huitzilopochtli empfohlen, DisplayCal benutzen. Die LUT die dann von DisplayCal generiert wird kann man aber leider nicht in den Monitor laden. Das ist das ganze Problem.
Natürlich könnte ich die LUT auf Softwareebene anwenden, z.B. in Resolve, das versuche ich aber zu vermeiden. Mit einem Eizo würde das z.B. funktionieren.
na dann hast du ja die lösung deines problems: kaufe dir einen eizo.

Space


Antwort von klusterdegenerierung:

Du kannst auch einfach den Monitor an die Geforce anschliessen und beim verifizieren Deines Bildes in Resolve Strg.+F drücken und es Dir in fullscreen anschauen, so hast Du zumindest den ganzen Lut und kalikeks nicht.

10Bit wird sowie total überbewertet, besonders 8bit + 2 FCR. :-)

Space


Antwort von rdcl:

Huitzilopochtli hat geschrieben:
rdcl hat geschrieben:


Kann man wahrscheinlich so sehen. Was ich möchte ist aber eigentlich ziemlich simpel:
Damit die Kalibrierung (ich nutze das Wort jetzt für Kalibrierung + Profilierung) im Monitor selbst gespeichert wird, muss man bei diesem Monitor die Software von LG benutzen. Da funktioniert aber die Ausgabe über die BM Karte nicht. Dafür könnte ich aber, wie von Huitzilopochtli empfohlen, DisplayCal benutzen. Die LUT die dann von DisplayCal generiert wird kann man aber leider nicht in den Monitor laden. Das ist das ganze Problem.
Natürlich könnte ich die LUT auf Softwareebene anwenden, z.B. in Resolve, das versuche ich aber zu vermeiden. Mit einem Eizo würde das z.B. funktionieren.
na dann hast du ja die lösung deines problems: kaufe dir einen eizo.
Hättest du meine Posts gelesen würdest du wissen dass der aktuelle Release immer wieder verschoben wird. Außerdem sind die halt leider immernoch schweineteuer. Da kostet der 27er in 2K Auflösung mehr als bei LG oder BenQ der 32er 4K. Und angeblich sind die eingebauten Probes von Eizo auch nicht das Gelbe vom Ei.

Space


Antwort von rdcl:

klusterdegenerierung hat geschrieben:
Du kannst auch einfach den Monitor an die Geforce anschliessen und beim verifizieren Deines Bildes in Resolve Strg.+F drücken und es Dir in fullscreen anschauen, so hast Du zumindest den ganzen Lut und kalikeks nicht.

10Bit wird sowie total überbewertet, besonders 8bit + 2 FCR. :-)
Über den Unterschied von 8bit + frc zu 10bit kann man streiten, aber den Unterschied von 8 bit zu 8bit + frc sieht man sehr deutlich.

Space


Antwort von Huitzilopochtli:

rdcl hat geschrieben:
Huitzilopochtli hat geschrieben:


na dann hast du ja die lösung deines problems: kaufe dir einen eizo.
Hättest du meine Posts gelesen würdest du wissen dass der aktuelle Release immer wieder verschoben wird. Außerdem sind die halt leider immernoch schweineteuer. Da kostet der 27er in 2K Auflösung mehr als bei LG oder BenQ der 32er 4K. Und angeblich sind die eingebauten Probes von Eizo auch nicht das Gelbe vom Ei.
Sorry, das hatte ich im Verlauf schon wieder vergessen. Scheint tatsächlich ein unlösbares problem zu sein.

nein im ernst, wenn ich mir einen polo kaufe, kann ich mir einen spoiler drankleben, ein porsche wird es trotzdem nicht. wobei der vergleich in sofern hinkt, als dass du mit der kostenlosen display cal lösung sehr sehr sehr weit kommst.

Space


Antwort von Frank Glencairn:

Häng halt einfach ne LUT Box vor den Monitor, da kannst du dan deine LUT rein laden.

Space


Antwort von rdcl:

Huitzilopochtli hat geschrieben:
rdcl hat geschrieben:


Hättest du meine Posts gelesen würdest du wissen dass der aktuelle Release immer wieder verschoben wird. Außerdem sind die halt leider immernoch schweineteuer. Da kostet der 27er in 2K Auflösung mehr als bei LG oder BenQ der 32er 4K. Und angeblich sind die eingebauten Probes von Eizo auch nicht das Gelbe vom Ei.
Sorry, das hatte ich im Verlauf schon wieder vergessen. Scheint tatsächlich ein unlösbares problem zu sein.

nein im ernst, wenn ich mir einen polo kaufe, kann ich mir einen spoiler drankleben, ein porsche wird es trotzdem nicht. wobei der vergleich in sofern hinkt, als dass du mit der kostenlosen display cal lösung sehr sehr sehr weit kommst.
Ich versuche ja nur Möglichkeiten abseits von Eizo zu testen. Technik entwickelt sich ja auch weiter und es hätte ja sein können dass es mittlerweile echte Alternativen gibt. Es gab ja auch mal spezielle Avid-Festplatten, auf die sicherlich immernoch irgendwo Leute schwören :D
Der LG Monitor deckt die Farbräume ja genügend ab, es scheitert momentan nur an der Profilierung. Ich weiß nicht ob das speichern der LUTs im Monitor eine Hardware- oder Softwarelimitierung ist, aber das war vorher eben nicht so genau herauszufinden. Man müsste auch nochmal prüfen wie gut oder schlecht die LG Kalibrierung wirklich ist. Dann müsste man eben an der GraKa kalibrieren und danach an die BM anschließen.

Space


Antwort von Huitzilopochtli:

rdcl hat geschrieben:
Huitzilopochtli hat geschrieben:


Sorry, das hatte ich im Verlauf schon wieder vergessen. Scheint tatsächlich ein unlösbares problem zu sein.

nein im ernst, wenn ich mir einen polo kaufe, kann ich mir einen spoiler drankleben, ein porsche wird es trotzdem nicht. wobei der vergleich in sofern hinkt, als dass du mit der kostenlosen display cal lösung sehr sehr sehr weit kommst.
Ich versuche ja nur Möglichkeiten abseits von Eizo zu testen. Technik entwickelt sich ja auch weiter und es hätte ja sein können dass es mittlerweile echte Alternativen gibt. Es gab ja auch mal spezielle Avid-Festplatten, auf die sicherlich immernoch irgendwo Leute schwören :D
Der LG Monitor deckt die Farbräume ja genügend ab, es scheitert momentan nur an der Profilierung. Ich weiß nicht ob das speichern der LUTs im Monitor eine Hardware- oder Softwarelimitierung ist, aber das war vorher eben nicht so genau herauszufinden. Man müsste auch nochmal prüfen wie gut oder schlecht die LG Kalibrierung wirklich ist. Dann müsste man eben an der GraKa kalibrieren und danach an die BM anschließen.
miss mal die lg-kalibrierung mit display cal nach. ich meine mich zu erinnern, dass das ergebnis relativ mies war.

Space


Antwort von rdcl:

Huitzilopochtli hat geschrieben:
rdcl hat geschrieben:


Ich versuche ja nur Möglichkeiten abseits von Eizo zu testen. Technik entwickelt sich ja auch weiter und es hätte ja sein können dass es mittlerweile echte Alternativen gibt. Es gab ja auch mal spezielle Avid-Festplatten, auf die sicherlich immernoch irgendwo Leute schwören :D
Der LG Monitor deckt die Farbräume ja genügend ab, es scheitert momentan nur an der Profilierung. Ich weiß nicht ob das speichern der LUTs im Monitor eine Hardware- oder Softwarelimitierung ist, aber das war vorher eben nicht so genau herauszufinden. Man müsste auch nochmal prüfen wie gut oder schlecht die LG Kalibrierung wirklich ist. Dann müsste man eben an der GraKa kalibrieren und danach an die BM anschließen.
miss mal die lg-kalibrierung mit display cal nach. ich meine mich zu erinnern, dass das ergebnis relativ mies war.
Das kann ich machen. Ich warte gerade noch auf eine Antwort von LG. Das Thema wurde jetzt an eine andere Fachabteilung weitergereicht.
Wenn sich rausstellt dass der Monitor den Ansprüchen nicht genügt werde ich ihn privat nutzen und für das Büro muss dann eben doch ein Eizo her. Oder wie Frank vorgeschlagen hat eine LUT Box.

Space



Space


Antwort von Borke:

Der LG Monitor 32UL99-W hat ein 8bit + FRC Panel. Selbst Eizo hat in 4k abseits der ColorEdge-Serie kein 10bit Panel. Der EV3285 bietet leider nur ein 8bit Panel.
Benq ist ein Lichtblick mit dem PD3220U mit IPS Panel in 10bit Farbtiefe.

Space


Antwort von rdcl:

Borke hat geschrieben:
Der LG Monitor 32UL99-W hat ein 8bit + FRC Panel. Selbst Eizo hat in 4k abseits der ColorEdge-Serie kein 10bit Panel. Der EV3285 bietet leider nur ein 8bit Panel.
Benq ist ein Lichtblick mit dem PD3220U mit IPS Panel in 10bit Farbtiefe.
Wie gesagt, diese Diskussion ist endlos. Ich sehe den Unterschied nicht. Haben die BenQs echte 10bit Panel?

Space


Antwort von dienstag_01:

Man hat bei der Ausgabe über eine I/O Karte nur die Möglichkeit, auf einem Gerät wiederzugeben, das exakt den Standard trifft (709).
Resolve scheint mir da die rühmliche Ausnahme, da kann man direkt aus der Software über den Ausgang der BM Karte kalibrieren. Habe ich n och nicht gemacht, aber klingt sehr gut.
Bei aller anderen Software muss es aber wieder exakt der richtige Farbraum am Monitor sein.

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
Man hat bei der Ausgabe über eine I/O Karte nur die Möglichkeit, auf einem Gerät wiederzugeben, das exakt den Standard trifft (709).
Resolve scheint mir da die rühmliche Ausnahme, da kann man direkt aus der Software über den Ausgang der BM Karte kalibrieren. Habe ich n och nicht gemacht, aber klingt sehr gut.
Bei aller anderen Software muss es aber wieder exakt der richtige Farbraum am Monitor sein.
Richtig. Das hat jetzt aber nichts mit 10bit oder 8bit + frc zu tun.

Space


Antwort von klusterdegenerierung:

rdcl hat geschrieben:
Haben die BenQs echte 10bit Panel?
Hier steht erstmal nur 10Bit, echt specliste konnte ich da auf die schnelle nicht finden.
Dafür haben sie aber Hardwarekali.

https://studio.benq.com/de/monitor/sw320/

Space


Antwort von Huitzilopochtli:

für absolut farbkritische arbeiten würde ich einen eizo als referenzmonitor nehmen, und wenn das geld nicht reicht, dann eher auf die 4k verzichten. für die beurteilung der schärfe reicht ja der gui-monitor...

Space


Antwort von klusterdegenerierung:

Sehe ich mittlerweile anders, 4K ist schon wichtig bei der Beurteilung von Quali des eigenen Materials.
Farbe kann ich bei fasst jedem Pro Monitor gut kalibrieren, dafür brauche ich keinen teuren Eizo.

Wichtig dabei auch, das man auf Spyder verzichtet, der verschlimmbessert nämlich nur.

Space


Antwort von rdcl:

klusterdegenerierung hat geschrieben:
rdcl hat geschrieben:
Haben die BenQs echte 10bit Panel?
Hier steht erstmal nur 10Bit, echt specliste konnte ich da auf die schnelle nicht finden.
Dafür haben sie aber Hardwarekali.

https://studio.benq.com/de/monitor/sw320/
Ich habe es in einem vorherigen Post ja schonmal geschrieben: Der BenQ hat genau die gleiche Hardwarekalibrierung wie der LG, nämlich nur über die BenQ bzw. LG Software. Das hat mir der BenQ-Support am Telefon so gesagt. Ich habe spezifisch nach dem PV3200PT gefragt, denn der ist laut BenQ für VIDEO entwickelt und der SW320 ist für FOTO. Daher nehme ich an die Technologie dahinter ist die gleiche, nur die Farbräume unterscheiden sich scheinbar.

Space


Antwort von blueplanet:

klusterdegenerierung hat geschrieben:
Wichtig dabei auch, das man auf Spyder verzichtet, der verschlimmbessert nämlich nur.
...kann ich nicht bestätigen.
Ich nutze seit Jahren und in (meiner) aktuellen Version Spyder 4 Pro an einem 8Bit, 32 Zoll DELL-Monitor mit 99% RGB Wiedergabemöglichkeit.
Die kalibrierte Farbe, der Schwarz- und Weißpunkt stimmen "augenscheinlich" mit meinem THX zertifizierten und mit Spyder kalibrieren Panasonic Neo-Plasma sowie beim Druck durch einen Fotodienstleister zu 100% überein.
Feine Sache. Das was ich am Monitor sehe, sehe ich auch auf dem TV bzw. auf dem gedruckten Bild. Was will man mehr ;)) Auf "Fremdgeräten" gibt es ebenfalls keine extremen "Ausreißer". Je nach Hersteller und deren "Farbenphilosophie" sind die Bilder halt nur bunter, heller oder überschärft.
Das - ist aber nicht "mein Problem".

Space



Space


Antwort von klusterdegenerierung:

Ich hoffe nur nicht das sich diese Begriffe Foto &Video auf das vorinstallierte Profil beruft, denn dann kann man darauf verzichten.

Schalte ich bei mir das Profil Foto ein, ist er so Blaustichig, das man damit absolut nicht mehr arbeiten kann, hingegen wir bei Video nur leicht das Gamma und Helligkeit angehoben.

Space


Antwort von klusterdegenerierung:

blueplanet hat geschrieben:
klusterdegenerierung hat geschrieben:
Wichtig dabei auch, das man auf Spyder verzichtet, der verschlimmbessert nämlich nur.
...kann ich nicht bestätigen.
Ich nutze seit Jahren und in (meiner) aktuellen Version Spyder 4 Pro an einem 8Bit, 32 Zoll DELL-Monitor mit 99% RGB Wiedergabemöglichkeit.
Die kalibrierte Farbe, der Schwarz- und Weißpunkt stimmen "augenscheinlich" mit meinem THX zertifizierten und mit Spyder kalibrieren Panasonic Neo-Plasma und beim Druck durch einen Fotodienstleister zu 100% überein.
Feine Sache. Das was ich am Monitor sehe, sehe ich auch auf dem TV bzw. auf dem gedruckten Bild. Was will man mehr ;)) Auf "Fremdgeräten" gibt es ebenfalls keine extremen "Ausreißer". Je nach Hersteller und deren "Farbenphilosophie" sind die Bilder halt nur bunter, heller oder überschärft.
Das - ist aber nicht "mein Problem".
Moin :-)
Hab auch immer den Spyder 4Pro in allen erdenklichen Varianten am Dell probiert, sah auf den ersten Blick auch ganz nett aus und wenn man keinen Vergleich hat erst Recht, als ich ihn dann aber mit dem
i1 Display Pro kalibriert habe, waren das Welten und mein ewiger Farbstich trotz Spyder war weg.

Kann Dir nur empfehlen den zu testen, alleine schon wegen der absolut nicht professionellen Messsoftware des Spyders.

Space


Antwort von Huitzilopochtli:

bin dann mal raus hier und überlass den profis das feld.

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
klusterdegenerierung hat geschrieben:


Hier steht erstmal nur 10Bit, echt specliste konnte ich da auf die schnelle nicht finden.
Dafür haben sie aber Hardwarekali.

https://studio.benq.com/de/monitor/sw320/
Ich habe es in einem vorherigen Post ja schonmal geschrieben: Der BenQ hat genau die gleiche Hardwarekalibrierung wie der LG, nämlich nur über die BenQ bzw. LG Software. Das hat mir der BenQ-Support am Telefon so gesagt. Ich habe spezifisch nach dem PV3200PT gefragt, denn der ist laut BenQ für VIDEO entwickelt und der SW320 ist für FOTO. Daher nehme ich an die Technologie dahinter ist die gleiche, nur die Farbräume unterscheiden sich scheinbar.
Die Vermutung liegt nah, dass es da weniger um den Farbraum als um Bildwiederholfrequenzen etc. geht.

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
rdcl hat geschrieben:


Ich habe es in einem vorherigen Post ja schonmal geschrieben: Der BenQ hat genau die gleiche Hardwarekalibrierung wie der LG, nämlich nur über die BenQ bzw. LG Software. Das hat mir der BenQ-Support am Telefon so gesagt. Ich habe spezifisch nach dem PV3200PT gefragt, denn der ist laut BenQ für VIDEO entwickelt und der SW320 ist für FOTO. Daher nehme ich an die Technologie dahinter ist die gleiche, nur die Farbräume unterscheiden sich scheinbar.
Die Vermutung liegt nah, dass es da weniger um den Farbraum als um Bildwiederholfrequenzen etc. geht.
Ja, das kann auch gut sein. Der PV3200PT wird auch auf der Seite mit 24p Playback beworben. Vermutlich beides.

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:

Die Vermutung liegt nah, dass es da weniger um den Farbraum als um Bildwiederholfrequenzen etc. geht.
Ja, das kann auch gut sein. Der PV3200PT wird auch auf der Seite mit 24p Playback beworben. Vermutlich beides.
Der LG kann dagegen nur 60Hz.

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
rdcl hat geschrieben:


Ja, das kann auch gut sein. Der PV3200PT wird auch auf der Seite mit 24p Playback beworben. Vermutlich beides.
Der LG kann dagegen nur 60Hz.
Das stimmt nicht. Habe ich aber in diesem Thread auch bereits geschrieben. Avid 25p --> BM Intensity Pro 4K 25p -> LG32UD99-W 25p. Geht auch in AE, Premiere und Resolve.
lg.jpg

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:

Der LG kann dagegen nur 60Hz.
Das stimmt nicht. Habe ich aber in diesem Thread auch bereits geschrieben. Avid 25p --> BM Intensity Pro 4K 25p -> LG32UD99-W 25p. Geht auch in AE, Premiere und Resolve.

lg.jpg
Und was heißt das, dass LG das selbst vergessen hat?!
Ich glaube, es ist ein Unterschied, ob ein Signal entgegengenommen werden kann oder ob es auch nativ dargestellt werden kann.

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
rdcl hat geschrieben:


Das stimmt nicht. Habe ich aber in diesem Thread auch bereits geschrieben. Avid 25p --> BM Intensity Pro 4K 25p -> LG32UD99-W 25p. Geht auch in AE, Premiere und Resolve.

lg.jpg
Und was heißt das, dass LG das selbst vergessen hat?!
Ich glaube, es ist ein Unterschied, ob ein Signal entgegengenommen werden kann oder ob es auch nativ dargestellt werden kann.
Wenn es nicht nativ dargestellt werden könnte würde der Output über die BM Karte garnicht funktionieren. Wenn ich meinen GUI monitor and die BM hänge kommt da garnichts raus.

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:

Und was heißt das, dass LG das selbst vergessen hat?!
Ich glaube, es ist ein Unterschied, ob ein Signal entgegengenommen werden kann oder ob es auch nativ dargestellt werden kann.
Wenn es nicht nativ dargestellt werden könnte würde der Output über die BM Karte garnicht funktionieren. Wenn ich meinen GUI monitor and die BM hänge kommt da garnichts raus.
Bezweifel ich. Wenn der Eingang für diese Signale vorgesehen ist, intern aber gerechnet wird, dann sollte das auch an der BM Karte funktionieren.

Ich spekuliere auch nur, aber die 50Hz sind bei LG nicht angegeben.

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
rdcl hat geschrieben:


Wenn es nicht nativ dargestellt werden könnte würde der Output über die BM Karte garnicht funktionieren. Wenn ich meinen GUI monitor and die BM hänge kommt da garnichts raus.
Bezweifel ich. Wenn der Eingang für diese Signale vorgesehen ist, intern aber gerechnet wird, dann sollte das auch an der BM Karte funktionieren.

Ich spekuliere auch nur, aber die 50Hz sind bei LG nicht angegeben.
Brauchst du nicht bezweifeln, ich habe es getestet. Aber bitte, hier der große LG and der NVidia:
lg2.jpg

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:

Bezweifel ich. Wenn der Eingang für diese Signale vorgesehen ist, intern aber gerechnet wird, dann sollte das auch an der BM Karte funktionieren.

Ich spekuliere auch nur, aber die 50Hz sind bei LG nicht angegeben.
Brauchst du nicht bezweifeln, ich habe es getestet. Aber bitte, hier der große LG and der NVidia:

lg2.jpg
Ich habe gerade nochmal den Test eines anderen LG (LG 32GK850G-B) auf Prad angeschaut, da funktionieren keine 24Hz, was wiederum LG in den Specs explizit aufgeführt hat.
Scheinen es nicht so nötig zu haben mit der Genauigkeit ;)

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
rdcl hat geschrieben:


Brauchst du nicht bezweifeln, ich habe es getestet. Aber bitte, hier der große LG and der NVidia:

lg2.jpg
Ich habe gerade nochmal den Test eines anderen LG (LG 32GK850G-B) auf Prad angeschaut, da funktionieren keine 24Hz, was wiederum LG in den Specs explizit aufgeführt hat.
Scheinen es nicht so nötig zu haben mit der Genauigkeit ;)
Ja, mit dem LUT Upload ist es ja auch so. Muss man alles selbst rausfinden. Aber generell können dass ja nur wenige Monitore. So niedrige Refreshraten braucht normalerweise ja kein Mensch. 99% der User interessiert nur die Obergrenze.

Space


Antwort von dienstag_01:

rdcl hat geschrieben:
dienstag_01 hat geschrieben:

Ich habe gerade nochmal den Test eines anderen LG (LG 32GK850G-B) auf Prad angeschaut, da funktionieren keine 24Hz, was wiederum LG in den Specs explizit aufgeführt hat.
Scheinen es nicht so nötig zu haben mit der Genauigkeit ;)
Ja, mit dem LUT Upload ist es ja auch so. Muss man alles selbst rausfinden. Aber generell können dass ja nur wenige Monitore. So niedrige Refreshraten braucht normalerweise ja kein Mensch. 99% der User interessiert nur die Obergrenze.
Gamer vielleicht, aber doch nicht für Film.

Space


Antwort von rdcl:

dienstag_01 hat geschrieben:
rdcl hat geschrieben:


Ja, mit dem LUT Upload ist es ja auch so. Muss man alles selbst rausfinden. Aber generell können dass ja nur wenige Monitore. So niedrige Refreshraten braucht normalerweise ja kein Mensch. 99% der User interessiert nur die Obergrenze.
Gamer vielleicht, aber doch nicht für Film.
Das sind doch 99% der User. Oder lass es 90 sein.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


Apple: Neuer LG UltraFine 4K Monitor mit Thunderbolt 3
Neuer EVF und 1000 Nits Monitor von Kinefinety
Kaufberatung - neuer LG Widescreen Monitor
Neuer Feelworld Field-Monitor mit Lut
Neuer Dell UltraSharp U4021QW: 40 Zoll Monitor mit 5K Auflösung und Thunderbolt 3
Neuer Samsung Odyssey G9 49" 5K Monitor bringt MiniLED-Zonen und Verwirrung um DisplayHDR 2000
Atomos: Neuer Shinobi 7 HDR Monitor mit 2200 Nits, Touchscreen Camera Control, SDI uvm.
Viewsonic VP2776 ColorPro: neuer 27" Monitor mit integrierter Farbkalibrierung
Neuer Asus ProArt PA248CNV: Monitor mit USB-C Dockingstation - speziell für Kreative
Neuer LG Monitor richtet sich selbstständig per KI auf die optimale Sehposition aus
Neuer Referenz 4K-HDR-Monitor von Sony -BVM-HX3110 mit 120Hz und 4.000 Nits
Neuer 5K Monitor LG UltraWide 40WP95CP-W: billiger und sparsamer als das Vormodell
Samsung ViewFinity S9: Neuer matter 5K Monitor von Samsung kommt endlich
Neuer 31,5 Zoll 8K Monitor von ViewSonic: VG3281 soll ca. 2.400 Dollar kosten
ASUS ProArt PA24US - neuer 4K-Monitor mit 12G-SDI und 80W Power Delivery
Field Monitor (smartphone vs monitor)




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash