Abdeckung von welchem Farbraum? sRGB? Dann den mit 99% nehmen. Aber Achtung Abdeckung ist nicht gleichbedeutend mit präziser Wiedergabe.Benutzername hat geschrieben: ↑Sa 19 Aug, 2017 14:12 monitor mit 72% abdeckung des farbraums oder monitor mit 99%, wenn nur für das internet produziert wird?
An etwas muss man sich orientieren. Und auch ein korrekt arbeitendes Smartphone mit größerem Farbraum, sollte diesen bei der Wiedergabe von Medien auf sRGB begrenzen können.MrMeeseeks hat geschrieben: ↑Sa 19 Aug, 2017 20:14 Ein großer Teil der Views wird aktuell auf Smartphones betrachtet. Ein Iphone 7 zb deckt 104% des sRGB-Farbraums ab. Die Monitore, Notebook-Bildschirme und Smartphones werden immer besser...man sollte sich also nicht an irgendwelchen veralteten Fernseher-Standards orientieren
Wenn der eine es flau und mit warmer Farbtemperatur mag, der nächste aber konstrastreich und kühl, haben beide durch ihre jeweilige "Brille" eine Art Referenz. Am besten wird auf ihren verkorksten Sichtgeräten nach wie vor ein von einem Top-Coloristen an einem Top-Monitor gegradeter Clip aussehen. Das ist das logische Argument, sich den besten Monitor zu besorgen, den man kriegen kann. Auf einem 99% sRGB Monitor würde man Fehler sehen, die man auf einem mit 72% Abdeckung nicht sehen könnte. Auch, wenn der Monitor noch größere Farbräume schafft und womöglich 1 Milliarde Farben, ist das kein Argument gegen ihn. Denn er wird den Arbeitsfarbraum (rec_709, sRGB) präziser darstellen können als ein ansonsten perfekt kalibrierter Monitor, der seine Grenzen bereits erreicht hat. Oder?Peppermintpost hat geschrieben: ↑Sa 19 Aug, 2017 16:59ich glaube bei einem computer monitor, egal welcher marke und egal in welcher preisklasse liegst du immer daneben, weil die mehrzahl der leute ja genau den monitor nicht haben. auch an einem monitor rum zu kalibrieren wird dir nicht helfen den durchschnitt zu finden weil die masse ihre monitore ja nicht kalibriert sondern eher sättigung und kontrast aufdreht.
ja genau, das ist auch meine meinung. ich halte von der idee "ich kaufe mir den schlechtesten monitor den ich bekommen kann damit ich den worst case sehe" garnichts. ich denke man sollte den besten monitor benutzen um fehler und feine details frühzeitig zu erkennen und zu beheben. ein gutes ergebniss wird auch auf einem schlechten monitor besser aussehen als ein schlechtes ergebniss. am monitor zu sparen ist mMn die grundlage für murx.Axel hat geschrieben: ↑So 20 Aug, 2017 07:01Wenn der eine es flau und mit warmer Farbtemperatur mag, der nächste aber konstrastreich und kühl, haben beide durch ihre jeweilige "Brille" eine Art Referenz. Am besten wird auf ihren verkorksten Sichtgeräten nach wie vor ein von einem Top-Coloristen an einem Top-Monitor gegradeter Clip aussehen. Das ist das logische Argument, sich den besten Monitor zu besorgen, den man kriegen kann. Auf einem 99% sRGB Monitor würde man Fehler sehen, die man auf einem mit 72% Abdeckung nicht sehen könnte. Auch, wenn der Monitor noch größere Farbräume schafft und womöglich 1 Milliarde Farben, ist das kein Argument gegen ihn. Denn er wird den Arbeitsfarbraum (rec_709, sRGB) präziser darstellen können als ein ansonsten perfekt kalibrierter Monitor, der seine Grenzen bereits erreicht hat. Oder?Peppermintpost hat geschrieben: ↑Sa 19 Aug, 2017 16:59ich glaube bei einem computer monitor, egal welcher marke und egal in welcher preisklasse liegst du immer daneben, weil die mehrzahl der leute ja genau den monitor nicht haben. auch an einem monitor rum zu kalibrieren wird dir nicht helfen den durchschnitt zu finden weil die masse ihre monitore ja nicht kalibriert sondern eher sättigung und kontrast aufdreht.
Leider nein. Das Panel wird mit einer festen Zahl Bits pro Subpixel angesteuert. Ist der Farbraum sehr groß, dann braucht man mehr Bits pro Subpixel um gleich feine Farbabstufungen darstellen zu können, gegenüber einem Panel, das z.B. nur sRGB darstellen kann.Axel hat geschrieben: ↑So 20 Aug, 2017 07:01Auch, wenn der Monitor noch größere Farbräume schafft und womöglich 1 Milliarde Farben, ist das kein Argument gegen ihn. Denn er wird den Arbeitsfarbraum (rec_709, sRGB) präziser darstellen können als ein ansonsten perfekt kalibrierter Monitor, der seine Grenzen bereits erreicht hat. Oder?
Ich hatte über gute Dells bis Apple Cinema Displays inkl. diverser kalibrierungs Hard & Software alles dabei!Benutzername hat geschrieben: ↑So 20 Aug, 2017 10:55 danke eure antworten.
das eine kalibrierung nicht viel bringt, wenn ich nur fürs internet produziere, hatte ich vor ein paar jahren in erfahrung gebracht, weshalb ich meinen monitor damals nicht noch mal extra kalibrieren wollte.
jetzt ist aber mein monitor so gut wie hinüber. hdmi geht nicht mehr richtig. über vga macht er auch probleme. na ja, neuer monitor muss her.
es wäre der sRGB farbarum, den ich abzudecken wünsche. ;) was für ein deutsch. ich habe aber echt keinen lust mehr, so viel geld auszugeben. okay, mein jetziger monitor war auch nicht so teuer, aber er deckt den adobe farbraum zu 100 % ab.
das die da alle auf smartphone videos anschauen, war mir nicht bewusst. das ist auf jeden fall wichtig zu beachten.
was mich noch nervt, ist, dass so viele monitore jetzt eine glänzende oberfläsche haben, dass man sich drin spiegel kann.
nachtrag:
wäre ein monitor besser, der ein AMVA+ panel hat und eine sRGB Farbraumabdeckung von über 96 Prozent hat oder ein monitor, der ein ips panel hat und nur 72% des farbraums abdeckt? ich frage, weil ich mal gelesen habe, dass im unteren preissegment ips panels besser sein sollen als AMVA+.
AMVA+: http://amzn.to/2uUixGr
ips: http://amzn.to/2uU3xs4
Im Prinzip ja. Nur die Entscheidung für ein konkretes Modell nimmt es einem nicht ab, da jedes Gerät irgendwelche Kompromisse macht, zwischen denen es abzuwägen gilt.Peppermintpost hat geschrieben: ↑So 20 Aug, 2017 10:45 aber beantwortet das was du schreibst die frage nach dem "besten" oder "perfekten" referenz monitor?
Er wäre dann schlechter, wenn er den "Schrott" nicht exakt als Untermenge seiner Fähigkeiten enthält.Peppermintpost hat geschrieben: ↑So 20 Aug, 2017 10:45 hätten alle menschen auf der welt den schrottigsten denkbaren monitor, allerdings alle den gleichen, dann wäre genau dieser monitor eine perfekte referenz. ein technisch deutlich besserer monitor wäre als referenz schlechter weil er sich ja vom standart entfernt.
Ich kann im Moment grade keine gute Skizze machen (eigentlich wäre ein Erklärvideo sogar noch besser). Ich hatte eben schon versucht, im Eiltempo eine möglichst anschauliche Erklärung zu schreiben, aber ich fand den Entwurf zu lang und zu schwer nachzuvollziehen.Peppermintpost hat geschrieben: ↑So 20 Aug, 2017 10:45 fall ja versuch den sachverhalt mal für unwissende wie mich aufzuklären.