Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Läuft BM Intensity Pro 4K in externem Gehäuse



Frage von pixelschubser2006:


Hallo, mir stellt sich aktuell eine Frage, auf die der eine oder andere hier vielleicht schon eine Antwort hat.

Mein Windows PC mit einer Blackmagic Intensity Pro 4K kommt allmählich in die Jahre, selbst unter Edius macht es keine Spaß mehr. Mobil arbeite ich an einem MacBook Air M1 mit gerade 8 GB RAM, der den alten i7 unter Final Cut Pro geradezu wegbläst.

Nun erwäge ich, meinen ungenutzten Mac Mini (auch M1 8GB) oder demnächst einen Mac Studio einzusetzen. Sollte ich beim stationären Schnittplatz auf einen Mac umsteigen, stellen sich Fragen nach der Videoausgabe.

Meine vorhandene Karte erfüllt im Prinzip klaglos ihren Job, zumal ich mittelfristig eh nicht mehr als 4K in 30p drehen würde. Ausserdem kostet eine externe Lösung bei Blackmagic in 4K mindestens 1200 Euro...

Daher nun meine Idee, die vorhandene Karte in ein externes Thunderbolt-Gehäuse zu packen. Hat da von Euch jemand Erfahrung mit?

Grundsätzlich ist die Idee nicht neu, und für manche Videoausgabekarten ist das auch schon positiv besprochen worden. Nur zu meiner finde ich bisher nix.

Ggf. stellt sich auch die Frage, ob das überhaupt noch sein muss. Bisher arbeite ich mit zwei alten Eizos in Full-HD sowie 4K Ausgabe auf eine Verteilerbox mit Downscaler, so dass ich einmal einen Eizo CS 2420 zur Farbkontrolle und einen Samsung TV für 4K Bild dran habe. Klappt übrigens super - ohne einen erkennbaren Haken. Allerdings schneide ich nix mehr, was irgendwie beim Fernsehen landen könnte, sondern plane YouTube Aktivitäten. Muss es da überhaupt noch eine Videokarte sein?

Freue mich über Input und danke schonmal dafür!

Space


Antwort von Frank Glencairn:

Am Anfang ging das mit den externen Gehäusen und Apple Silicone nicht, ist aber gut möglich, daß sich das mittlerweile geändert hat.

Aber ganz ehrlich, wenn du nur YT machst, und nicht dur eine QC von nem Sender mußt, langt deine bisherige Lösung doch locker. Einfach die Scopes im Auge behalten, und gut is.

Space


Antwort von blueplanet:

...ich kenne diese Karte nur im Zusammenhang um Bandmaterial (Video8, Hi8) zu digitalisieren. Die Karte(n) machten aber immer Probleme, die jeweils in einem Totalausfall endeten. Seither nutze ich (genau dafür) keine interne Karte, sondern die Outbox-Variante, die Blackmagic Design Intensity Shuttle für Thunderbolt. Diese funktionierte von Anfang an ohne Macken. Aber es gibt es wohl neu überhaupt nicht mehr.
Insofern weiß ich nicht so recht, was Du mit dieser Karte in Zukunft anfangen willst. Alles stammt noch aus der Zeit, wo PC-hardware nicht in Echtzeit codieren und encodieren konnte.

Space


Antwort von Frank Glencairn:

blueplanet hat geschrieben:
Alles stammt noch aus der Zeit, wo PC-hardware nicht in Echtzeit codieren und encodieren konnte.
Ähem - nein.

Die i/o Karten (vom BM/AJA) sind quasi der Industriestandard.
Gibt ja auch nicht umsonst jede Menge aktuelle Modelle davon.
Irgendwie muß man ja mit SDI rein und vor allem raus kommen.

Die externen Boxen wurden ursprünglich eigentlich für für Laptops gemacht.

Space


Antwort von blueplanet:

"Frank Glencairn" hat geschrieben:
Ähem - nein.

Die i/o Karten (vom BM/AJA) sind quasi der Industriestandard.
Gibt ja auch nicht umsonst jede Menge aktuelle Modelle davon.
Irgendwie muß man ja mit SDI rein und vor allem raus kommen.
Aber es geht hier speziell im die Blackmagic Intensity Pro 4K. Die hat kein SDI, ist also vorrangig eine Capture-Karte.
…. Die Intensity Pro 4K verfügt über die gleichen großartigen Features wie die ursprüngliche Capture-Karte, das Vorgängermodell Intensity Pro. Nun werden jedoch auch Ultra HD und eine hohe Framerate von 1080p/60 unterstützt! Zeichnen Sie jetzt in Ultra HD bei bis zu 30 Frames pro Sekunde oder in 1080HD bei unglaublichen 60 Frames pro Sekunde auf! Speichern Sie Dateien wahlweise mit oder ohne Komprimierung und bearbeiten Sie diese mit den gängigsten Video-Softwareprodukten für Mac und Window….

Space


Antwort von Frank Glencairn:

Der OT will damit ja auch nicht in einen professionellen Video Monitor, da braucht er halt HDMI.

Space


Antwort von acrossthewire:

Ich habe eine Decklink 4K Studio in einem Sonnet TB3 Gehäuse gehabt, das hat gut mit M1 und M1pro funktioniert allerdings habe ich es nur unter FCPX und diversen andern Programmen genutzt nicht unter Resolve.

Space


Antwort von pixelschubser2006:

So, erstmal vielen Dank für die zahlreichen Antworten. Offenbar haben sich einige Missverständnisse eingeschlichen.

Zunächst: Ich hatte die Karte nur angeschafft, um ein TV-konformes Signal auszugeben. Klar kann die Karte weitaus mehr, aber das benötige ich nicht. Bis auf den Audio Ausgang, zumal dieser seit Treiber-Updates irgendwann auch als reguläre Windows Soundkarte arbeitete. Was mein Setup seinerzeit massiv vereinfachte.

Daher habe ich auch keine Lust, 1200 Euro für ein Ultrastudio 4K Mini auszugeben, weil ich die Funktionen zu 90% nicht benötige. Was ich bräuchte, wäre das ULTRASTUDIO 3G, nur halt 4K-tauglich. Gibts aber nicht, derzeit jedenfalls nicht. Außerdem habe ich ja die Intensity, die ja als Produkt noch völlig aktuell ist (dabei habe ich die mindestens schon 5 Jahre...)

Übrigens hat die Karte nix mit der Leistung zu tun. Es geht nur normtaugliches TV-Signal, was Grafikkarten nicht so ohne weiteres können.

Was den Hinweis mit HDMI und nicht-professionellem Monitor betrifft... das stimmt soweit. Habe wie bereits geschrieben trotz großer Vorbehalte in diesem Forum (man mag es auch Glaubenskrieg nennen...) seinerzeit den Eizo gekauft. Das war eine richtige Entscheidung, denn es hat alles ohne jede Einschränkung hingehauen. Einfach, weil es kaum einen vernünftigen Videomonitor unter 2000 Euro gab. Und bei denen, die es da so gibt, sind Funktionen und Anschlüsse wichtiger als Bildqualität und Farbverbindlichkeit. Würde ich immer wieder so machen.

Space


Antwort von Jörg:

seinerzeit den Eizo gekauft. Das war eine richtige Entscheidung, denn es hat alles ohne jede
Einschränkung hingehauen.
Würde ich immer wieder so machen.
Hab ich nie anders gemacht...its just EIZO.

Space



Space


Antwort von blueplanet:

pixelschubser2006 hat geschrieben:
Es geht nur normtaugliches TV-Signal, was Grafikkarten nicht so ohne weiteres können.
...jetzt habe ich es verstanden ;) Dafür ist es natürlich eine "preiswerte" Lösung. Trotzdem ist mir die Herangehensweise im Zusammenhang mit der Grafikkarte nicht ganz verständlich. O.K. - Grafikkarten geben in der Regel 60Hz statt 50 aus. Aber ist denn das im Workflow so entscheidend? Und klar ist, dass trotz Waveform der Monitor via HDMI kalibriert sein sollte. Klar ist ebenfalls: Eizo ist Eizo. Es geht meiner Meinng nach aber auch mit preiswerteren, mit leichteren "Geschützen". Ich nutze seit Jahren einen 10Bit DELL mit 100%RGB + Datacolor. Ich weiss, dass ist kein Farbraum für Video, aber was ich an diesem Monitor mache, stimmt sowohl drucktechnisch wie auch der anschließenden Wiedergabe von Film auf einem TV (zumindest augenscheinlich) zu hundert Prozent überein. Das Schwarz ist (bleibt) dort wie es laut Lumetri gesetzt wurde und auch die Highligths brennen oder saufen dann nicht am TV ab.
Und natürlich weiß ich, dass für prof. Filmprojekte spezielle Videomonitore mit den entsprechenden Farbräumen zum Einsatz kommen. Bist Du so unterwegs? Brauchst Du das?

LG
Jens

Space


Antwort von wolfgang:

Ich weiß nicht, wofür du produzierst. Ich bin selbst als Amateur mit gehobenen Ambitionen mit der Intensity Pro, später der Decklink 4K Extreme 12G und dann dem Ultrastudio 4K mini (am Laptop) gut gefahren. Aber ja, auch die Produkte von BM kosten Geld. Ob es sich tatsächlich auszahlt, diese alte Karte in ein extra Gehäuse zu verfrachten? Aber natürlich musst du das beurteilten, vielleicht hatte ich ja (in der Vergangenheit) auch zuviel Geld.

Space


Antwort von pixelschubser2006:

@Wolfgang, nun die Frage nach dem "brauchen" ist tatsächlich diskutabel, da ich für TV-Sender nur Rohschnitt mache, und Interlaced keine Rolle mehr spielt. Das war beim Kauf der Intensity noch eine andere Situation.

Nur was das "alt" und das "Geld" betrifft: Die vorhandene Karte ist im Sortiment nach wie vor aktuell, und wenn ich meinen PC upgrade, würde sie einfach übernommen. Von den Spezifikationen her reicht sie mir völlig.
Ausserdem kostet die Karte aktuell knapp 250 Euro, ein externer Adapter ist sogar noch deutlich günstiger, aber derzeit nicht für 4K in Sicht. Da ist man gleich beim Ultrastudio 4K Mini für rd. 1200 Euro. Das ist dann auch keine Videoausgabekarte mehr, sondern ein Gerät, was die Videoausgabe so nebenher macht. Entsprechend zahlt man auch eine Menge mit, was man überhaupt nicht braucht.

Space


Antwort von wolfgang:

Ja das stimmt natürlich. Wenn man nicht mehr braucht, als die Karte kann - warum dann mehr ausgeben? Egal, wie alt die ist.

Space


Antwort von blueplanet:

pixelschubser2006 hat geschrieben:
Da ist man gleich beim Ultrastudio 4K Mini für rd. 1200 Euro. Das ist dann auch keine Videoausgabekarte mehr, sondern ein Gerät, was die Videoausgabe so nebenher macht.
...erklär' mir das doch bitte noch-einmal. Wofür (würdest) Du das nutzen? Oder was können diese Karten/Geräte, was potente PC's mit entsprechender Grafikkarte nicht können?
Ich sehe dabei immer nur den Analogen-Nutzen bzw. die Eingänge. Das Material liegt doch heute entweder auf Speicherkarten bzw. auf HDD's/SSD's kopiert digital vor und wird von dort ins Schnittprogramm importiert.
Für Livestreams, die gleich geschnitten werden, könnte ich mir den HDMI-Eingang bei einer 4K Mini vorstellen. Von dort dann wieder raus an einen Grafikkarten-HDMI-Eingang? Gibt es das? Bzw. von da an einen HDMI-Monitor. Und dann...?

Zum capturen via Premiere oder what ever mit der Intensity Pro 4K "benötigt" man analoges Material. Sonst kann man sie nicht "bedienen" (analoge Eingänge). Das geht dann via HDMI an einen Monitor. Soweit so gut.
Hat man Monitore/Cameras mit SDI-Ein/Ausgängen braucht man natürlich eine z.B. Decklink 8K Pro. Ist klar. Zum Capturen und ausgeben an einen prof. Monitor.
Was macht dann die Grafikkarte im PC? Dient sie zur Unterstützung? Oder arbeitet dann nur die Decklink und der Prozessor zusammen? Kann man sich somit eine Grafikkarte (wenn nur Videoschnitt erfolgen soll) im PC sparen?
Ich verstehe es nicht wirklich...

Dank und LG
Jens

Space


Antwort von wolfgang:

Siehe vielleicht diese ältere Diskussion hier
https://www.slashcam.de/info/Videoschni ... 52089.html

Ist tatsächlich recht alt, dieses Thema.

Space


Antwort von Frank Glencairn:

blueplanet hat geschrieben:


Was macht dann die Grafikkarte im PC? Dient sie zur Unterstützung? Oder arbeitet dann nur die Decklink und der Prozessor zusammen? Kann man sich somit eine Grafikkarte (wenn nur Videoschnitt erfolgen soll) im PC sparen?
Ich verstehe es nicht wirklich...
Graka = RGB Signal, nur für Computer Monitore gedacht, oft zweifelhafte Framerate - OS-Colormanagement kann rein pfuschen. GraKA muß die ganze zusätzliche Arbeit leisten

Decklink = Sauberes, Broadcast Standard YUV Studio Video Signal mit synchronisiertem Ton (ist ja auch gleichzeitig ne Audio Karte), definierte Framerate, mindestens (echte) 10 bit 4:4:4 - closed loop = nix pfuscht rein. HDR-Fähig. Graka und CPU werden entlastet, was zu besserer Performance führt.

Und nein, die GraKa kannst du dir nicht sparen, nur weil du ne Decklink hast - die ist nur mit dem Video Monitor verbunden. Dein UI Monitor muß ja auch noch irgendwie ein Bild bekommen und die ganzen Berechnungen die Resolve auf der GPU ausführt, brauchst du ja trotzdem.

Kalibrierung ist dann nochmal ein ganz anderes Thema (ich hab da ganze Artikel drüber geschrieben). Aber da die meisten von euch weder durch die QC eines TV Senders müssen noch für's Kino graden, ist das nicht tragisch, für YT und Co. spielt das alles sowieso nicht so ne Rolle.





Space


Antwort von pixelschubser2006:

Sorry, aber ich hab’s doch nun schon mehrfach erklärt! blueplanet hat geschrieben:
pixelschubser2006 hat geschrieben:
Da ist man gleich beim Ultrastudio 4K Mini für rd. 1200 Euro. Das ist dann auch keine Videoausgabekarte mehr, sondern ein Gerät, was die Videoausgabe so nebenher macht.
...erklär' mir das doch bitte noch-einmal. Wofür (würdest) Du das nutzen? Oder was können diese Karten/Geräte, was potente PC's mit entsprechender Grafikkarte nicht können?
Ich sehe dabei immer nur den Analogen-Nutzen bzw. die Eingänge. Das Material liegt doch heute entweder auf Speicherkarten bzw. auf HDD's/SSD's kopiert digital vor und wird von dort ins Schnittprogramm importiert.
Für Livestreams, die gleich geschnitten werden, könnte ich mir den HDMI-Eingang bei einer 4K Mini vorstellen. Von dort dann wieder raus an einen Grafikkarten-HDMI-Eingang? Gibt es das? Bzw. von da an einen HDMI-Monitor. Und dann...?

Zum capturen via Premiere oder what ever mit der Intensity Pro 4K "benötigt" man analoges Material. Sonst kann man sie nicht "bedienen" (analoge Eingänge). Das geht dann via HDMI an einen Monitor. Soweit so gut.
Hat man Monitore/Cameras mit SDI-Ein/Ausgängen braucht man natürlich eine z.B. Decklink 8K Pro. Ist klar. Zum Capturen und ausgeben an einen prof. Monitor.
Was macht dann die Grafikkarte im PC? Dient sie zur Unterstützung? Oder arbeitet dann nur die Decklink und der Prozessor zusammen? Kann man sich somit eine Grafikkarte (wenn nur Videoschnitt erfolgen soll) im PC sparen?
Ich verstehe es nicht wirklich...

Dank und LG
Jens


Space


Antwort von wolfgang:

Na klar ist Kalibrierung ein anderes Thema. Scheinbar. Denn selbst wenn man zunächst ein hochwertiges, normiertes Signal hat - was nützt einem das, wenn man es dann auf einem völlig dejustierten Sichtgerät beurteilt?

Natürlich gar nichts. Es muss halt die ganze Vorschaukette passen, das ist die logische und einfache Schlussfolgerung.

Ob die Investition in diese Vorschaukette vor dem Hintergrund der eigenen Verwendung erforderlich ist, das ist dann die tatsächlich richtige Frage. Denn eine hochwertige Vorschaukette kostet halt nicht nur die Karte, hier diskutiert noch das Gehäuse, sondern auch entsprechende Monitore. Will man dann gar zu HDR graden, wird letztes auch nicht gerade billiger.

Also überlege man, was man tatsächlich braucht - arbeitet man kommerziell macht man das eh. Also Hobby ist das wieder anders .

Space



Space


Antwort von MK:

Ein Blick auf den Gebrauchtmarkt (verkaufte Artikel bei eBay) sagt: Die Bastelei lohnt sich kaum, 4K Thunderbolt I/O Hardware von Blackmagic ist nicht sehr wertstabil

Space


Antwort von wolfgang:

MK hat geschrieben:
Ein Blick auf den Gebrauchtmarkt (verkaufte Artikel bei eBay) sagt: Die Bastelei lohnt sich kaum, 4K Thunderbolt I/O Hardware von Blackmagic ist nicht sehr wertstabil
Ist ja auch kein Wunder. BM fährt eine totale low-cost Strategie. Die Teile sind aber dafür dann auch erschwinglich, die Qualität aber zumindest fallweise auch eher oft problematisch. Reklamieren von Fertigungsdefekten klapot in so einem Fall, aber - nach meiner natürlich nicht statistischen Erfahrung - noch am ehesten, wenn man im Fachhandel gekauft hat.

Gebraucht zu kaufen kann aber gut sein. Wenn die Sachen funktionieren, tun sie das extrem lange.

Space


Antwort von blueplanet:

"Frank Glencairn" hat geschrieben:
Und nein, die GraKa kannst du dir nicht sparen, nur weil du ne Decklink hast - die ist nur mit dem Video Monitor verbunden. Dein UI Monitor muß ja auch noch irgendwie ein Bild bekommen und die ganzen Berechnungen die Resolve auf der GPU ausführt, brauchst du ja trotzdem.
...danke für den Erklärbär ;) - jetzt verstehe ich es.
Man hat ständig 2 Monitore angeschlossen. Der Erste ist mit der Intensity Pro 4K per HDMI verbunden (ein kalibrierter Videomonitor, der DCI, Rec2020 und Rec709 können muss und möglichst in 10Bit - das wird teuer ;)
Der Zweite, der "normale" PC-Bildschirm mit RGB und sRGB, läuft per HDMI oder DVI mit der Grafikkarte. O.K.
Jetzt zum weiteren Verständnis: womit sage ich dem Bearbeitungsprogramm (z.B. Premiere), übermittle ich den "Befehl", über welchen Port ich arbeiten möchte, über was das Videosignal laufen soll bzw. welchen Ausgang ich nutzen will? Intensity Pro 4K oder Grafikkarte?
Wie gesagt, ich hatte auch die Intensity Pro 4K im PC, aber nur den HDMI/DVI-Port der Garfikkarte genutzt (da nur 1 Monitor). Für mich war die Karte ausschließlich zum capturen von Analogmaterial geeignet.
Mit dem jetztigen Wissen, wahrscheinlich mit einer Lücke in der Kette ;) bzw. ohne speziellen Videomonitor ohnehin kein Thema.

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:
Wenn die Sachen funktionieren, tun sie das extrem lange.
Das stimmt. Wir waren damals die ersten in Deutschland die Decklink Karten bekommen hatten - gut ein halbes Jahr vor dem offiziellen Verkaufsstart, weil wir im Beta Programm waren.
Die Dinger haben über 8 Jahre völlig klaglos ihren Dienst getan, und hätten das wahrscheinlich auch noch länger, wenn wir sie nicht gegen neuere Modelle getauscht hätten.

Eine 4K die ich aktuell drin habe ist auch schon von 2012 rum - und es gibt immer noch regelmäßig Updates.

Space


Antwort von Frank Glencairn:

blueplanet hat geschrieben:

Jetzt zum weiteren Verständnis: womit sage ich dem Bearbeitungsprogramm (z.B. Premiere), übermittle ich den "Befehl", über welchen Port ich arbeiten möchte, über was das Videosignal laufen soll bzw. welchen Ausgang ich nutzen will? Intensity Pro 4K oder Grafikkarte?
Das ist irgendwo in den Monitoring Einstellungen.

Space


Antwort von Frank Glencairn:

MK hat geschrieben:
Ein Blick auf den Gebrauchtmarkt (verkaufte Artikel bei eBay) sagt: Die Bastelei lohnt sich kaum, 4K Thunderbolt I/O Hardware von Blackmagic ist nicht sehr wertstabil
Ist doch super, so kommst du billig an die Hardware.

Space


Antwort von dienstag_01:

In Davinci in Video and Audio I/O

Space


Antwort von MK:

"Frank Glencairn" hat geschrieben:
Eine 4K die ich aktuell drin habe ist auch schon von 2012 rum - und es gibt immer noch regelmäßig Updates.
Selbst die allerersten Decklink Karten laufen mit den aktuellen Treibern. Bei Blackmagic verrecken gerne die Lüfter, daher kauft man nach Möglichkeit wenn die Ansprüche noch erfüllt werden auch gerne mal die älteren Generationen mit passiver Kühlung.

Space


Antwort von MK:

"Frank Glencairn" hat geschrieben:
Ist doch super, so kommst du billig an die Hardware.
Der Punkt war eher dass ein Thunderbolt-Gehäuse gegenüber gebrauchter Blackmagic Thunderbolt I/O Hardware auch nicht so viel billiger ist.

Space



Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
blueplanet hat geschrieben:

Jetzt zum weiteren Verständnis: womit sage ich dem Bearbeitungsprogramm (z.B. Premiere), übermittle ich den "Befehl", über welchen Port ich arbeiten möchte, über was das Videosignal laufen soll bzw. welchen Ausgang ich nutzen will? Intensity Pro 4K oder Grafikkarte?
Das ist irgendwo in den Monitoring Einstellungen.
Ja, man legt typischerweise die Vollbildvorschau auf die Intensity, und an der hängt dann der Monitor.

Und die GUI liegt halt am anderen/an den anderen Monitoren.

Space


Antwort von blueplanet:

"Frank Glencairn" hat geschrieben:
wolfgang hat geschrieben:
Wenn die Sachen funktionieren, tun sie das extrem lange.
Das stimmt. Wir waren damals die ersten in Deutschland die Decklink Karten bekommen hatten - gut ein halbes Jahr vor dem offiziellen Verkaufsstart, weil wir im Beta Programm waren.
Die Dinger haben über 8 Jahre völlig klaglos ihren Dienst getan, und hätten das wahrscheinlich auch noch länger, wenn wir sie nicht gegen neuere Modelle getauscht hätten.

Eine 4K die ich aktuell drin habe ist auch schon von 2012 rum - und es gibt immer noch regelmäßig Updates.
…ich hatte seinerzeit gleich 2 PCI-Karten „verbraten“. Qualität sieht anders aus. Jetzt habe ich die externe Version der Intensity.

Space


Antwort von pixelschubser2006:

Was die Diskussion um den Monitor selbst betrifft: Meine Frage vor dem Kauf wurde sehr kontrovers diskutiert. Ein reinrassiger Videomonitor hätte ca. das Doppelte meines Eizo gekostet. Erst ab etwa 2000 Euro hätte ich einen bekommen, der z.b. einen Vektorgraf drin gehabt hätte. Dafür hätte ich Anschlussmöglichkeiten gehabt, die ich nicht genutzt hätte, am Schnittplatz. Die billigeren Modelle waren dem Eizo hoffnungslos unterlegen, und für 2K hätte ich dessen Hardwarekalibrierbarkeit nicht bekommen. Da ich mit dem CS 2420 einen Super Bildschirm bekam, bin ich das Risiko eingegangen, diesen notfalls für andere Zwecke einzusetzen. Er macht aber nachwievor einen super Job und würde bestenfalls gegen ein vergleichbares 4K-Modell getauscht. Mit meinem HDMI-Umschalter u. Verteiler samt internen Downscaler brauche ich das aber erstmal nicht.

Space


Antwort von Frank Glencairn:

Computermonitore würde ich da eigentlich ganz außen vor lassen.

Die preiswerteste und solideste Lösung ist aktuell ein LG OLED (C1/C2) - ist mittlerweile quasi Industriestandard, und in allen größeren Posthäuser weltweit anzutreffen.

Space


Antwort von pixelschubser2006:

Ich habe seit geraumer Zeit einen Samsung 4K 43" TV mit QLED-Technik über dem Schnittplatz hängen. Die Dinger sollen sich explizit auch gut für derartige Zwecke eignen.
Allerdings sind TV-Displays Fluch und Segen zugleich. Von der Paneltechnik eigentlich ziemlich ideal, aber leider mit zuvielen "Bildverbiegern" in der Signalverarbeitung.
Computer-Monitore KÖNNEN gut sein, wenn sie 50p oder gar 50i sauber anzeigen können und obendrein kalibrierbar sind. Das können in der Tat nicht viele, aber es tauchen immer mal wieder Modelle auf, die alles mitbringen, was man für einen Vorschaumonitor braucht.
Und wenn es eine hardwarekalibrierbare Büchse mit durchgehender 10-Bit-Verarbeitung, dann steht einem Einsatz am Schnittplatz nichts im Wege. Im Gegenteil: Sie bringen Eigenschaften mit, die preiswerte Video-Monitore unter 2000 Euro eher nicht haben!
Leider haben die meisten Hersteller keine klare Linie in ihrem Sortiment, und hochinteressante Modelle werden ohne Nachfolger ersatzlos gestrichen. Habe ich heute wieder gemerkt, als ein absoluter Fachmann in einem YouTube-Video einen LG-Monitor vorstellte. Leider ist das Video ein paar Jahre alt, und das Modell nicht mehr zu finden.
Eizo ist da anders drauf: Mein CS 2420 hat einen direkten Vorgänger und einen Nachfolger. Alle zum ähnlichen Preis, und im wesentlichen identischen Eigenschaften. Ausserdem sind sogar billige Geräte erstaunlich brauchbar: Ich nutze gebrauchte, ältere Eizo Foris für Liveproduktion on Stage. Die kosten nicht die Welt, und machen ein super Bild. Das wirkt nicht einfach nur gut, sondern bietet ohne jede Kalibrierung auch schon eine ganz verlässliche Bildbeurteilung. Von den Specs her entsprechen die Ikegami- oder Sony Videomonitoren für 1200 bis 1500, bei denen ich nicht wüßte, was die besser machen könnten. Im Gegenteil: Da kommen Panels mit nativer 60 Hz-Technik zum Einsatz, tlw. TN. Ok, das werden die schon ausgereift hinbekommen, aber besser als meine Eizo... schwer vorstellbar.

Space


Antwort von Jörg:

Von der Paneltechnik eigentlich ziemlich ideal, aber leider mit zuvielen "Bildverbiegern"
in der Signalverarbeitung.
Hat dein Samsung keinen "Filmmakermodus" wie die LG?
Ich nutze gebrauchte, ältere Eizo Foris für Liveproduktion on Stage. Die kosten nicht die Welt, und machen ein super Bild. Mein Foris 2431 ist nun im 14.Jahr, und ich unterschreibe deine Meinung voll und ganz.;-))

Space


Antwort von Frank Glencairn:

pixelschubser2006 hat geschrieben:

Allerdings sind TV-Displays Fluch und Segen zugleich. Von der Paneltechnik eigentlich ziemlich ideal, aber leider mit zuvielen "Bildverbiegern" in der Signalverarbeitung.
Deswegen braucht man eben ein Modell bei dem man den vollen Zugriff hat, und somit all diese Verschlimmbesserer abschalten kann.

Space


Antwort von Darth Schneider:

Ich frage mich warum die TV Hersteller das mit den Bildprofilen in den TVs so schlecht machen ?
Die Kinomodi sind alle viel verwaschen und zu dunkel, wobei das Blau noch zu fest raus gefiltert wird, der Sportmodus ist unterirdisch weil viel zu scharf, zu hell und viel zu viel Farbe, der Demo Modus, auch viel zu hell, auch zu farbig und zu scharf, Standard hat immer zu viel Blau
Nicht ein einziges Profil das von Haus aus nur annähernd gut ist. Auch nicht bei LG, ausser der Film wurde mit Dolby Vision oder im Filmmaker Profil gemastert.
Aber dann kann man eh nix mehr verändern beim TV..Ausser natürlich das man von Anfang an die ganzen Verschlimbesserer ausschaltet.

Die Hersteller scheinen das bewusst so zu machen, was ich gar nicht verstehe.
Also fürs Grading wahrscheinlich besser gleich ein Monitor…
Gruss Boris

Space


Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:


Die Hersteller scheinen das bewusst so zu machen, was ich gar nicht verstehe.
Also fürs Grading wahrscheinlich besser gleich ein Monitor…
Was hab ich gerade geschrieben?
Deswegen braucht man eben ein Modell bei dem man den vollen Zugriff hat, und somit all diese Verschlimmbesserer abschalten kann.

Space



Space


Antwort von Darth Schneider:

@Frank
Bleibt die Frage ob man das bei den TVs überhaupt noch kann ?
Da gibt es so viele tief verborgene Auto Funktionen.
Und auch wenn ich alles abschalte, gefühlt werkelt da immer noch irgend was.
Es sollte eigentlich machbar sein mit einem einzigen Knopfdruck, nennen könnten die Hersteller das „Monitor Modus“….
Gruss Boris

Space


Antwort von Bluboy:

Ich hab mir auch einen Samsung QLED angeschaft, das ist wirklich der Glattbügler schlechthin ;-((

Space


Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:
@Frank
Bleibt die Frage ob man das bei den TVs überhaupt noch kann ?
Da gibt es so viele tief verborgene Auto Funktionen.
Und auch wenn ich alles abschalte, gefühlt werkelt da immer noch irgend was.
Und genau deshalb hat sich ja der LG C1 und C2 als Industriestandard heraus kristallisiert, weil man da alles abschalten kann, Kontrolle über jeden Aspekt hat, nix dazwischen funkt, und man das Teil somit sauber und zuverlässig kalibrieren kann.

Space


Antwort von wolfgang:

Es gibt genauso gut nutzbare Monitore - etwa die genannten Dell Geräte für SDR, oder auch diverse ASUS Monitore die ebenso HDR fähig sind wie die LGs. Etwa den ASUS Monitor PA32 UCG-K oder UCX-PK. Da wird nichts verbogen, die sind kalibrierbar etc. Das sind 10bit Monitore mit wirklich 1000 nits.

Was mich bei der Nutzung von TVs immer gestört hat ist deren Größe. Denn dafür muss man auch erst den Platz am Schnittplatz haben. Aber natürlich sind die LGs oder auch andere Geräte auch recht gut.

Jeder, wie er mag.

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:
Es gibt genauso gut nutzbare Monitore ...
Das bestreitet ja auch niemand - allerdings hab ich ja ursprünglich folgendes geschrieben:
Die preiswerteste und solideste Lösung ist aktuell ein LG OLED (C1/C2) Für den Preis von einem Asus PA32 UCG-K bekomme ich halt vier LG TVs.
Jetzt klar?

Space


Antwort von wolfgang:

Der UCR-K hat einen Preis, wo sich vermutlich keine 4 LGs ausgehen. Eher nur eines, wie eine rasche Suche nach dem preiswertesten Gerät, dem LG OLED48C21LA zeigt. Und der UCR-K kann auch 10bit, HDR und ist kalibrierbar.

https://geizhals.at/asus-proart-pa32ucr ... 50762.html

Und nochmals: bei mir passt der LG OLED48C21LA als 48 Zöller gar nicht in den Raum.
Jetzt klar?

Space


Antwort von Frank Glencairn:

Hier gings ja auch nicht um dein Räumchen, sondern um die preiswerteste Lösung.


image_2024-01-18_160702236.png image_2024-01-18_160738320.png

Space


Antwort von wolfgang:

Sag mal, warum kannst du nicht verschiedene Lösungsvorschläge akzeptieren?

Und noch dazu, wenn so ein OLED auch klare Nachteile hat - weil er etwa im HDR Bereich eben typischerweise noch keine 1000 nits sustainable erreicht? Die typischerweise sehr wohl gefordert werden.

Noch dazu schummelst mit deinen Bildchen. Der genannte UCR-K kostet - spontan bei Amazon gesehen - um die 1400 Euro.

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:
Sag mal, warum kannst du nicht verschiedene Lösungsvorschläge akzeptieren?
Was hab ich oben geschrieben?
Das bestreitet ja auch niemand Klingt das nach "Lösungsvorschlag nicht akzeptieren"?

Ganz offensichtlich hast eher du Schwierigkeiten mit der Akzeptanz von anderen Lösungen.
wolfgang hat geschrieben:

Noch dazu schummelst mit deinen Bildchen.
Und wenn hier einer schummelt bist du das - dein Bilchen zeigt einen völlig anderen Monitor, als der den ich gepostet habe.

Space



Space


Antwort von Frank Glencairn:

For the record - und um das Ursprungsthema hier abzuschließen:

Ja, die funktioniert in einem externen Gehäuse mit nem M1 - hat gerade jemand bestätigt, der genau das am Laufen hat.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


Intensity Pro Treiber?
Intensity Pro 4K - kein Bild
Lumix S1: Empfehlung für V-Mount mit externem Akku
Trotz externem Mikrofon: Das Zoomgeräusch ist in der Aufnahme hörbar
Sony FX6: Vollformat Nachfolger der FS5 MKII mit 10.2 MP Sensor, 2xXLR , S-Log 3, 120 fps, externem RAW uvm.
Camcorder mit externem Mikrofoneingang
Canon r6,r5 schnell zwischen externem Monitor und Touchscreen umschalten
DVD klemmt in externem USB Apple SuperDrive
Pro Bild nur 15 Sekunden: Stable Diffusion läuft auf Smartphone
Premiere Pro 23 läuft, 24 nicht (mehr)
DAS (vs. NAS) - Gehäuse-Empfehlung
Erstes Hands On mit der Canon EOS C70: 16+ DR, 10 Bit Log, ND-Filter, XLR-Audio, Kompakt-Gehäuse uvm ...
Festplatten-Gehäuse mit Lüfter?
Gehäuse von DSR-PD170 und DSR-PD150
Samsung Evo 870 im ext. Gehäuse am Mac M1 - funktioniert das ?
DIY - 3D gedruckte Gehäuse
HDD Gehäuse ohne Netzteil?
DVR Studio Deflicker-Filter läuft nur mit 6,5 fps




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash