vobe49 hat geschrieben:Hallo Tiefflieger,
wenn ich daran denke, dass mein Schnittprogramm (Magix VdL2013 Premium) trotz Rechner mit i7 2600, SSD, 8 GB RAM und schnelle GraKa schon bei AVCHD 1920x1080p in punkto Performance schnell schwächelt, kann ich mir richtig gut vorstellen, wie der Schnitt mit 4k läuft.
Hier wird wie bei den Digitalkameras entwickelt: laufend neue Modelle mit vielen angeblichen Verböserungen (z.B. Megapixelmanie).
Will sagen - dass die Hersteller oft an den wirklichen Wünschen der User vorbeientwickeln, weil diese Wünsche nicht spektakulär genug sind, um in der Werbung punkten zu können. Bestes Beispiel ist meine Schnittsoftware: da heist es bei jeder Version: "wesentlicher Verbesserung der Performance"; feststellen konnte ich diese (trotz Ausprobieren aller klugen Ratschläge im WEB) bisher bei keinem der Updates wirklich.
Gruß vobe49
Ich bin der Meinung das "sehr gutes" FullHD wichtiger ist als verrauschtes unruhiges QFHD (Sony -> 4K UHD).
Da ich AVCHD Smartrendering (mit Magix) verwende und den fertigen Film in 1080p50 bestenfalls noch in 720p50 gerendert weitergebe, habe ich selbst auf einem Netbook mit NVIDIA GPU keine Performanceprobleme.
Anders sähe es mit Colorgrading und anderen Anpassungen mit grossen Datenmengen aus Computergeneriertem aus.
Theoretisch sollten mit korrekten Aufnahmeeinstellungen keine Korrekturen im Schnittprogramm nötig sein ;-)
Interlaced
Vorweg interlaced ist in FullHD gut und als Bewegtbilder für HDTV tip top, aber...
Interlaced ist nicht mehr Zeitgemäss und lässt sich nur mit Schwierigkeiten weiterverarbeiten oder grossflächig detailliert darstellen.
Es gibt hochwertige TV-Serien die auf Film aufgenommen und in den Jahren +/- 1990 SD interlaced fürs Fernsehen gescannt wurden.
Auf einem HDTV in FullHD sieht man sporadisch Artefakte und dies passiert vermutlich auch in UHD mit heutigen interlaced HD Aufnahmen(Auflösungsverlust und/oder Artefakte).
Rechenleistung
Wenn der Nachfolger von h.264, h.265 kommt, ist er etwa doppelt so effizient (Speicher)und lässt Auflösungen bis 8K zu.
Technisch sind die Recheneinheiten auch für 4K schnell genug, aber die Speicherzugriffe sind zu langsam, bzw. grosse Puffer teuer.
Ob man für Performance eine SSD oder WD Raptor Harddisk verwendet ist sekundär, da das MAC/Windows Betriebsystem auf Harddiskzugriffe ausgelegt ist (Puffer, CPU Cache, RAM, Verwaltungsoverhead).
Es wäre sinnvoll, wenn Computergames Fotorealistischer würden und Grafikkarten entsprechend "objektorientiertes" Video behandeln können.
HW technisch ist es heute kein Problem z.B. 48 Kern CPU's herzustellen.
Bei einfachen Aufgaben genügt ein Kern und die anderen schlafen um Strom zu sparen. (Intel kann das für Smartphones, aber die SW Entwicklung hat Probleme mit Parallelisierung von Aufgaben)
Gleiches gilt für die GPU (Shader mit Busbandbreite und schnelles lokales RAM)
Gruss Tiefflieger