Frank Glencairn hat geschrieben: ↑Fr 18 Aug, 2017 10:18
Kann mir mal einer erklären, was am "Hantieren mit RAW-Einzelbild-Dateien" als "umständlich" empfunden wird?
Ist doch völlig wurscht, ob ich einen Ordner anfasse oder einen Container.
"umständlich" ist leider nur ein aspekt, wesentlich schlimmer ist der umstand, dass ein derartiger zugriff unter benutzung normaler desktop-filesystem ganz bestimmt nicht als optimal oder effizient angesehen werden sollte.
manche software -- vorgerstern ist es mir erst beim installieren von nuke11 untergekommen --, rät deswegen auch ganz dringend davon ab, bspw. NTFS für solche zwecke zu nutzen.
dort wo es im großen stil gemacht wird, also in wirklich professionellen einrichtungen und entsprechenden programmen, werden fast immer optimierungen an den filsystemen bzw. storagelösungen vorgenommen, die hier eine deutliche verbesserung bringen. sehr verbreitet ist z.b. der einsatz von
StoreNext das optimierungen zu genau diesem zweck erlaubt. aber natürlich reichen zum teil auch oft verhältnismäßig einfache anpassungen bei der nutzung gängigerer filsysteme -- bspw. die relativ hohen inode-size settings, wie sie beim austausch von festplatten im kino- bzw. DCP-umfeld genutzt werden.
viele programme, die sich intern unkomprimierter einzelbildsequenzen bedienen, nutzen dafür ganz bewusst spezielle bildformate, die im gegensatz zu den gebräuchlichen RAW-formaten so strukturiert sind, dass sie immer bündig in die blockgrößen des dateisytems passen bzw. einen effizienteren zugriff und einfachere vorreservierung von speicherplatz erlauben. das hat in etwa den selben sinn, wie bei RAID0/5/6 die stripes ja auch unbedingt mit den blockgrenzen der genutzten festplatten harmonieren müssen, damit die perfomance nicht völlig einbricht.
mit SSDs und neueren filesystemen hat sich diese ganze problematik zwar z.t. ein bisserl verschoben, weil dieses zeug ungleich schneller ist und ganz andere zugriffscharakteristiken zeigt. aber auch hier gibt's mit derartigen einzelbildsequenzen bzw. einer ungewöhnlich hohen zahl an einzelfiles in foldern einige probleme. es ist nämlich im zusammenhang mit SSDs recht sinnvoll, das für jedes file checksumen zur überprüfung angelegt werden, weil sich fehler bei diesen datenträgern in ganz anderer weise zeigen als bei traditionellen mechanischen datenträgern. das funktioniert auch in der praxis super, so lange die nutzung in etwa jenen zugriffsmustern entspricht, für die die entsprechenden filsysteme vorgesehen und optimiert wurden. wenn man aber damit dinge macht, die in dieser weise nicht unbedingt vorgesehen waren bzw. für die sie weit weniger optimiert sind, schlägt sich das leider schon spürbar auf die reale performance nieder.
o.k. -- das ist jetzt alles für den normalen hausgebrauch ein bisserl abgehoben -- und natürlich funktioniert alles "irgendwie" auch ohne ein mitbedenken und optimieren dieser details --, trotzdem sollte man es vielleicht nicht ganz so leichtfertig vom tisch wischen. wirklich optimal ist diese lösung aus technischer sicht jedenfalls nicht immer.