Frage von Gieraffe Luis:Hallo Leute,
nach Überlegung habe ich mir überlegt, dass ich zunächst mit meinem ein wenig betagten Laptop weiterschneiden will.
Jetzt stellt sich für mich die Frage, von welchem Datenträger ich meine Videos schneide. Im Rechner habe ich zwar eine 2 TB m.2 SSD, ich würde jedoch gerne all meine Videos von einer Platte schneiden, auf die all meine Videos drauf passen und auch drauf bleiben, damit ich nicht für jedes Projekt Videodateien auf meine SSD schieben muss.
Daher meine Frage, reicht eine externe HDD über USB aus um Videoschnitt in 4k (h.264 10 bit all Intra mit 500mbit von meiner Sony FX 3) zu schneiden? Wenn nein, wäre gegebenenfalls ein Raid System über USB sinnvoll? Ich habe gesehen dass es raids über USB mit bis zu 48 TB gibt.
Liebe Grüße
Luis
Antwort von Frank Glencairn:
h.264 10 bit all Intra mit 500mbit von meiner Sony FX 3
Du hast deine Frage bereits selbst beantwortet.
Antwort von Gieraffe Luis:
"Frank Glencairn" hat geschrieben:
h.264 10 bit all Intra mit 500mbit von meiner Sony FX 3
Du hast deine Frage bereits selbst beantwortet.
Ja erkläre mir das mal, wirds knapp?
Antwort von Alex:
Es ist verständlich, dass du mit deinem älteren Laptop weiterarbeiten möchtest, und die Auswahl des richtigen Datenträgers für deinen Videoschnitt ist eine wichtige Überlegung. Eine 2 TB m.2 SSD im Rechner ist sicherlich eine gute Wahl für schnellen Zugriff und hohe Übertragungsgeschwindigkeiten. Wenn du jedoch alle deine Videos auf einer separaten Platte speichern und darauf zugreifen möchtest, ohne sie auf die SSD verschieben zu müssen, gibt es ein paar Dinge zu beachten.
Eine externe HDD über USB kann grundsätzlich für den Videoschnitt in 4K ausreichen. Allerdings könnte es bei hochauflösendem Material wie 4K-Videos im h.264 10-Bit-All-Intra-Format mit 500 Mbit/s zu Engpässen kommen, da HDDs im Vergleich zu SSDs langsamere Lese- und Schreibgeschwindigkeiten haben. Die Wiedergabe und das Schneiden der Videos könnten möglicherweise nicht so reibungslos verlaufen wie gewünscht. Es könnte zu Verzögerungen oder Rucklern kommen, insbesondere wenn mehrere Videospuren gleichzeitig abgespielt werden.
Wenn du eine stabilere Leistung und schnellere Lese-/Schreibgeschwindigkeiten benötigst, wäre die Verwendung eines RAID-Systems über USB eine Überlegung wert. Ein RAID-System ermöglicht es, mehrere Festplatten zu einem logischen Laufwerk zu kombinieren, um die Leistung und die Speicherkapazität zu erhöhen. Die Verwendung eines RAID-Systems mit bis zu 48 TB könnte deine Anforderungen an Speicherplatz erfüllen und gleichzeitig die Datenübertragungsgeschwindigkeit verbessern.
Es ist jedoch wichtig zu beachten, dass die Leistung eines RAID-Systems über USB von mehreren Faktoren abhängt, einschließlich der RAID-Konfiguration, der Qualität des USB-Anschlusses und der tatsächlichen Geschwindigkeit der Festplatten. Es ist ratsam, sich über die spezifischen RAID-Optionen und deren Kompatibilität mit deinem Laptop zu informieren, um sicherzustellen, dass sie deinen Anforderungen entsprechen.
Letztendlich empfehle ich dir, wenn möglich, eine SSD mit ausreichender Kapazität zu verwenden, um deine Videos direkt darauf zu speichern und zu bearbeiten. SSDs bieten schnellere Lese- und Schreibgeschwindigkeiten, was sich positiv auf den Videoschnitt auswirkt. Wenn das keine Option ist, könntest du eine externe HDD verwenden oder ein RAID-System in Betracht ziehen, um die Leistung zu verbessern. Denke daran, dass es auch andere Faktoren gibt, die die Leistung deines Laptops beeinflussen können, wie beispielsweise die Prozessorleistung und der Arbeitsspeicher.
Quelle: https://chat.openai.com/
Input: Dein Posting
Antwort von Gieraffe Luis:
Alex hat geschrieben:
Es ist verständlich, dass du mit deinem älteren Laptop weiterarbeiten möchtest, und die Auswahl des richtigen Datenträgers für deinen Videoschnitt ist eine wichtige Überlegung. Eine 2 TB m.2 SSD im Rechner ist sicherlich eine gute Wahl für schnellen Zugriff und hohe Übertragungsgeschwindigkeiten. Wenn du jedoch alle deine Videos auf einer separaten Platte speichern und darauf zugreifen möchtest, ohne sie auf die SSD verschieben zu müssen, gibt es ein paar Dinge zu beachten.
Eine externe HDD über USB kann grundsätzlich für den Videoschnitt in 4K ausreichen. Allerdings könnte es bei hochauflösendem Material wie 4K-Videos im h.264 10-Bit-All-Intra-Format mit 500 Mbit/s zu Engpässen kommen, da HDDs im Vergleich zu SSDs langsamere Lese- und Schreibgeschwindigkeiten haben. Die Wiedergabe und das Schneiden der Videos könnten möglicherweise nicht so reibungslos verlaufen wie gewünscht. Es könnte zu Verzögerungen oder Rucklern kommen, insbesondere wenn mehrere Videospuren gleichzeitig abgespielt werden.
Wenn du eine stabilere Leistung und schnellere Lese-/Schreibgeschwindigkeiten benötigst, wäre die Verwendung eines RAID-Systems über USB eine Überlegung wert. Ein RAID-System ermöglicht es, mehrere Festplatten zu einem logischen Laufwerk zu kombinieren, um die Leistung und die Speicherkapazität zu erhöhen. Die Verwendung eines RAID-Systems mit bis zu 48 TB könnte deine Anforderungen an Speicherplatz erfüllen und gleichzeitig die Datenübertragungsgeschwindigkeit verbessern.
Es ist jedoch wichtig zu beachten, dass die Leistung eines RAID-Systems über USB von mehreren Faktoren abhängt, einschließlich der RAID-Konfiguration, der Qualität des USB-Anschlusses und der tatsächlichen Geschwindigkeit der Festplatten. Es ist ratsam, sich über die spezifischen RAID-Optionen und deren Kompatibilität mit deinem Laptop zu informieren, um sicherzustellen, dass sie deinen Anforderungen entsprechen.
Letztendlich empfehle ich dir, wenn möglich, eine SSD mit ausreichender Kapazität zu verwenden, um deine Videos direkt darauf zu speichern und zu bearbeiten. SSDs bieten schnellere Lese- und Schreibgeschwindigkeiten, was sich positiv auf den Videoschnitt auswirkt. Wenn das keine Option ist, könntest du eine externe HDD verwenden oder ein RAID-System in Betracht ziehen, um die Leistung zu verbessern. Denke daran, dass es auch andere Faktoren gibt, die die Leistung deines Laptops beeinflussen können, wie beispielsweise die Prozessorleistung und der Arbeitsspeicher.
Quelle: https://chat.openai.com/
Input: Dein Posting
Bullshit. Nimmst du das auch auf der Arbeit? 😃 Also nach meiner Berechnung müsste es locker gehen, 160Megabyte reichen ja dicke als Lesegeschwindigkeit aus für 500mbit oder hab ich was übersehen?
Falls jemand praktische Erfahrungen hat, raushauen!
Ich habe gerade mal Testvideos auf ne HDD kopiert und Wiedergabe funktioniert flüssig, denke es wird reichen.
|
Antwort von Alex:
"Gieraffe Luis" hat geschrieben:
Bullshit. Nimmst du das auch auf der Arbeit? 😃 Also nach meiner Berechnung müsste es locker gehen, 160Megabyte reichen ja dicke als Lesegeschwindigkeit aus für 500mbit oder hab ich was übersehen?
Falls jemand praktische Erfahrungen hat, raushauen!
Ich habe gerade mal Testvideos auf ne HDD kopiert und Wiedergabe funktioniert flüssig, denke es wird reichen.
Haste den Text aufmerksam durchgelesen? Beim Schnitt haste oft mehrere Spuren übereinander und scrubben (schnell vor- und zurückspulen) willst du ja auch, beides braucht mehr Bandbreite und Performance als "Wiedergabe".
Jeder mit etwas Erfahrung wird dir das Gleiche sagen: Schneiden: SSD - Archivieren: HDD (Stand heute).
Ne RAID Lösung geht sicher auch, aber dazu steht auch genug im zitierten Text und Redundanzen nicht vergessen ;-)
Aber bei dir vergeht einem echt schnell die Lust zu helfen, Käpt'n "Bullshit". Mach wie du meinst ;-)
Antwort von Frank Glencairn:
Leute - wir reden hier von lächerlichen 500mbit, das sind gerade mal knapp über 60 MB/s - dafür braucht man kein RAID und keine SSD. Das macht jede 08/15 externe USB3 Platte im Schlaf.
Und daß dieser Mythos - man bräuchte mehr Bandbreite, wenn irgendwelche Spuren übereinander liegen - immer noch existiert, ist nicht zu fassen. Du kannst 20 Spuren übereinander stapeln, es wird immer nur eine (die oberste) abgespielt, und an der Bandbreite ändert sich nix. Bestenfalls mal für 2-3 Sekunden wenn man ne Blende macht. Selbst irgendwelche Bild-im-Bild Nummern gehen bei solchen Datenraten normal problemlos (aber sowas macht man ja sowieso kaum).
Und auch Scrubben und ähnliches geht ohne Probleme, bei den lächerlichen 60 MB/s.
Wer mit solchen hochkomprimierten Codecs aufnimmt und arbeitet, der muß sich um Plattengeschwindigkeit als aller letztes Sorgen machen.
Bevor da irgend eine Platte zum Flaschenhals werden könnte, wurde man schon lange vorher von CPU/GPU ausgebremst.
Antwort von MK:
Mit zunehmender Fragmentierung können die Zugriffszeiten mal zum Problem werden.
Antwort von Alex:
Wenn ich z.B. 150 Clips in der Timeline habe um einfach mal die Dailies checke, indem ich alle paar Sekunden zum nächsten Clip wechsle oder einen bestimmten Clip suche, habe ich immer etwas Verzögerung im Gegensatz zur SSD (egal ob intern oder extern).
Wenn ich jetzt noch schneide (Feinschnitt, Timings) und immer hin und her springe, dann habe ich da auch ne spürbare Verzögerung, die einfach nervt. Ich merke den Unterschied deshalb, weil ich meine Projekte immer auf SSD schneide (interne oder extern) und nach Vollendung gehen sie aufs externe HDD RAID 1. Wenn ich dort das Projekt nochmal öffne, ist es ne ganze Ecke sturer als auf SSD.
Und zum Thema mehrere Clips "übereinander", eine einfache Blende reicht (wie du schon geschrieben hast), um den doppelten Datensatz zu produzieren. Und wenn diese Stellen dann (auch wenn es "nur 2-3 Sekunden" sind) im Feintuning "hängen" nervt das einfach nur unsäglich. Schnitt muss direkt und flüssig sein, alles andere ist Masochismus.
Das ist meine praktische Erfahrung, ich mach das ja auch schon ein paar Tage und mir erschließt es sich null, warum ich auf einer HDD schneiden sollte, wenns auf SSD besser geht.
SSD ist absoluter Standard als Arbeitsplatte. Auf HDD archiviere ich nur, aus besagten Gründen.
Antwort von Frank Glencairn:
Seit Win 7 ist Fragmentierung eigentlich keim noch ein Thema.
Do I Still Need to Defrag My Hard Drive?
Over time, a hard drive may begin to slow down and operate with less efficiency. Defragging has traditionally been used to speed up drives – but how necessary is it today?
Electromechanical hard disk drives store data in chunks, known as sectors, and a single file may be spread over several. If the read/write heads have to access multiple sectors in order to read a file, then read times will be slower. Data being stored on sequential sectors on the disk ensures that the heads move as little as possible, speeding up read times. The more you use a hard disk drive, continuously adding and deleting files, the more difficult it becomes for the drive to store data efficiently.
The idea behind defragmenting – or defragging – is simple; if the data blocks are located close together, they will be able to be accessed quicker, and read times will be improved. But is it necessary to defrag your hard drive? It depends. Data storage technology has evolved over the years, and starting with Windows 7, hard drives are automatically defragged, so it doesn’t need to be done manually. With solid-state drives (SSDs), there are no circumstances where defragging is necessary. SSDs are not electromechanical devices, and data is stored on NAND flash chips; they are able to read blocks of data quickly regardless of whether they are adjacent to one another.
With Macs, it’s a similar situation. The filesystems that Macs use – HFS+ and APFS – prevent fragmentation, and automatically defrags if it is necessary. The HFS+ file system, first introduced in 1998, used a process called Hot File Clustering to defrag files on the fly; in 2003, Hot File Adaptive Clustering made this process more efficient. The APFS file system introduced with the High Sierra operating system in 2017 streamlined this process further.
In short – if you’re using a Windows PC with Windows 7 onwards, you don’t need to worry about defragging your hard drive. If you have a Mac, you don’t need to worry at all. If you have an older PC running an older OS like Windows XP, you can defrag manually by opening My Computer, right clicking on the local drive, clicking Properties, then Tools, and finally Defragment Now.
http://www.datarecoveryspecialists.co.u ... 0necessary.
Antwort von MK:
Erstmal werden die Daten dorthin geschrieben wo Platz ist... bis da mal die Defragmentierung im Leerlauf zum Zug kommt dauert es und wenn man gleich damit losarbeitet defragmentiert sich das nie... bei HDD am besten auf leere Platten oder möglichst großer Cache um die Kopfpositionierungszeiten bestmöglich zu kompensieren.
Antwort von Frank Glencairn:
Wie schon gesagt, bei Videodaten, vor allem bei den lächerlichen Datenraten null Problem.
Antwort von cantsin:
MK hat geschrieben:
Erstmal werden die Daten dorthin geschrieben wo Platz ist... bis da mal die Defragmentierung im Leerlauf zum Zug kommt dauert es und wenn man gleich damit losarbeitet defragmentiert sich das nie... bei HDD am besten auf leere Platten oder möglichst großer Cache um die Kopfpositionierungszeiten bestmöglich zu kompensieren.
Das sind irgendwie noch alles Weisheiten aus den 90er Jahren, als man Windows 95/98/ME mit FAT-Dateisystem nutzte, das tatsächlich fragmentierte, und IDE-Festplatten mit 30 MB/s Durchsatz.
Und schon damals war das aus der Sicht von Mac- und Linux-Nutzern eine unbegreiflich anachronistische Lachnummer...
Bei der heutigen Panik über Durchsatzraten bin ich sowieso überzeugt, dass die größtenteils auf Verwechselungen bzw. Marketing-verursachter Verwirrung von Megabits und Megabytes beruht.
Leute kaufen sich Kameras mit 150 MBit/s-Codecs und nehmen dann fälschlich an, dass ihre HD oder SSD 150 MB/s schnell sein muss. Dabei brächte selbst die o.g. IDE-Uraltplatte (mit 30 MB/s=240 MBit/s) genug Durchsatz...
Antwort von MK:
Dann erkläre doch mal wie bei einer mechanischen HDD heutzutage die Fragmentierung in Echtzeit verhindert wird wenn in freigewordene Bereiche verteilt geschrieben werden muss.
Antwort von Frank Glencairn:
Ist doch alles in dem Artikel/Video, den ich oben verlinkt hab.
Antwort von cantsin:
MK hat geschrieben:
Dann erkläre doch mal wie bei einer mechanischen HDD heutzutage die Fragmentierung in Echtzeit verhindert wird wenn in freigewordene Bereiche verteilt geschrieben werden muss.
Deine Erklärung weiter oben "Erstmal werden die Daten dorthin geschrieben wo Platz ist..." ist technischer Stand MS-DOS/Windows 3.x-ME. Seit dem Unix File System (UFS), das Bill Joy schon 1980 designte und programmierte, verwenden alle modernen Dateisysteme (incl. Microsofts NTFS) bereits beim bzw. vorm Schreiben von Daten Strategien, um Dateisystemfragmentierung zu verhindern bzw. zu minimieren.
Bei Unix-Systemen (inkl. MacOS) ist Defragmentierung absolut unüblich:
https://www.macworld.com/article/671544 ... ed-to.html
Bei Windows ist es ein rituelles Gewohnheits-Überbleibsel aus alten DOS/16 Bit-Windowszeiten, von dem vor allem eher halbseidene Third Party-Software-Hersteller leben. Ursprünglich hatte Microsoft Windows NT (das ersten Windows mit NTFS) ohne Defragmentierungs-Tools und sogar ohne Defragmentierungs-API ausgeliefert.
Den Anwendungsfall möchte ich mal sehen, wo die heute üblichen 150-200 MBit/s Codecs für 4K-Kameramaterial bei den heute üblichen 80-160 MB/s durch Fragmentierung ausgebremst werden. Bevor es soweit kommt, hast Du eher Probleme mit überblendetem Videomaterial auf verschiedenen NLE-Spuren, das auf jeweils verschiedenen Festplattensektoren liegt - was aber nichts mit Fragmentierung zu tun hat (sondern der grundsätzlichen Lesmechanik von Festplatten).
Antwort von Alex:
Der Unterschied der Reaktionsfähigkeit ist unstrittig, eben einmal das gleiche Projekt auf ner HDD und ner SSD geöffnet. Weder CPU noch GPU noch RAM war der Flaschenhals, alles unter 50% Auslastung.
Wer den Unterschied nicht sieht, dem kann ich nicht helfen.
Wen das nicht stört, das ist seine Sache. Mich stört es massiv, wenn die Steuerung der Timeline so träge ist.
SSD:
HDD:
Es geht ja auch noch um Zugriffszeiten, die bei der SSD um ein Vielfaches kürzer sind als bei einer HDD.
Antwort von MK:
Je mehr gelöscht und neu geschrieben wird desto mehr wird auch heute noch die klassische HDD langsam zum Schweizer Käse wenn nicht im Hintergrund im Leerlauf aufgeräumt wird, bei dynamisch größer werdenden Dateien (Capturing, etc.) greift auch keine Preallocation, da kann das FS auch erstmal nur mit dem größten zusammenhängenden Platz anfangen und danach die Lücken füllen wenn der zusammenhängende Platz am Stück nicht ausreicht. Zum Zeitpunkt des Schreibens werden jedenfalls keine Daten defragmentiert wenn der zusammenhängende Platz erschöpft ist.
Wenn man mit hunderte Gigabyte großen Dateien hantiert, gibt es auch auf großen Platten nach wenigen Monaten keine komplett zusammenhängenden Bereiche mehr wenn öfters gelöscht und größere Dateien neu geschrieben werden.
Im übrigen habe ich nichts vom allgemeinen Durchsatz geschrieben sondern von Leistungsverlusten durch Kopfpositionierung wenn die klassische Festplatte sich das an x verschiedenen Stellen (im schlechtesten Fall ganz am Anfang und am Ende eines Platters) zusammenklaubt, das reicht mitunter für eine Abspielunterbrechung wenn der Cache leerläuft.
Und dann gibt es über dem Tellerrand noch so Sachen wie Einzelbildsequenzen.
Antwort von MK:
Alex hat geschrieben:
Mich stört es massiv, wenn die Steuerung der Timeline so träge ist.
Du bist halt wie ich ein ewig Gestriger... ;-)
Antwort von Frank Glencairn:
Hast du jetzt allen Ernstes extra dafür nen neuen YT Kanal aufgemacht :D
Da gibt's ungefähr 20 Variablen, angefangen von Premiere bis hin zur Festplatte Drehzahl, Controller, eingebauter Cache etc. was das verursachen kann.
Ich seh dieses Verhalten bestenfalls beim Laden eines Projektes (und da sprechen wir von Sekunden) aber während dem Schnitt läuft das - wenigstens bei Resolve - in beiden Fällen wie Butter.
Schau dir mal deinen tatsächlichen Festplattendurchsatz/Aktivität bei Schneiden in Resolve Studio an - ist ganz interessant.
@MK nimm's nicht persönlich, aber jemandem der tatsächlich in dieser Branche arbeitet, und deshalb über die nötige Ausbildung/Erfahrung verfügt, dem glaube ich bei sowas mehr als dir.
Antwort von Jott:
„ Jetzt stellt sich für mich die Frage, von welchem Datenträger ich meine Videos schneide. Im Rechner habe ich zwar eine 2 TB m.2 SSD …“
Wenn‘s klemmen sollte, einfach Proxy-Workflow anwerfen. Da darf der Laptop dann gerne uralt sein, und es geht kein einziger Euro in sinnlose Plattenkäufe.
Wer sich dazu zu fein ist, warum auch immer, muss halt aufrüsten. Wurde dem Gieraffen alles schon verklickert.
Übrigens: De-fragmentieren ist - zumindest für Mac-User - eine Nummer aus dem tiefsten Mittelalter. Dass sich Windows in 2023 nicht auch automatisch drum kümmert, kann ich mir nicht vorstellen.
Antwort von MK:
PC-Methusalem liest Fragmentierung und ist mental gleich 30 Jahre zurückversetzt in Zeiten als man unter DOS per Defrag manuell die Platte defragmentiert hat, LOL.
Der Speicherplatz wird heute im Moment des Kopierens in Größe der Quelldatei reserviert (Preallocation) und in den größten zusammenhängenden Bereich geschrieben. Wenn der nicht ausreicht wird fragmentiert, das wird dann gegebenenfalls im Leerlauf als Hintergrundprozess wieder zusammengeführt, dauert aber bei entsprechend großen Dateien lange.
Wenn es keinen Leerlauf gibt bleiben die Daten wo sie sind.
Antwort von cantsin:
MK hat geschrieben:
Wenn man mit hunderte Gigabyte großen Dateien hantiert, gibt es auch auf großen Platten nach wenigen Monaten keine komplett zusammenhängenden Bereiche mehr wenn öfters gelöscht und größere Dateien neu geschrieben werden.
Ja, aber wo bitte fallen solche Dateien an? Dem TO ging es um "all Intra mit 500mbit"-Material seiner FX3. Das ist zwar im Vergleich zu den meisten Hybridkameras ein ziemlich schwerer Codec, aber selbst mit dem müsste er (bei seinen Urlaubsvideos...) halbstündige Nonstop-Einstellungen drehen, um auch nur auf 100 GB zu kommen.
Antwort von Alex:
"Frank Glencairn" hat geschrieben:
Hast du jetzt allen Ernstes extra dafür nen neuen YT Kanal aufgemacht :D
Nö, den hab ich schon seit Jahren, bei dem war ich grad angemeldet, hab 3.
"Frank Glencairn" hat geschrieben:
Da gibt's ungefähr 20 Variablen, angefangen von Premiere bis hin zur Festplatte Drehzahl, Controller, eingebauter Cache etc. was das verursachen kann.
Da hast du sicher recht, aber ich habe nun mal nur mein System, also teste ich mit dem. Das ist ein absoluter Standard-Schnitt-PC, der mal wieder aufgerüstet werden sollte:
AMD Ryzen 7 3700X 8-Core Processor 3.60 GHz
64,0 GB RAM
Win 10
Aktuelles Premiere
Getestete Platten:
Interne SSD: Samsung 970 1TB
Externes Raid: WB My Book Duo 24TB RAID 1
Ich habe keine 20 Variablen durchgetestet, warum auch. Läuft alles prima. Also habe ich lediglich den Speicherort verändert und darauf geachtet, dass das System mit nichts anderem "beschäftigt" ist. Und dabei stelle ich fest (wie jedes Mal, wenn ich das teste), dass es mit SSD geschmeidiger läuft. Simpel.
"Frank Glencairn" hat geschrieben:
Ich seh dieses Verhalten bestenfalls beim Laden eines Projektes (und da sprechen wir von Sekunden) aber während dem Schnitt läuft das - wenigstens bei Resolve - in beiden Fällen wie Butter.
Vielleicht solltest du genau diesen Test einmal machen, weil Zugriffszeiten gelten auch für dich ;-)
Ich hab meinen Senf dazu geschrieben und belegt, dass es flüssiger mit SSD ist. Punkt.
Im übrigen verstehe ich es nicht ansatzweise, warum man mit HDD schneiden sollte, wenn SSD so günstig ist.
Ich hab die Tage bei meinem Laptop die SSD upgegradet - 4 TB 200€/Amazon
https://www.teamgroupinc.com/de/product/mp34
Dazu biste mit SSD auch zukunftssicher, wenn du mal andere Bitraten verwurstest, bevor ich mir jetzt ne HDD (für Schnitt!) anschaffe.
Natürlich nehme ich das performanteste, wenn ich die Möglichkeit dazu habe...
Antwort von Frank Glencairn:
Alex hat geschrieben:
Dazu biste mit SSD auch zukunftssicher, wenn du mal andere Bitraten verwurstest, bevor ich mir jetzt ne HDD (für Schnitt!) anschaffe.
Ich hab sowieso meine RAIDs, die reichen dicke für alles - der OT wollte eigentlich nur wissen ob er 60 MB/s von einer externen USB Platte abgespielt bekommt. Was wir mit ja beantworten konnten und er dann ja auch ausprobiert und bestätigt hat.
Case closed.
Antwort von pillepalle:
Ein paar Platten im Rechner sind schon praktisch. Ich hab' mittlerweile 26TB an Speicher im Rechner (10TB SSDs und 16TB HDD) und wie bereits geschrieben kosten die ja auch nix mehr. Da muss man dann nicht ständig Daten von A nach B schieben und kann ein Projekt auch mal ein halbes Jahr lang auf der Platte liegen lassen, ohne gleich Platzprobleme zu bekommen. Mich nervt das zumindest beim iMAC meines Kollegen, wo wir ständig Daten herumschieben müssen (mangels externer RAID-Lösung). Das ist für mich zumindest ein guter Grund für den Bastel-PC, wo man mit einem Handgriff die Kiste öffnen kann, überall dran kommt und Komponenten einfach auswechselt.
VG
Antwort von Gieraffe Luis:
sadie110 hat geschrieben:
Nach einigem Nachdenken habe ich mich entschlossen, mit meinem etwas älteren Laptop weiterhin zu editieren.
Nun stellt sich für mich die Frage, von welchem Datenträger aus ich meine Videos schneiden soll. Obwohl ich eine 2 TB m.2 SSD in meinem Computer habe, möchte ich alle meine Videos von einer Festplatte schneiden und darauf belassen, sodass ich nicht für jedes Projekt Videodateien auf meine SSD verschieben muss.
Daher meine Frage: Ist eine externe HDD über USB ausreichend für das Bearbeiten von 4K-Videos (h.264 10-Bit All-Intra mit 500 Mbit von meiner Sony FX 3)? Wenn nicht, würde ein RAID-System über USB Sinn ergeben? Ich habe bereits RAID-Systeme über USB mit Kapazitäten von bis zu 48 TB gesehen.
Also ich nutze ein 20 TB Raid 1 mit zwei Festplatten a 20 TB und bin damit zufrieden. SSDs finde ich zu umständlich, da ich so nicht meine komplette Datenbank auf einem Volume habe, sondern dann für jedes Projekt speziell Daten kopieren müsste. Glaube ne Platte über USB könnte auch ausreichen.
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
MK hat geschrieben:
Erstmal werden die Daten dorthin geschrieben wo Platz ist... bis da mal die Defragmentierung im Leerlauf zum Zug kommt dauert es und wenn man gleich damit losarbeitet defragmentiert sich das nie... bei HDD am besten auf leere Platten oder möglichst großer Cache um die Kopfpositionierungszeiten bestmöglich zu kompensieren.
Das sind irgendwie noch alles Weisheiten aus den 90er Jahren, als man Windows 95/98/ME mit FAT-Dateisystem nutzte, das tatsächlich fragmentierte, und IDE-Festplatten mit 30 MB/s Durchsatz.
Und schon damals war das aus der Sicht von Mac- und Linux-Nutzern eine unbegreiflich anachronistische Lachnummer...
Bei der heutigen Panik über Durchsatzraten bin ich sowieso überzeugt, dass die größtenteils auf Verwechselungen bzw. Marketing-verursachter Verwirrung von Megabits und Megabytes beruht.
Leute kaufen sich Kameras mit 150 MBit/s-Codecs und nehmen dann fälschlich an, dass ihre HD oder SSD 150 MB/s schnell sein muss. Dabei brächte selbst die o.g. IDE-Uraltplatte (mit 30 MB/s=240 MBit/s) genug Durchsatz...
Nicht zu vergessen das so manche HDD, von der man vielleicht nicht wußte das sie schon einen auf click of death machte, das fragmentieren so manche Platte geschrottet hat.
Kann mich noch gut erinnern wie wir magisch auf das Tetrisartige Bild starten und plötzlich alle Pixel rot wurden und die Platte immer lauter bis es nur noch ein lustiges ratschen und kratzen gab und dann die Meldung kam das Festplatte D: nicht mehr gefunden werden konnte, man ich hab mich eingenässt. :-)))
|