Logo Logo
/// News

Warum sollte man maximal 80% des Speichers von Festplatten nutzen?

[10:55 Di,2.Januar 2018 [e]  von ]    

Eine oft gelesene Regel für die Nutzung von Festplatten lautet, sie nie über 80% ihrer Speicherkapazität zu füllen - allerdings hält sich kaum jemand daran, warum sollt man auch wertvollen Festplattenspeicherplatz nicht nutzen, und so zum Beispiel auf 200GB von 1000 GB oder auf 1 TB von 5 TB Speicherplatz verzichten?

Der verlinkte Artikel erklärt anhand des technischen Basiswissens den Hintergrund der 80%-Regel. Sie ist wichtig, weil die Leistung von Festplatten bei abnehmendem Speicherplatz stark einbricht. Dabei differiert diese Leistungsabnahme zwar von Modell zu Modell, aber sie ist bei jeder HDD deutlich. So beträgt die Lesegeschwindigkeit einer 2 TB Western Digital (WD2003FYYS) HDD ganz außen 101.62 MB/sMB/s im Glossar erklärt und sinkt dann bei einer Nutzung von 50% des Speicherplatzes auf den inneren Spuren auf 78.70 MB/sMB/s im Glossar erklärt und bei 90% auf 49.02 MB/sMB/s im Glossar erklärt - etwas mehr als eine Halbierung der Leistung auf den innersten Sektoren.



Je weiter innen desto langsamer
Der Grund dafür ist ein physikalischer: aufgrund der ringförmigen Anordnung der Daten in Spuren (Tracks) passen mehr Informationen auf eine Spur je weiter diese am Rand der Scheibe positioniert ist, weil der Umfang und damit ihre Länge größer ist. So werden bei einer einzigen Umdrehung innerhalb des gleichen Zeitraums mehr Daten auf einer äußeren Spurch gelesen (d.h. die Geschwindigkeit der Datenübertragung ist höher) als bei einer weiter innen liegenden.

HDD-schema
Datenstruktur einer Festplatte


Da deshalb Festplatten immer von außen nach innen beschrieben werden, nimmt die Lese- und Schreibgeschwindigkeit immer weiter ab, je voller sie sind d.h. je weiter innen sich die gelesenen bzw zu schreibenden Daten befinden. Die 20%-Regel gibt dabei einen groben Fingerzeig, ab welcher Füllmenge die Geschwindigkeit einer Festplatte sehr stark einbricht. Je weiter innen also der genutzte Bereich einer Festplatte liegt, desto langsamer ist der Zugriff darauf.

Die Beachtung der 20%-Regel für den Speicherplatz bringt aber auch noch weitere Vorteile: wird ihr gefolgt, bleibt immer genügend Platz für die Defragmentierung von Daten durchs Betriebssystem und für eventuelle temporäre oder Cache-Dateien (wenn es sich ums Hauptlaufwerk handelt).

Maximaler Speicherplatz oder maximale Geschwindigkeit?
Im Endeffekt bleibt dem User nur die Abwägung zwischen Geschwindigkeit und Speicherplatz: entweder wird der vorhandene Speicherplatz maximal ausgenutzt auf Kosten der Geschwindigkeit (eventuell ist die Hälfte der Maximalgechwindigkeit bei schnellen Festplatten ja noch schnell genug) oder das Ziel ist eine durchgehend große Geschwindigkeit für welche Speicherplatz geopfert werden muss - im Resultat müsste also dann immer 20% mehr Speicher gekauft werden als nominell vorhanden ist.

HDD


Und SSDs?
Zwar gilt die 80% nur für HDDs, nicht aber SSDs - allerdings sollten SSD User (aus anderen technischen Gründen) eine ähnliche Regel beachten. Die meisten SSDs organisieren den Speicherplatz schon so, daß versteckt ungefähr 10-15% frei bleiben - je nach Modell (da das sogenannte Over-Provisioning schon für unsichtbare Reserve von bis zu 28% des Speicherplatzes sorgt). Manchmal - z.B. bei Samsung SSDs - kann der User per SSD-Tool sogar selbst die Größe des Over-Provisionings bestimmen.

Grund für die Notwendigkeit von freiem Speicherplatz bei SSDs ist allerdings natürlich nicht die physikalisch unterschiedliche Länge der Tracks. Bei SSDs wird freier Speicherplatz als Reserve für ausfallende Speicherzellen und zur Verlängerung der Lebensdauer der Speicherzellen per TRIM und Verschleiß-Nivellierung (Wear-Leveling) genutzt und sorgt für so Ausfallsicherheit. Außerdem steigert Reserve-Speicherplatz per Over-Provisioning für eine deutlich höhere Schreib-Performance.

Geraten wird bei SSDs deswegen zusätzlich zum Over-Provisioning zu einer immer mindestens zur Verfügung stehenden Speicherplatzreserve von 10-15%. Man kann diese Reserve auch einfach fest definieren indem man einfach entsprechend viel Platz keiner Partition zuweist - dieser Platz wird von der SSD dann automatisch fürs dynamische Over-Provisioning eingesetzt. Einer Studie von Intel zufolge erhöhte eine 10% Reserve fürs Over-Provisioning die Performance (Random IOPS) ums 2.5fache und die Lebensdauer um mehr als das doppelte.

Link mehr Informationen bei www.studiodaily.com

  
[4 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
Felix Trolldenier    11:22 am 3.1.2018
Jeder der die ct liest, das ct tool oder hdtune nutzt, um die Dauertransferrate über die gesamte Medienzone einer neuen Platte zu messen, weiß das Thomas' Artikel korrekt ist....weiterlesen
tom    15:19 am 2.1.2018
Ich sehe nicht ganz den Widerspruch (zumindest im Text - die Grafik ist etwas zu vereinfacht und damit irreführend). Die physikalische Grundtatsache ist doch, daß die inneren...weiterlesen
MLJ    15:16 am 2.1.2018
@All Wer genaueres wissen möchte was speziell das optimieren von SSD Festplatten betrifft, dem lege ich folgenden Artikel ans Herz: SSD's Optimieren (PDF) Ich wünsche euch...weiterlesen
[ Alle Kommentare ganz lesen]

  Vorige News lesen Nächste News lesen 
bildVLC 3.0: Hardware-Beschleunigung für H.264/H.265 in 8/10 Bit und CineForm bildExterne Grafikkartenpower per Thunderbolt 3: eGPU Asus XG Station Pro


verwandte Newsmeldungen:


[nach oben]

















passende Forenbeiträge zur News:

Archive

2021

April - März - Februar - Januar

2020
Dezember - November - Oktober - September - August - Juli - Juni - Mai - April - März - Februar - Januar

2019

2018

2017

2016

2015

2014

2013

2012

2011

2010

2009

2008

2007

2006

2005

2004

2003

2002

2001

2000






































update am 17.April 2021 - 15:02
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*