Question Combien d'espace pour laisser libre sur le disque dur ou le SSD?


Dans la presse technologique informelle (c'est-à-dire journalistique) et dans les blogs de technologie en ligne et les forums de discussion, on rencontre couramment des conseils anecdotiques pour laisser un espace libre sur les disques durs ou les disques SSD. Diverses raisons pour cela sont données, ou parfois aucune raison du tout. En tant que tels, ces affirmations, bien que peut-être raisonnables dans la pratique, ont un air mythique à leur sujet. Par exemple:

  • Une fois que vos disques sont remplis à 80%, vous devriez les considérer plein, et vous devriez immédiatement soit supprimer des choses ou mettre à niveau. S'ils frappent 90% Plein, vous devriez considérer votre propre pantalon comme étant en feu et réagir avec une immédiateté appropriée pour y remédier. (La source.)

  • Pour que l'efficacité de la collecte des ordures soit optimale, les conseils traditionnels visent à garder 20 à 30% de votre disque vide. (La source.)

  • On m'a dit que je devais laisser environ 20% de gratuité sur une HD pour de meilleures performances, qu'une HD ralentit vraiment quand elle est presque pleine. (La source.)

  • Vous devez laisser de la place pour les fichiers d'échange et les fichiers temporaires. Je laisse actuellement 33% libre et je m'engage à ne pas obtenir moins de 10 Go d'espace disque libre. (La source.)

  • Je dirais généralement 15%, mais avec la taille des disques durs, tant que vous en avez assez pour vos fichiers temporaires et votre fichier d'échange, techniquement vous êtes en sécurité. (La source.)

  • Je recommanderais 10% plus sur Windows, car la défragmentation ne fonctionnera pas s'il n'y a pas tant de choses libres sur le lecteur lorsque vous l'exécutez. (La source.)

  • Vous voulez généralement laisser environ 10% de liberté pour éviter la fragmentation (La source.)

  • Si votre disque est constamment rempli à plus de 75 ou 80%, la mise à niveau vers un disque SSD plus grand mérite d’être envisagée. (La source.)

Y a-t-il eu des recherches, de préférence publiées dans une revue à comité de lecture, sur le pourcentage ou la quantité absolue d'espace libre requis par des combinaisons spécifiques de systèmes d'exploitation, systèmes de fichiers et technologies de stockage (plateau magnétique ou état solide, par exemple)? (Idéalement, une telle recherche expliquerait également la raison pour laquelle il ne faut pas dépasser la quantité spécifique d'espace utilisé, par exemple pour empêcher le système de fonctionner échange d'espace, ou pour éviter la perte de performance.)

Si vous connaissez de telles recherches, je vous serais reconnaissant si vous pouviez y répondre en y ajoutant un bref résumé des résultats. Merci!


101
2017-10-04 11:43


origine


Je ne connais pas les résultats de la recherche, mais je connais mes propres conclusions. Il n'y aura pas de pénalité de performance (hormis des accès au répertoire légèrement plus lents) sur un lecteur presque plein si tous ses fichiers sont défragmentés. Le problème est que de nombreux défragmenteurs optimisent la fragmentation des fichiers, mais en même temps, ils laissent encore plus d'espace libre, de sorte que les nouveaux fichiers sont immédiatement fragmentés. La fragmentation de l’espace libre s’aggrave à mesure que les disques deviennent pleins. - AFH
@ Abdul - Beaucoup de conseils sur la taille du fichier d'échange sont trompeurs. La condition essentielle est d'avoir suffisamment de mémoire (réelle et virtuelle) pour tous les programmes que vous voulez avoir actifs à la fois, donc moins vous avez de RAM, plus vous avez besoin d'échange. Ainsi, prendre une proportion de la taille de la RAM (le double est souvent suggéré) est erroné, sauf en tant que taille initiale arbitraire jusqu'à ce que vous trouviez combien vous avez vraiment besoin. Découvrez combien de mémoire est utilisée lorsque votre système est le plus occupé, puis doublez-le et soustrayez la taille de la RAM: vous jamais veulent manquer d'espace d'échange. - AFH
Je pense que cela dépend vraiment de ce que vous utilisez le lecteur. Si vous devez ajouter et supprimer des tonnes de données du disque dur dans de gros segments, je laisserais une quantité décente d’espace libre en fonction de la taille des fichiers à déplacer. 10-20% semble être une suggestion générale raisonnable, mais je n'ai rien à voir avec cette expérience personnelle. - David
@EugenRieck, voir Jon Turney's "Fin de l'exposition par les pairs"(Nouveau scientifique, 22 septembre 1990). L'examen par les pairs est connu pour être imparfait, mais il existe peu de meilleures options. Même un papier médiocre et erroné devrait être plus falsifiable qu’une vague prétention dans un blog ou un post sur le forum, ce qui en fait un meilleur point de départ pour la compréhension. - sampablokuper
@EugenRieck: "évaluation par les pairs", certains éditeurs sont plus éthique que autres. (Si vous vous demandez, oui je connais la tragédie de US v. Aaron Swartz.) "Ces deux mondes ne se chevauchent pas."Heureusement, ils le font. Dans les universités et ailleurs, je vois que les administrateurs et les universitaires bénéficient à la fois de la SE et des relations publiques. Merci de rester sur le sujet maintenant, merci :) - sampablokuper


Réponses:


Y a-t-il eu des recherches, de préférence publiées dans une revue à comité de lecture [...]?

Il faut remonter bien au-delà de 20 ans, de l'administration du système ou autrement, pour cela. C'était un sujet d'actualité, du moins dans le monde des systèmes d'exploitation des ordinateurs personnels et des postes de travail, il y a plus de 30 ans. le moment où les gens de BSD développaient le système de fichiers rapide Berkeley et Microsoft et IBM développaient le système de fichiers haute performance.

La littérature sur les deux par ses créateurs discute de la façon dont ces systèmes de fichiers ont été organisés de sorte que le politique d'allocation de bloca donné de meilleures performances en essayant de rendre des blocs de fichiers consécutifs contigus. Vous pouvez trouver des discussions à ce sujet et sur le fait que la quantité et l'emplacement de l'espace libre restant pour allouer des blocs affectent le placement des blocs et donc les performances dans les articles contemporains sur le sujet.

Il devrait être assez évident, par exemple, de la description de l’algorithme d’allocation de blocs du FFS de Berkeley qui, s’il n’ya pas d’espace libre dans le groupe de cylindres actuel et secondaire et que l’algorithme atteigne donc le quatrième niveau de repli pour tous les groupes de cylindres "), les performances d’allocation des blocs de disque seront également affectées, de même que la fragmentation du fichier (et donc les performances de lecture).

Ce sont ces analyses et des analyses similaires (loin des seules conceptions de systèmes de fichiers qui visaient à améliorer les politiques de mise en page des conceptions de systèmes de fichiers de l'époque) sur lesquelles la sagesse reçue des 30 dernières années s'est développée.

Par exemple: On peut trouver sans répit, même dans les livres sur les systèmes de fichiers Unix publiés au cours du siècle, que les volumes FFS sont remplis à moins de 90%, à moins que les performances ne soient entachées d’expériences faites par les créateurs. (p. ex. Pate2003 p. 216). Peu de gens s'interrogent sur ce point, bien qu'Amir H. Majidimehr ait effectivement fait le siècle précédent, affirmant que xe n'a en pratique pas observé d'effet notable; notamment grâce au mécanisme Unix habituel qui réserve les 10% finaux à l'utilisation par les super-utilisateurs, ce qui signifie qu'un disque complet à 90% est effectivement plein à 100% pour les non-utilisateurs en tous cas  (Majidimehr1996 p. 68). Bill Calkins a également fait remarquer qu’en pratique, on peut remplir jusqu’à 99%, avec des tailles de disques du 21ème siècle, avant d’observer les effets de faible espace libre, car même 1% des disques de taille moderne suffisent pour libérer de l’espace libre. toujours jouer avec (Calkins2002 p. 450).

Ce dernier exemple montre comment la sagesse reçue peut être erronée. Il y a d'autres exemples de cela. Tout comme les mondes SCSI et ATA de adressage de bloc logique et enregistrement de bit zoné plutôt jeté par la fenêtre tous les calculs minutieux de latence de rotation dans la conception du système de fichiers BSD, la mécanique physique des disques SSD a plutôt fait sortir de la fenêtre l’espace libre utilisé pour les disques Winchester.

Avec les SSD, la quantité d'espace libre sur l'appareil dans son ensemble, c’est-à-dire sur tous les volumes du disque et entre eux, a un effet à la fois sur la performance et sur la durée de vie. Et la base même de l’idée qu’un fichier doit être stocké dans des blocs avec des adresses de blocs logiques contiguës est réduite par le fait que les disques SSD n’ont pas de plateaux à faire pivoter et de têtes à rechercher. Les règles changent à nouveau.

Avec les SSD, la quantité minimale recommandée d'espace libre est en fait plusque le traditionnel 10% qui vient des expériences avec des disques Winchester et Berkeley FFS il y a 33 ans. Anand Lal Shimpi donne 25%, par exemple. Cette différence est aggravée par le fait que cet espace doit être libre sur tout le périphérique, alors que le chiffre de 10% est dans chaque volume FFS unique, et est donc affectée par le fait de savoir si le programme de partitionnement est capable de TRIM l'intégralité de l'espace qui n'est pas alloué à un volume de disque valide par la table de partition.

Il est également compliqué par des complexités telles que les pilotes de système de fichiers compatibles TRIM qui peuvent libérer de l'espace TRIM. dans les volumes de disque, et le fait que les fabricants de SSD eux-mêmes déjà attribuer des degrés variables de espace réservé qui n'est même pas visible avec le dispositif (c'est-à-dire l'hôte) pour diverses utilisations telles que le ramassage des ordures et le nivellement d'usure.

Bibliographie


8
2017-10-09 14:07



"Bibliographie" est un peu inutile sans références dans le texte. - ivan_pozdeev


Bien que je ne puisse pas parler de "recherche" publiée par des "revues évaluées par des pairs" - et je ne voudrais pas avoir à compter sur elles pour le travail quotidien - je peux cependant parler des réalités de centaines de productions serveurs sous divers systèmes d’exploitation sur plusieurs années:

Un disque complet réduit les performances pour trois raisons:

  • Espace libre: pensez aux fichiers temporaires, aux mises à jour, etc.
  • Dégradation du système de fichiers: la plupart des systèmes de fichiers souffrent de leur capacité à disposer des fichiers de manière optimale si l'espace disponible est insuffisant
  • Dégradation au niveau du matériel: les disques SSD et SMR sans espace libre suffisant afficheront un débit réduit et, pire encore, une latence accrue (parfois de plusieurs ordres de grandeur)

Le premier point est trivial, d'autant plus qu'aucun système de production sain ne pourra jamais utiliser l'espace de swap dans des fichiers en expansion dynamique.

Le deuxième point diffère fortement entre les systèmes de fichiers et la charge de travail. Pour un système Windows avec une charge de travail mixte, un seuil de 70% s'avère tout à fait utilisable. Pour un système de fichiers Linux ext4 avec peu de fichiers mais de gros fichiers (par exemple, des systèmes de diffusion vidéo), cela peut aller jusqu'à 90%.

Le troisième point dépend du matériel et du micrologiciel, mais en particulier, les SSD dotés d'un contrôleur Sandforce peuvent se replier sur les charges de travail à fort taux d'écriture, ce qui entraîne une augmentation de plusieurs milliers de latences d'écriture. Nous laissons généralement 25% de charge gratuite au niveau de la partition, puis observons un taux de remplissage inférieur à 80%.

Recommandations

Je me rends compte que j'ai mentionné comment assurez-vous qu'un taux de remplissage maximum est appliqué. Quelques pensées aléatoires, aucune d'entre elles n'étant "examinée par les pairs" (payante, falsifiée ou réelle) mais toutes issues de systèmes de production.

  • Utilisez les limites du système de fichiers: /var n'appartient pas au système de fichiers racine.
  • Suivi, surveillance, surveillance. Utilisez une solution prête à l'emploi si elle vous convient, sinon analysez la sortie de df -h et laisser l'alarme se déclencher au cas où. Cela peut vous permettre d'économiser 30 noyaux sur une racine fs avec des mises à niveau automatiques installées et exécutées sans l'option autoremove.
  • Pesez la perturbation potentielle d'un dépassement de capacité par rapport au coût de l'agrandissement: si vous n'êtes pas sur un périphérique intégré, vous pouvez simplement doubler ces 4G pour la racine.

49
2017-10-04 11:55



Ceci est utile: il est plus détaillé et a un plus grand pouvoir explicatif que l'anecdote typique. Je l'ai voté en conséquence. Mais je veux vraiment des preuves plus solides que juste, "quelqu'un sur Internet dit que c'est leur expérience". - sampablokuper
J'aime à penser en lisant cette réponse, une note importante est qu’il n’ya pas de réponse définitive et que vous pouvez trouver plus de détails que vous recherchiez en pensant à chaque cas d’utilisation. J'ai certainement compris comment mieux résoudre le problème ici quand Eugen a énuméré les processus importants susceptibles d'utiliser ce dernier espace disponible. - Pysis
Le premier point n'est pas anodin maintenant que le cancer systémique a mangé la plupart des distros. /var se remplit et votre serveur tombe. - chrylis
Eugen Rieck - Je déteste dire mais votre réponse concerne a) que faites-vous? et b) pourquoi c'est utile. Je ne vois aucun pointage vers une recherche pertinente, par ex. Qu'est-ce qui se passe si vous remplissez plus de 70% sur un système Windows. Notez que la question initiale portait sur des recherches réelles (pas nécessairement évaluées par des pairs). - Ott Toomet
@sampablokuper Un conseil solide pour vous: les priorités académiques sont très différentes des priorités des opérations quotidiennes. C'est pourquoi votre diplôme d'études collégiales ne vous a pas vraiment préparé à ce problème. Les universitaires se soucient rarement autant des problèmes pratiques quotidiens de ces systèmes. Toujours vérifier vos informations pour la santé mentale, mais à part cela, faites confiance aux personnes qui réussissent réellement ces systèmes sur une tarte dans le papier ciel. Vous avez également l’avantage d’avoir vos sources d’information, ce qui réduit considérablement la probabilité que vous obteniez des informations inutiles. - jpmc26


Y a-t-il eu des recherches ... sur le pourcentage ou la quantité absolue d'espace libre requis par des combinaisons spécifiques de systèmes d'exploitation, de systèmes de fichiers et de technologies de stockage ...?

En 20 ans d’administration du système, je n’ai jamais rencontré de recherche détaillant les besoins en espace libre de diverses configurations. Je soupçonne que cela est dû au fait que les ordinateurs sont configurés de manière si variée qu'il serait difficile de le faire en raison du nombre considérable de configurations système possibles.

Pour déterminer la quantité d'espace libre requise par un système, il faut tenir compte de deux variables:

  1. L'espace minimum requis pour éviter les comportements indésirables,qui lui-même peut avoir une définition fluide.

    Notez qu'il est inutile de définir l'espace libre requis par cette seule définition, car cela équivaut à dire qu'il est sécuritaire de parcourir 80 km / h en direction d'un mur de briques jusqu'au moment où vous entrez en collision avec lui.

  2. La vitesse à laquelle le stockage est consommé, ce qui impose de réserver une quantité variable d'espace supplémentaire, de peur que le système ne se dégrade avant que l'administrateur ait le temps de réagir.

La combinaison spécifique du système d'exploitation, des systèmes de fichiers, de l'architecture de stockage sous-jacente, du comportement des applications, de la configuration de la mémoire virtuelle, etc., pose un défi à toute personne souhaitant disposer d'un espace libre définitif.

C'est pourquoi il y a tellement de "pépites" de conseils là-bas. Vous remarquerez que beaucoup d'entre eux font une recommandation autour d'une configuration spécifique. Par exemple, "Si vous avez un disque SSD qui présente des problèmes de performances en approchant de la capacité, restez au-dessus de 20% d'espace libre."

Comme il n’ya pas de réponse simple à cette question, la bonne approche pour identifier votre L'espace libre minimum requis par le système consiste à examiner les différentes recommandations génériques à la lumière de la configuration spécifique de votre système, puis à définir un seuil, à le surveiller et à le modifier si nécessaire.

Ou vous pouvez simplement conserver au moins 20% d'espace libre. À moins que vous n'ayez un volume RAID 6 de 42 To soutenu par une combinaison de SSD et de disques durs traditionnels et un fichier d'échange pré-alloué ... (c'est une blague pour les gens sérieux.)


29
2017-10-04 12:23



Merci pour la réponse :) Je voudrais prendre un de vos points: "Il n'est pas nécessaire de justifier des conseils pour laisser de l'espace libre, car la conséquence d'une machine à stockage épuisé va de soi."Non, cela ne va pas de soi. Cela surprend les gens plus que ce à quoi on pourrait s’attendre. Et différentes combinaisons de systèmes d’exploitation, de systèmes de fichiers, etc. sont susceptibles de répondre à cette situation de différentes manières: avertissement, qui sait? Donc, ça serait génial de faire plus de lumière là-dessus. D'où ma question :) - sampablokuper
Quand j'affirme que cela va de soi, il y a conséquences d'une machine à stockage épuisé, Je ne suis pas décrivant ces conséquences, mais affirmant plutôt que les machines appauvries en stockage subissent toujours une conséquence. Comme je tente de le prouver dans ma réponse, la nature de ces conséquences et le «meilleur» espace disponible pour les éviter sont très spécifiques à la configuration. Je suppose que l'on pourrait essayer de tous les cataloguer, mais je pense que ce serait plus déroutant qu'utile. - Twisty Impersonator
De même, si vous voulez savoir comment des configurations spécifiques sont susceptibles de réagir à un espace disque insuffisant (par exemple, avec des avertissements, des problèmes de performances, des échecs, etc.), modifiez votre question en conséquence. - Twisty Impersonator
J'ajouterais trois questions supplémentaires: 3. Quels sont les changements les plus probables et les plus défavorables à la consommation de disque en fonction des prévisions de croissance future de votre entreprise, 4. le coût pour l'entreprise si vous manquez d'espace disque et avez-vous besoin d'augmenter considérablement votre capacité de disque? Un de mes clients dispose de 250 To de raids zfs sur place, ils auraient besoin de connaître quelques semaines avant les modifications significatives, car il faut environ une journée pour ajouter chaque disque plus grand dans la matrice de RAID et retirer le plus petit. - iheggie


Bien sûr, un disque lui-même (disque dur ou SSD) ne se soucie pas du nombre de pourcentages d’utilisation, sauf que les disques SSD peuvent au préalable effacer leur espace libre. Les performances en lecture seront exactement les mêmes et les performances en écriture pourraient être un peu moins bonnes sur les disques SSD. Quoi qu'il en soit, les performances en écriture ne sont pas si importantes sur un disque presque plein, car il n'y a pas d'espace pour écrire quoi que ce soit.

Votre système d'exploitation, votre système de fichiers et vos applications, d'autre part, s'attendront à ce que vous disposiez d'un espace libre disponible à tout moment. Il y a 20 ans, il était courant qu'une application vérifie l'espace dont vous disposiez sur le disque avant d'essayer d'y enregistrer vos fichiers. Aujourd'hui, l'application crée fichiers temporaires sans demander votre permission, et généralement planter ou se comporter de manière erratique quand ils ne le font pas.

Les systèmes de fichiers ont une attente similaire. Par exemple, NTFS réserve une grande partie de votre disque à la MFT, mais vous montre toujours que cet espace est libre. Lorsque vous remplissez votre disque NTFS au-dessus de 80% de sa capacité, vous obtenez Fragmentation MFT ce qui a un impact très réel sur les performances.

En outre, le fait de disposer d’espace libre aide à lutter contre la fragmentation des fichiers normaux. Les systèmes de fichiers ont tendance à éviter fragmenation de fichier en trouvant le bon endroit pour chaque fichier en fonction de sa taille. Sur un disque proche du remplissage, ils auront moins d'options, ils devront donc faire des choix plus pauvres.

Sous Windows, vous devez également disposer d’espace disque suffisant pour le fichier d'échange, qui peut croître si nécessaire. Si ce n'est pas le cas, vous devriez vous attendre à ce que vos applications soient fermées de force. Avoir très peu d'espace d'échange peut en effet empirer la performance.

Même si votre swap a une taille fixe, vous risquez de bloquer votre système et / ou de le rendre impossible (Windows et Linux), car le système d'exploitation va pouvoir écrire sur le disque pendant le démarrage. Donc, oui, le fait d’atteindre 90% de l’utilisation du disque devrait vous amener à considérer que vos peintures sont en feu. Pas une seule fois, j'ai vu des ordinateurs qui ne pouvaient pas démarrer correctement jusqu'à ce que les téléchargements récents soient supprimés pour donner au système un peu d'espace disque.


11
2017-10-05 10:04





Pour les disques SSD, il devrait rester un peu d'espace car le taux de réécriture augmente et affecte négativement les performances en écriture du disque. Le taux de remplissage de 80% est sans aucun doute une valeur sûre pour tous les disques SSD. Certains des derniers modèles peuvent fonctionner correctement, même avec une capacité occupée de 90 à 95%.

https://www.howtogeek.com/165542/why-solid-state-drives-slow-down-as-you-fill-them-up/


8
2017-10-04 11:52



Mod Up - Les disques durs SSD sont très différents. Bien que le mécanisme exact diffère entre les lecteurs, les disques SSD écrivent des données [même identiques] à différents endroits [libres] sur le disque et utilisent la récupération de mémoire suivante pour éviter une usure excessive (appelée "nivellement d'usure"). Plus le disque est plein, moins il peut le faire efficacement. - Brad
Il convient également de noter que la raison pour laquelle certains disques "récents" fonctionnent correctement est qu'ils fournissent déjà une quantité d'espace vide décente à laquelle l'utilisateur n'a pas accès (en particulier dans le cas des disques SSD "d'entreprise"). Cela signifie qu'ils ont toujours des "blocs libres" pour écrire des données sans le cycle "read-erase-rewrite" qui ralentit les SSD "complets". - u02sgb
Notez que tout Les SSD le font déjà dans une certaine mesure et vous le cachent. Cela se fait dans le cadre du nivellement de l'usure. Laisser plus d'espace libre donne plus de place à la mise à niveau de l'usure. Cela peut être bénéfique pour un disque sur lequel on écrit souvent, en particulier si c'est un modèle de SSD bon marché. Là encore, vous perdez certains des avantages d’un disque bon marché si vous devez laisser 20% de frais gratuits. Enfin, les nouveaux disques ne sont certainement pas meilleurs. La première génération de disques SSD était constituée de disques SLC et comportait 100 000 cycles d'effacement. La TLC actuelle peut être aussi basse que 5000, soit 20 fois plus. - MSalters


Les "règles" varient en fonction de vos besoins. Et il y a des cas particuliers, comme par exemple ZFS: "Avec une capacité de 90%, ZFS passe de l'optimisation basée sur la performance à l'espace, ce qui a des implications de performances considérables.". Oui, c'est un conception aspect de ZFS ... pas quelque chose dérivé via l'observation ou des preuves anecdotiques. Évidemment, cela pose moins de problèmes si votre pool de stockage ZFS est constitué uniquement de disques SSD. Cependant, même avec des disques rotatifs, vous pouvez facilement atteindre 99% ou 100% lorsque vous travaillez avec un stockage statique et que vous n’avez pas besoin de performances exceptionnelles - par exemple, votre collection de films préférés, qui ne change jamais et où la sécurité est la priorité 1.

Ensuite, btrfs - un cas extrême: lorsque l'espace disponible devient trop faible (quelques Moctets), vous pouvez atteindre le point de non-retour. Non, la suppression de fichiers n'est pas une option, comme vous ne pouvez pas. Il n'y a tout simplement pas assez d'espace pour supprimer des fichiers. btrfs est un système de fichiers COW (copy-on-write) et vous pouvez atteindre un point où vous ne pouvez plus modifier les métadonnées. À ce stade, vous pouvez toujours ajouter du stockage supplémentaire à votre système de fichiers (une clé USB peut fonctionner), puis supprimer des fichiers du système de fichiers étendu, puis réduire le système de fichiers et supprimer à nouveau le stockage supplémentaire). Encore une fois, ceci est un aspect causé par le conception du système de fichiers.

Les personnes qui peuvent vous donner de "vraies données (sérieuses)" sont probablement celles qui traitent de "stockage réel (sérieux)". La réponse (excellente) de Twisty mentionne les baies hybrides (constituées de quantités massives de rotation lente bon marché, de nombreux disques à rotation rapide, de nombreux disques SSD ...) exploitées dans un environnement d'entreprise où le principal facteur limitant est la vitesse à laquelle l'administrateur est capable de commander des mises à niveau. Passer de 16T à 35T peut prendre 6 mois… alors vous vous retrouvez avec des rapports sérieusement soutenus qui suggèrent de régler votre alarme à 50%.


8
2017-10-05 15:05



vous n'avez clairement jamais pris un pool de zfs à 100%, ce qui ne devrait pas être fait intentionnellement. C'est pénible, vous ne pouvez rien supprimer, vous devrez tronquer certains fichiers pour obtenir un accès en écriture, même pour pouvoir tout supprimer. - camelccc


De nombreux facteurs contribuent au résultat en quantités très spécifiques à la configuration. Donc, il n'y a pas de numéro fixe, cela ne peut être mesuré qu'en fonction de ces paramètres. (C'est probablement la raison pour laquelle les autres utilisateurs ne rapportent aucune recherche spécifique sur ce sujet spécifique - trop de variables pour compiler quoi que ce soit de concluant.)

  • Matériel

    • Le disque dur a tous ses secteurs alloués à tout moment. Donc, peu importe combien d'entre eux contiennent des données d'utilisateur actuelles. (Pour le contrôleur, tous les secteurs contiennent des données à tout moment, il suffit de les lire et de les écraser.)
    • Le contrôleur SSD, par contre, (de) alloue ses secteurs de manière dynamique, comme un système de fichiers. Ce qui rend ce travail plus difficile aux usages supérieurs. À quel point cela est-il difficile et à quel point cela affecte les performances observables? Cela dépend:
      • La performance du contrôleur et la qualité des algorithmes
      • Écrire la charge
      • Dans une extension lettre, charge globale (pour donner le temps du contrôleur pour le nettoyage de la mémoire)
      • Surinstallation d'espace (certains fabricants permettent même au client de le choisir en précommande ou de le modifier dynamiquement)
  • Système de fichiers

    • Différents systèmes de fichiers sont conçus pour différentes charges et exigences de traitement des hôtes. Cela peut être modifié dans une certaine mesure par des paramètres de format.
    • Les performances en écriture du FS sont fonction de l'espace libre et de la fragmentation, les performances en lecture sont uniquement fonction de la fragmentation. Il se dégrade progressivement dès le début, la question est donc de savoir où se situe votre seuil tolérable.
  • Type de charge

    • Une charge lourde en écriture met l'accent sur la recherche rapide et l'accès à de nouveaux blocs libres
    • La charge de lecture lourde met l'accent sur la consolidation des données associées pour permettre une lecture plus rapide

4
2017-10-06 11:25





Une chose à considérer avec les commandes mécaniques est que le débit du bord extérieur est plus élevé que l'intérieur. C'est parce qu'il y a plus de secteurs par tour pour la plus grande circonférence de l'extérieur.

Au fur et à mesure que le variateur atteindra sa capacité, les performances diminueront car seuls des secteurs intérieurs plus lents seront disponibles.

Pour une analyse plus approfondie, voir https://superuser.com/a/643634


3
2017-10-05 09:32



Ceci n'est vrai que si aucun fichier n'est jamais supprimé du lecteur. Dans la vraie vie, lorsque vous atteignez une capacité de 90%, vous aurez un tas de spots gratuits éparpillés sur tout le disque. - Dmitry Grigoryev
Je ne veux pas dire que le contrôleur de disque dur s’abstiendra de combler les lacunes, mais qu’un disque remplira davantage de secteurs internes. Un disque à 90% de capacité utilisera plus de secteurs intérieurs qu’un seul à 55%. Le temps de recherche a un impact considérable sur les performances, ce qui est principalement un avantage pour les gros fichiers contigus. Plus d'espace disponible signifie toutefois qu'il y a plus de possibilités de stocker des fichiers volumineux de manière contiguë. - Wes Toleman
@WesToleman Le contrôleur de disque dur n'est pas responsable de décider où les choses vont, il ne fait que mapper les numéros de secteur aux emplacements physiques. Le système d'exploitation est - notamment le système de fichiers. - Thorbjørn Ravn Andersen


Cela dépend de l'utilisation prévue du disque, mais en général, 20% à 15% d'espace libre est une bonne réponse pour les disques en rotation, et 10% ou plus est bon pour les disques SSD.

S'il s'agit du lecteur principal de l'ordinateur et que des fichiers peuvent être déplacés, l'espace libre de 20% devrait permettre d'éviter des ralentissements importants. Cela laissera suffisamment d'espace libre dans le lecteur pour que les données soient déplacées et copiées selon les besoins. Un disque rotatif fonctionnera mieux lorsque les emplacements libres sont plus proches des données d'origine, tandis que dans un disque SSD, l'emplacement physique n'affecte pas les performances quotidiennes. Ainsi, le disque rotatif devrait avoir plus d'espace libre pour des raisons purement de performances. Sur le SSD, l'espace libre réduit réduira la longévité du disque, mais ne réduira pas les performances. Les disques SSD essaient de stocker des données temporaires et des fichiers de téléchargement aléatoires dans les emplacements les moins utilisés afin de pouvoir équilibrer l'utilisation des cellules sur l'ensemble du disque. sinon une partie du disque vieillira beaucoup plus rapidement que le reste. Certains disques SSD récents peuvent réorganiser intelligemment les fichiers pour que l'espace vide se déplace, mais les disques plus anciens peuvent ne pas le faire.

S'il s'agit d'un disque de stockage à long terme, 5% à 10% gratuit devrait suffire et 10% serait préférable s'il s'agit d'un disque rotatif. Vous n'avez pas besoin d'autant d'espace libre car ce disque nécessitera rarement le déplacement des données, les performances ne sont donc pas aussi importantes. L'espace libre est principalement utile pour permettre la suppression et le remplacement des secteurs défectueux et pour permettre aux fichiers d'être plus contigus.

Je ne repousserais aucune capacité au-delà de 95% de capacité pendant plus d'une journée, à moins d'une bonne raison claire.


3
2017-10-06 13:25