Qu'est-ce que S.M.A.R.T. ?
INTELLIGENT. –pour Self-Monitoring, Analysis, and Reporting Technology— est une technologie intégrée dans les périphériques de stockage tels que les disques durs ou les SSD et dont le but est de surveiller leur état de santé.
En pratique, S.M.A.R.T. surveillera plusieurs paramètres du disque pendant les opérations normales du lecteur, comme le nombre d'erreurs de lecture, les temps de démarrage du lecteur ou même les conditions environnementales. De plus, S.M.A.R.T. et peut également effectuer des tests à la demande sur le lecteur.
Idéalement, S.M.A.R.T. permettrait d'anticiper prévisible les pannes telles que celles causées par l'usure mécanique ou la dégradation de la surface du disque, ainsi que imprévisibles défaillances causées par un défaut inattendu. Étant donné que les disques ne tombent généralement pas en panne brusquement, S.M.A.R.T. donne au système d'exploitation ou à l'administrateur système la possibilité d'identifier les disques qui tomberont bientôt en panne afin qu'ils puissent être remplacés avant qu'une perte de données ne se produise.
Qu'est-ce qui n'est pas S.M.A.R.T. ?
Tout cela semble merveilleux. Cependant, S.M.A.R.T. n'est pas une boule de cristal. Il ne peut pas prédire avec une précision de 100% une panne ni, d'autre part, garantir qu'un disque ne tombera pas en panne sans avertissement précoce. Au mieux, S.M.A.R.T. doit être utilisé pour estimer la probabilité d'un échec.
Compte tenu de la nature statistique de la prédiction des défaillances, le S.M.A.R.T. La technologie intéresse particulièrement les entreprises utilisant un grand nombre d'unités de stockage, et des études de terrain ont été menées pour estimer la précision de S.M.A.R.T. problèmes signalés pour anticiper les besoins de remplacement de disque dans les centres de données ou les batteries de serveurs.
En 2016, Microsoft et la Pennsylvania State University ont mené une étude portant sur les SSD.
Selon cette étude, il semble que certains S.M.A.R.T. Les attributs sont de bons indicateurs d'un échec imminent. Le document mentionne spécifiquement :
Nombre de secteurs réalloués (Realloc) :
Bien que la technologie sous-jacente soit radicalement différente, cet indicateur semble aussi important dans le monde des SSD qu'il ne l'était dans le monde des disques durs. Il convient de mentionner en raison des algorithmes de nivellement d'usure utilisés dans les SSD, lorsque plusieurs blocs commencent à échouer, il y a de fortes chances que beaucoup d'autres échouent bientôt. Nombre d'échecs de programme/effacement (P/E) :
Ceci est le symptôme d'un problème avec le matériel flash sous-jacent où le lecteur n'a pas pu effacer ou stocker des données dans un bloc. En raison des imperfections du processus de fabrication, peu d'erreurs de ce type peuvent être anticipées. Cependant, les mémoires flash ont un nombre limité de cycles d'effacement/écriture. Donc, encore une fois, une augmentation soudaine du nombre d'événements peut indiquer que le disque a atteint sa limite de fin de vie, et nous pouvons nous attendre à ce que de nombreuses autres cellules de mémoire échouent bientôt. Erreurs CRC et non corrigibles ("erreur de données") :
Ces événements peuvent être causés soit par une erreur de stockage, soit par des problèmes avec la liaison de communication interne du lecteur. Cet indicateur prend en compte à la fois corrigé erreurs (donc sans aucun problème signalé au système hôte) ainsi que non corrigées erreurs (bloque ainsi le lecteur a signalé qu'il était incapable de lire sur le système hôte). En d'autres termes, corrigeable les erreurs sont invisibles pour le système d'exploitation hôte, mais elles ont néanmoins un impact sur les performances du disque car les données doivent être corrigées par le micrologiciel du disque, et une éventuelle relocalisation du secteur peut se produire.Compte de rétrogradation SATA :
En raison de perturbations temporaires, de problèmes de liaison de communication entre le disque et l'hôte, ou de problèmes de disque interne, l'interface SATA peut basculer vers un taux de signalisation inférieur. Dégrader la liaison en dessous du débit de liaison nominal a un impact évident sur les performances observées du variateur. La sélection d'un taux de signalisation inférieur n'est pas rare, en particulier sur les disques plus anciens. Cet indicateur est donc le plus significatif lorsqu'il est corrélé à la présence d'un ou plusieurs des précédents.
Selon l'étude, 62 % des SSD défaillants montraient au moins l'un des symptômes ci-dessus. Cependant, si vous inversez cette affirmation, cela signifie également que 38 % des SSD étudiés ont échoué sans présentant l'un des symptômes ci-dessus. L'étude n'a cependant pas mentionné si les disques défectueux ont présenté d'autres S.M.A.R.T. échec signalé ou non. Cela ne peut donc pas être directement comparé aux 36 % de pannes sans préavis mentionnées pour les disques durs dans l'article de Google.
L'article de Microsoft/Pennsylvania State University ne divulgue pas les modèles de disques exacts étudiés, mais selon les auteurs, la plupart des disques proviennent du même fournisseur sur plusieurs générations.
L'étude a noté des différences significatives de fiabilité entre les différents modèles. Par exemple, le "pire" modèle étudié présente un taux d'échec de 20 % neuf mois après la première erreur de relocalisation et jusqu'à 36 % de taux d'échec neuf mois après la première occurrence d'erreurs de données. Le "pire" modèle se trouve également être l'ancienne génération de disques étudiée dans l'article.
En revanche, pour les mêmes symptômes, les disques appartenant à la plus jeune génération d'appareils n'affichent respectivement que 3% et 20% de taux d'échec pour les mêmes erreurs. Il est difficile de dire si ces chiffres peuvent s'expliquer par des améliorations dans la conception et le processus de fabrication des disques, ou s'il s'agit simplement d'un effet du vieillissement des disques.
Plus intéressant encore, et j'ai donné quelques raisons possibles plus tôt, l'article mentionne que, plutôt que la valeur brute, il s'agit d'une augmentation soudaine du nombre d'erreurs signalées qui devrait être considérée comme un indicateur alarmant :
“”” Il y a une probabilité plus élevée que les symptômes précèdent les défaillances du SSD, avec une manifestation intense et une progression rapide empêchant leur survie au-delà de quelques mois “””
En d'autres termes, un S.M.A.R.T. l'erreur signalée ne doit probablement pas être considérée comme un signal d'échec imminent. Cependant, lorsqu'un SSD en bon état commence à signaler de plus en plus d'erreurs, une défaillance à court ou moyen terme doit être anticipée.
Mais comment savoir si votre disque dur ou SSD est sain ? Soit pour satisfaire votre curiosité, soit parce que vous souhaitez commencer à surveiller de près vos disques, il est temps maintenant d'introduire le smartctl
outil de surveillance :
Utilisation de smartctl pour surveiller l'état de votre SSD sous Linux
Il existe des moyens de lister les disques sous Linux mais de surveiller le S.M.A.R.T. statut de votre disque, je suggère le smartctl
outil, partie de smartmontool
package (au moins sur Debian/Ubuntu).
sudo apt install smartmontools
smartctl
est un outil en ligne de commande, mais c'est parfait, surtout si vous souhaitez automatiser la collecte de données, sur vos serveurs notamment.
La première étape lors de l'utilisation de smartctl
est de vérifier si votre disque a S.M.A.R.T. activé et pris en charge par l'outil :
sh$ sudo smartctl -i /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Momentus 7200.4
Device Model: ST9500420AS
Serial Number: 5VJAS7FL
LU WWN Device Id: 5 000c50 02fa0b800
Firmware Version: D005SDM1
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Mon Mar 12 15:54:43 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Comme vous pouvez le voir, le disque dur interne de mon ordinateur portable a en effet S.M.A.R.T. capacités et S.M.A.R.T. la prise en charge est activée. Alors, qu'en est-il maintenant du S.M.R.T. statut? Des erreurs sont-elles enregistrées ?
Rapporter "toutes les informations SMART sur le disque" est le travail du -a
choix :
sh$ sudo smartctl -i -a /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Momentus 7200.4
Device Model: ST9500420AS
Serial Number: 5VJAS7FL
LU WWN Device Id: 5 000c50 02fa0b800
Firmware Version: D005SDM1
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Mon Mar 12 15:56:58 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
See vendor-specific Attribute list for marginal Attributes.
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 0) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 110) minutes.
Conveyance self-test routine
recommended polling time: ( 3) minutes.
SCT capabilities: (0x103f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 111 099 006 Pre-fail Always - 29694249
3 Spin_Up_Time 0x0003 100 098 085 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 095 095 020 Old_age Always - 5413
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 3
7 Seek_Error_Rate 0x000f 071 060 030 Pre-fail Always - 51710773327
9 Power_On_Hours 0x0032 070 070 000 Old_age Always - 26423
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 096 037 020 Old_age Always - 4836
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 072 072 000 Old_age Always - 28
188 Command_Timeout 0x0032 100 096 000 Old_age Always - 4295033738
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 056 042 045 Old_age Always In_the_past 44 (Min/Max 21/44 #22)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 184
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 104
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 395415
194 Temperature_Celsius 0x0022 044 058 000 Old_age Always - 44 (0 13 0 0 0)
195 Hardware_ECC_Recovered 0x001a 050 045 000 Old_age Always - 29694249
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 1
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 1
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 25131 (246 202 0)
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 3028413736
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 1613088055
254 Free_Fall_Sensor 0x0032 100 100 000 Old_age Always - 0
SMART Error Log Version: 1
ATA Error Count: 3
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 3 occurred at disk power-on lifetime: 21171 hours (882 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 08 ff ff ff 4f 00 00:45:12.580 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 00:45:12.580 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 00:45:12.579 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 00:45:12.571 READ FPDMA QUEUED
60 00 20 ff ff ff 4f 00 00:45:12.543 READ FPDMA QUEUED
Error 2 occurred at disk power-on lifetime: 21171 hours (882 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 00 ff ff ff 4f 00 00:45:09.456 READ FPDMA QUEUED
60 00 00 ff ff ff 4f 00 00:45:09.451 READ FPDMA QUEUED
61 00 08 ff ff ff 4f 00 00:45:09.450 WRITE FPDMA QUEUED
60 00 00 ff ff ff 4f 00 00:45:08.878 READ FPDMA QUEUED
60 00 00 ff ff ff 4f 00 00:45:08.856 READ FPDMA QUEUED
Error 1 occurred at disk power-on lifetime: 21131 hours (880 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 00 ff ff ff 4f 00 05:52:18.809 READ FPDMA QUEUED
61 00 00 7e fb 31 45 00 05:52:18.806 WRITE FPDMA QUEUED
60 00 00 ff ff ff 4f 00 05:52:18.571 READ FPDMA QUEUED
ea 00 00 00 00 00 a0 00 05:52:18.529 FLUSH CACHE EXT
61 00 08 ff ff ff 4f 00 05:52:18.527 WRITE FPDMA QUEUED
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 10904 -
# 2 Short offline Completed without error 00% 12 -
# 3 Short offline Completed without error 00% 0 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Comprendre la sortie de la commande smartctl
C'est beaucoup d'informations et il n'est pas toujours facile d'interpréter ces données. La partie la plus intéressante est probablement celle intitulée "Attributs SMART spécifiques au fournisseur avec seuils" . Il rapporte diverses statistiques recueillies par le S.M.A.R.T. périphérique et vous permet de comparer ces valeurs (actuelles ou les pires de tous les temps) avec un seuil défini par le fournisseur.
Par exemple, voici comment mon disque signale les secteurs déplacés :
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 3
Vous pouvez voir cela comme un attribut "pré-échec". Cela signifie simplement que cet attribut correspond à des anomalies. Donc, si cet attribut dépasse le seuil, cela pourrait être un indicateur d'échec imminent. L'autre catégorie est "Old_age" pour les attributs correspondant aux attributs "port normal".
Le dernier champ (ici "3") correspond à la valeur brute de cet attribut telle que rapportée par le variateur. Habituellement, ce nombre a une signification physique. Ici, c'est le nombre réel de secteurs déplacés. Cependant, pour d'autres attributs, il peut s'agir d'une température en degrés Celsius, d'une durée en heures ou minutes, ou du nombre de fois où le lecteur a rencontré une condition spécifique.
En plus de la valeur brute, un S.M.A.R.T. le variateur activé doit rapporter des valeurs « normalisées » (valeur des champs, pire et seuil). Ces valeurs sont normalisées dans la plage 1-254 (0-255 pour le seuil). Le micrologiciel du disque effectue cette normalisation à l'aide d'un algorithme interne. De plus, différents fabricants peuvent normaliser le même attribut différemment. La plupart des valeurs sont exprimées en pourcentage, la plus élevée étant la meilleure, mais ce n'est pas obligatoire. Lorsqu'un paramètre est inférieur ou égal au seuil fourni par le fabricant, le disque est dit en panne pour cet attribut. Avec toutes les réserves mentionnées dans la première partie de cet article, lorsqu'un attribut "pre-fail" a échoué, on peut supposer qu'une panne de disque est imminente.
Comme deuxième exemple, examinons le "taux d'erreur de recherche":
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
7 Seek_Error_Rate 0x000f 071 060 030 Pre-fail Always - 51710773327
En fait, et c'est un problème avec S.M.A.R.T. rapports, la signification exacte de chaque valeur est spécifique au fournisseur. Dans mon cas, Seagate utilise une échelle logarithmique pour normaliser la valeur. Ainsi, "71" signifie environ une erreur pour 10 millions de recherches (10 à la puissance 7,1). Curieusement, le pire de tous les temps était une erreur pour 1 million de recherches (10 à la puissance 6,0). Si j'interprète cela correctement, cela signifie que mes têtes de disque sont positionnées avec plus de précision maintenant qu'elles ne l'étaient par le passé. Je n'ai pas suivi ce disque de près, donc cette analyse est sujette à caution. Peut-être que le variateur avait juste besoin d'une période de rodage lors de sa première mise en service ? A moins que ce ne soit une conséquence de l'usure des pièces mécaniques, et donc s'opposer à moins de frottements aujourd'hui ? Dans tous les cas, et quelle qu'en soit la raison, cette valeur est plus un indicateur de performance qu'une alerte précoce de panne. Donc ça ne me dérange pas beaucoup.
En plus de cela, et de trois erreurs suspectes enregistrées il y a environ six mois, ce lecteur apparaît dans des conditions étonnamment bonnes (selon S.M.A.R.T.) pour un lecteur d'ordinateur portable d'origine qui a été allumé pendant plus de 1 100 jours (26 423 heures) :
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
9 Power_On_Hours 0x0032 070 070 000 Old_age Always - 26423
Par curiosité, j'ai fait le même test sur un portable beaucoup plus récent équipé d'un SSD :
sh$ sudo smartctl -i /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Device Model: TOSHIBA THNSNK256GVN8
Serial Number: 17FS131LTNLV
LU WWN Device Id: 5 00080d 9109b2ceb
Firmware Version: K8XA4103
User Capacity: 256 060 514 304 bytes [256 GB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: Solid State Device
Form Factor: M.2
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: ACS-3 (minor revision not indicated)
SATA Version is: SATA 3.2, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Tue Mar 13 01:03:23 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
La première chose à remarquer, même si cet appareil est S.M.AR.T. activé, il n'est pas dans le smartctl
base de données. Cela n'empêchera pas l'outil de collecter des données à partir du SSD, mais il ne pourra pas rapporter la signification exacte des différents attributs spécifiques au fournisseur :
sh$ sudo smartctl -a /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 120) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 11) minutes.
SCT capabilities: (0x003d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000a 100 100 000 Old_age Always - 0
2 Throughput_Performance 0x0005 100 100 050 Pre-fail Offline - 0
3 Spin_Up_Time 0x0007 100 100 050 Pre-fail Always - 0
5 Reallocated_Sector_Ct 0x0013 100 100 050 Pre-fail Always - 0
7 Unknown_SSD_Attribute 0x000b 100 100 050 Pre-fail Always - 0
8 Unknown_SSD_Attribute 0x0005 100 100 050 Pre-fail Offline - 0
9 Power_On_Hours 0x0012 100 100 000 Old_age Always - 171
10 Unknown_SSD_Attribute 0x0013 100 100 050 Pre-fail Always - 0
12 Power_Cycle_Count 0x0012 100 100 000 Old_age Always - 105
166 Unknown_Attribute 0x0012 100 100 000 Old_age Always - 0
167 Unknown_Attribute 0x0022 100 100 000 Old_age Always - 0
168 Unknown_Attribute 0x0012 100 100 000 Old_age Always - 0
169 Unknown_Attribute 0x0013 100 100 010 Pre-fail Always - 100
170 Unknown_Attribute 0x0013 100 100 010 Pre-fail Always - 0
173 Unknown_Attribute 0x0012 200 200 000 Old_age Always - 0
175 Program_Fail_Count_Chip 0x0013 100 100 010 Pre-fail Always - 0
192 Power-Off_Retract_Count 0x0012 100 100 000 Old_age Always - 18
194 Temperature_Celsius 0x0023 063 032 020 Pre-fail Always - 37 (Min/Max 11/68)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
240 Unknown_SSD_Attribute 0x0013 100 100 050 Pre-fail Always - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Il s'agit généralement de la sortie à laquelle vous pouvez vous attendre pour un tout nouveau SSD. Même si, en raison du manque de normalisation ou de méta-informations pour les données spécifiques au fournisseur, de nombreux attributs sont signalés comme "Unknown_SSD_Attribute". J'espère seulement que les futures versions de smartctl
incorporera des données relatives à ce modèle de lecteur particulier dans la base de données de l'outil, afin que je puisse identifier plus précisément les problèmes éventuels.
Testez votre SSD sous Linux avec smartctl
Jusqu'à présent, nous avons examiné les données collectées par le lecteur lors de son fonctionnement normal. Cependant, le S.M.A.R.T. prend également en charge plusieurs commandes "d'auto-tests" pour lancer un diagnostic à la demande.
Sauf demande explicite, les auto-tests peuvent s'exécuter pendant les opérations normales du disque. Étant donné que les demandes d'E/S de test et de l'hôte seront en concurrence pour le lecteur, les performances du disque se dégraderont pendant le test. Le S.M.A.R.T. spécification spécifie plusieurs types d'auto-test. Les plus importants sont :
Autotest court (-t short
)
Ce test vérifiera les performances électriques et mécaniques ainsi que les performances de lecture du variateur. L'auto-test court ne nécessite généralement que quelques minutes (2 à 10 généralement). Auto-test étendu (-t long
)
Ce test prend un ou deux ordres de grandeur plus long à compléter. Il s'agit généralement d'une version plus approfondie de l'autotest court. De plus, ce test analysera toute la surface du disque à la recherche d'erreurs de données sans limite de temps. La durée du test sera proportionnelle à la taille du disque. Autotest de transport (-t conveyance
)
cette suite de tests est conçue comme un moyen relativement rapide de vérifier les éventuels dommages subis lors du transport de l'appareil.
Voici des exemples tirés des mêmes disques que ci-dessus. Je vous laisse deviner lequel est lequel :
sh$ sudo smartctl -t short /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Short self-test routine immediately in off-line mode".
Drive command "Execute SMART Short self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 2 minutes for test to complete.
Test will complete after Mon Mar 12 18:06:17 2018
Use smartctl -X to abort test.
Le test a maintenant été énoncé. Attendons la fin pour afficher le résultat :
sh$ sudo sh -c 'sleep 120 && smartctl -l selftest /dev/sdb'
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 171 -
Faisons maintenant le même test sur mon autre disque :
sh$ sudo smartctl -t short /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Short self-test routine immediately in off-line mode".
Drive command "Execute SMART Short self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 2 minutes for test to complete.
Test will complete after Mon Mar 12 21:59:39 2018
Use smartctl -X to abort test.
Encore une fois, dormez pendant deux minutes et affichez le résultat du test :
sh$ sudo sh -c 'sleep 120 && smartctl -l selftest /dev/sdb'
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 26429 -
# 2 Short offline Completed without error 00% 10904 -
# 3 Short offline Completed without error 00% 12 -
# 4 Short offline Completed without error 00% 0 -
Fait intéressant, dans ce cas, il semble que le lecteur et les fabricants d'ordinateurs semblent avoir effectué quelques tests rapides sur le disque (à durée de vie 0h et 12h). Je était certainement beaucoup moins préoccupé par la surveillance de la santé du lecteur moi-même. Donc, puisque j'exécute des auto-tests pour cet article, commençons un étendu testez donc comment ça se passe :
sh$ sudo smartctl -t long /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Extended self-test routine immediately in off-line mode".
Drive command "Execute SMART Extended self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 110 minutes for test to complete.
Test will complete after Tue Mar 13 00:09:08 2018
Use smartctl -X to abort test.
Apparently, this time we will have to wait much longer than for the short test. So let’s do it:
sh$ sudo bash -c 'sleep $((110*60)) && smartctl -l selftest /dev/sdb'
[sudo] password for sylvain:
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed: read failure 20% 26430 810665229
# 2 Short offline Completed without error 00% 26429 -
# 3 Short offline Completed without error 00% 10904 -
# 4 Short offline Completed without error 00% 12 -
# 5 Short offline Completed without error 00% 0 -
In that latter case, pay special attention to the different outcomes obtained with the short and extended tests, even if they were performed one right after the other. Well, maybe that disk is not that healthy after all! An important thing to notice is the test will stop after the first read error. So if you want an exhaustive diagnosis of all read errors, you will have to continue the test after each error. I encourage you to take a look at the very well written smartctl(8) manual page for the more information about the options -t select,N-max
and -t select,cont
for that:
sh$ sudo smartctl -t select,810665230-max /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Selective self-test routine immediately in off-line mode".
SPAN STARTING_LBA ENDING_LBA
0 810665230 976773167
Drive command "Execute SMART Selective self-test routine immediately in off-line mode" successful.
Testing has begun.
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Selective offline Completed without error 00% 26432 -
# 2 Extended offline Completed: read failure 20% 26430 810665229
# 3 Short offline Completed without error 00% 26429 -
# 4 Short offline Completed without error 00% 10904 -
# 5 Short offline Completed without error 00% 12 -
# 6 Short offline Completed without error 00% 0 -
Conclusion
Definitely, S.M.A.R.T. reporting is a technology you can add to your tool chest to monitor your servers disk health. In that case, you should also take a look at the S.M.A.R.T. Disk Monitoring Daemon smartd(8) that could help you automate monitoring through syslog reporting.
Given the statistical nature of failure prediction, I am a little bit less convinced however than aggressive S.M.A.R.T. monitoring is of great benefit on a personal computer. Finally, don’t forget whatever is its technology, a drive will fail— and we have seen earlier, in one-third of the case, it will fail without prior notices. So nothing will replace RAIDand offline backups to ensure your data integrity!
This article was written by Sylvain Leroux