Mdadm est un composant sous Linux qui permet de faire du RAID logiciel doté d’excellentes performances. Je l’utilise avec succès depuis plusieurs années pour assurer de la redondance de disques de manière souple. Mais quand un array RAID refuse de s’assembler, c’est toujours délicat…
Description de la situation
Cette page montre comment le ré-assemblage d’un RAID 1+0 a été effectué sur une grappe mdadm arrêtée brutalement par une coupure de courant, et qui ne s’est pas re-montée comme d’habitude au reboot. Ce RAID ne contient pas le système de fichiers racine ni le /boot, ce qui simplifie les choses.
Le fichier mdstat ne contient rien de probant (ci-dessous).
1 2 |
root@srv:~# cat /proc/mdstat unused devices: <none> |
Étapes du ré-assemblage
État des lieux
On commence par examiner les disques qui composent nos RAID comme suit. Pour commencer on regarde les UUID des disques durs connectés.
1 2 3 4 5 |
root@srv:~/# blkid /dev/sde: UUID="349378d2-a685-8166-a7a0-fe70a1d1e3c9" UUID_SUB="c9f98d60-b5ff-32ad-9f4d-345ce1751b47" LABEL="srv:4" TYPE="linux_raid_member" /dev/sdb: UUID="8209c3b3-f67a-c012-a2ae-8e84f5b294b3" UUID_SUB="706e1c8c-26cb-62fe-9d87-d87dbbf548b4" LABEL="srv:3" TYPE="linux_raid_member" /dev/sdd: UUID="349378d2-a685-8166-a7a0-fe70a1d1e3c9" UUID_SUB="b0d3e917-1b46-b39b-84a9-8e4077d41e5f" LABEL="srv:4" TYPE="linux_raid_member" /dev/sdc: UUID="8209c3b3-f67a-c012-a2ae-8e84f5b294b3" UUID_SUB="4879ed36-940b-88ad-2a3a-de056c5bdcae" LABEL="srv:3" TYPE="linux_raid_member" |
Premier disque :
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 |
root@srv:~/# mdadm --examine /dev/sdb /dev/sdb: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 8209c3b3:f67ac012:a2ae8e84:f5b294b3 Name : srv:3 (local to host srv) Creation Time : Tue Dec 15 21:00:20 2015 Raid Level : raid1 Raid Devices : 2 Avail Dev Size : 1953263024 (931.39 GiB 1000.07 GB) Array Size : 976631360 (931.39 GiB 1000.07 GB) Used Dev Size : 1953262720 (931.39 GiB 1000.07 GB) Data Offset : 262144 sectors Super Offset : 8 sectors State : clean Device UUID : 706e1c8c:26cb62fe:9d87d87d:bbf548b4 Update Time : Wed Feb 28 05:02:51 2018 Checksum : 337e01a1 - correct Events : 579 Device Role : Active device 0 Array State : AA ('A' == active, '.' == missing) |
Second disque :
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 |
root@srv:~/# mdadm --examine /dev/sdc /dev/sdc: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 8209c3b3:f67ac012:a2ae8e84:f5b294b3 Name : srv:3 (local to host srv) Creation Time : Tue Dec 15 21:00:20 2015 Raid Level : raid1 Raid Devices : 2 Avail Dev Size : 1953263024 (931.39 GiB 1000.07 GB) Array Size : 976631360 (931.39 GiB 1000.07 GB) Used Dev Size : 1953262720 (931.39 GiB 1000.07 GB) Data Offset : 262144 sectors Super Offset : 8 sectors State : clean Device UUID : 4879ed36:940b88ad:2a3ade05:6c5bdcae Update Time : Wed Feb 28 05:02:51 2018 Checksum : 100d6525 - correct Events : 579 Device Role : Active device 1 Array State : AA ('A' == active, '.' == missing) |
Troisième disque :
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 |
root@srv:~/# mdadm --examine /dev/sdd /dev/sdd: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 349378d2:a6858166:a7a0fe70:a1d1e3c9 Name : srv:4 (local to host srv) Creation Time : Tue Dec 15 21:00:45 2015 Raid Level : raid1 Raid Devices : 2 Avail Dev Size : 1953263024 (931.39 GiB 1000.07 GB) Array Size : 976631360 (931.39 GiB 1000.07 GB) Used Dev Size : 1953262720 (931.39 GiB 1000.07 GB) Data Offset : 262144 sectors Super Offset : 8 sectors State : clean Device UUID : b0d3e917:1b46b39b:84a98e40:77d41e5f Update Time : Wed Feb 28 05:02:51 2018 Checksum : 3f5e8785 - correct Events : 548 Device Role : Active device 0 Array State : AA ('A' == active, '.' == missing) |
Quatrième disque
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 |
root@srv:~/raid# mdadm --examine /dev/sde /dev/sde: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 349378d2:a6858166:a7a0fe70:a1d1e3c9 Name : srv:4 (local to host srv) Creation Time : Tue Dec 15 21:00:45 2015 Raid Level : raid1 Raid Devices : 2 Avail Dev Size : 1953263024 (931.39 GiB 1000.07 GB) Array Size : 976631360 (931.39 GiB 1000.07 GB) Used Dev Size : 1953262720 (931.39 GiB 1000.07 GB) Data Offset : 262144 sectors Super Offset : 8 sectors State : clean Device UUID : c9f98d60:b5ff32ad:9f4d345c:e1751b47 Update Time : Wed Feb 28 05:02:51 2018 Checksum : 9d24acbe - correct Events : 548 Device Role : Active device 1 Array State : AA ('A' == active, '.' == missing) |
Les disques indépendants sont déjà reconnus comme étant membre d’un RAID, c’est une première avancée.
Assemblage
Première méthode automatique
Les commandes habituelles pour ré-assembler un RAID automatiquement sont mdadm --assemble --scan pour l’assemblage et mdadm --detail --scan pour extraire un récapitulatif utilisable en tant que fichier de configuration. Dans le cas présent ces deux commandes ont échoué.
Seconde méthode explicite
Pour spécifier les devices des grappes RAID ainsi que leurs disques constitutifs, voici comment j’ai procédé.
1 2 3 4 |
root@srv:~/# mdadm --assemble /dev/md0 /dev/sdb /dev/sdc root@srv:~/# mdadm --assemble /dev/md1 /dev/sdd /dev/sde root@srv:~/# mdadm --assemble /dev/md2 /dev/md0 /dev/md1 root@srv:~/# cat /proc/mdstat |
Troisième méthode forcée
On trouve parfois des suggestions qui consistent à lancer la commande de création d’un RAID (avec les mêmes options que le RAID à réassembler) en spécifiant les disques ainsi que l’option --assume-clean .
Cette méthode fonctionne apparemment dans certains cas mais elle est également très risquée. Je ne tenterai pas à moins d’avoir sauvegardé tous les disques en copie bloc à bloc.
Le wiki RAID du noyau Linux déconseille cette méthode à moins d’être guidé par un expert.
Bonjour,
Déjà merci pour ce tuto qui est celui qui m’a le plus aidé en 2jours de recherche !
Néanmoins j’ai effectivement suivit votre procédure mais lors que je fais un
cat /proc/mdadm
Je vois toujours mon « ancien » raid en « unused devices: » en plus du nouveau …
.
Que dois je faire ? car mon debian se lance toujours en mode recovery
Bonjour, pour commencer si vous avez besoin d’une prestation plus que de conseils écrits, c’est possible (tél 01 85 47 02 25).
Cet article décrit le ré-assemblage d’une grappe RAID réputée saine et ce n’est pas exactement votre cas de figure.
Vous pouvez donner votre /proc/mdadm pour que je me fasse une idée ?
Vous devez vérifier que vos disques durs sont en bon état (au minimum avec vérif des logs et smartmontools).
Ensuite pour retirer un disque d’une grappe, c’est une commande comme ceci :
mdadm --manage /dev/mdX --remove /dev/sdY
.Pour ajouter un disque à une grappe, la commande sera du type
mdadm --manage /dev/mdX --add /dev/sdY
. Le disque ainsi ajouté sera ré-écrit avec les données de parité (si RAID5) ou les données du miroir (si RAID1).Vous ne devez surtout pas rester en mode dégradé car alors la redondance de données n’existe plus.
Salut,
ça fait quelques jours que j’essaye de comprendre comment reconstruire un RAID 5 dont un des trois disques (sdc) est tombé en panne.
La grappe raid5 en question est sur le dev md3 dont voici le résultat de la commande mdadm –detail
# mdadm --detail /dev/md3
/dev/md3:
Version : 01.00
Creation Time : Tue Sep 4 17:28:03 2012
Raid Level : raid5
Used Dev Size : 1948132544 (1857.88 GiB 1994.89 GB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 3
Persistence : Superblock is persistent
Update Time : Wed Sep 2 12:40:37 2020
State : active, degraded, Not Started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : vhs-4:3 (local to host vhs-4)
UUID : f97a40d6:6eb5c56d:ee9950fb:c496bea5
Events : 473637
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3
2 0 0 2 removed
Il voit bien qu’il avait 3 partitions, la 3ème a été enlevée (removed)
J’ai mis un nouveau disque dur de la même taille, que j’ai partitionné de la même façon que sda et sdb mais je n’arrive pas à l’ajouter au RAID
Quand je fais un parted print sur sdc j’ai ce résultat :
(parted) print
Model: ATA ST2000DL003-9VT1 (scsi)
Disk /dev/sdc: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 20.5kB 510MB 510MB linux-swap(v1) primary raid
2 511MB 5510MB 5000MB ext4 primary boot
3 5510MB 2000GB 1995GB ext4 primary raid
sur sda, qui est reconnue par le raid j’ai ça :
Model: ATA WDC WD20EARX-00P (scsi)
Disk /dev/sda: 2000GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Number Start End Size File system Name Flags
1 20.5kB 510MB 510MB linux-swap(v1) primary raid
2 510MB 5511MB 5001MB ext4 primary boot
3 5511MB 2000GB 1995GB primary raid
quand je fais un mdadm examine sur sdc3 j’ai ce résultat bizarre :
mdadm --examine /dev/sdc3
/dev/sdc3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : f97a40d6:6eb5c56d:ee9950fb:c496bea5
Name : vhs-4:3 (local to host vhs-4)
Creation Time : Tue Sep 4 17:28:03 2012
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3896266480 (1857.88 GiB 1994.89 GB)
Array Size : 7792530176 (3715.77 GiB 3989.78 GB)
Used Dev Size : 3896265088 (1857.88 GiB 1994.89 GB)
Super Offset : 3896266736 sectors
State : active
Device UUID : 056cc8ba:51eee26c:93211e7a:58bc18fe
Update Time : Wed Sep 2 12:40:37 2020
Checksum : c4150a1e - correct
Events : 0
Layout : left-symmetric
Chunk Size : 64K
Array Slot : 3 (0, 1, failed)
Array State : uu_ 1 failed
Comme si il était monté sur le raid5 md3 alors qu’il n’y figure pas
donc je ne peux pas le déclarer « fail » et l’enlever « remove » pour l’ajouter afin de reconstruire le raid
si je fais
mdadm /dev/md3 --add /dev/sdc3
j’ai ce résultat :mdadm: add new device failed for /dev/sdc3 as 3: Invalid argument
Bonjour,
Pour remplacer un disque dur d’un RAID défaillant, l’article qui se rapproche le plus est Remplacement d’un disque dur avec mdadm […] avec la procédure set-faulty/remove/add.
Il me semble que vous avez oublié –manage dans votre commande d’ajout de disque, d’où le message d’erreur « Invalid argument ».
Cordialement
Merci pour votre réponse rapide.
avec –manage ça fait exactement le même résultat.
comme je le disais dans mon dernier post, mais sans doute je me suis mal exprimé (« je ne peux pas le déclarer fail »), impossible d’utiliser set-faulty puisque la partition fautive est en statut removed, donc elle n’est plus dans la table des partitions du raid5 :
mdadm --manage /dev/md3 --set-faulty /dev/sdc3
mdadm: set device faulty failed for /dev/sdc3: No such device
Je suis allé voir votre lien, mais je connaissais cette procédure, le problème c’est qu’elle ne fonctionne pas chez moi.
J’ai un accès ssh root, sur mon nas que je peux donner en privé …
info peut-être pertinente pour voir le contenu de /proc/mdstat :
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md3 : inactive sda3[0] sdb3[1]
3896265184 blocks super 1.0
md1 : active raid1 sda1[0] sdb1[2] sdc1[3]
498016 blocks super 1.0 [3/3] [UUU]
md0 : active raid1 sda2[0] sdb2[2]
4883776 blocks super 1.0 [3/2] [UU_]
unused devices:
il semble qu’il y a dans ce NAS un montage de raid1 sur du raid5 (ou inverse)
chaque disk est partitioné ainsi :
Number Start End Size File system Name Flags
1 20.5kB 510MB 510MB linux-swap(v1) primary raid
2 510MB 5511MB 5001MB ext4 primary boot
3 5511MB 2000GB 1995GB primary raid
Ok, je crois que je tiens la réponse.
Avant toute chose, rappelons la nécessité de sauvegarder intégralement vos données avant de toucher à vos grappes RAID, car c’est vous le seul responsable du succès ou de l’échec de ce que vous allez tenter, à savoir récupération ou perte totale des données.
Les commandes suivantes sont des pistes données à titre indicatif. N’importe qui peut faire une bêtise qui conduit à une perte totale des données, y compris moi !
Ensuite, le partitionnement de vos disques doit être identique, en particulier pour sdc, le nouveau venu. Si sdc a déjà été utilisé ailleurs il aurait été bien de faire préalablement
mdadm --zero-superblock /dev/sdc
.Il semblerait que vos disques soient différents avec des tailles de secteurs différents (512o et 4K). Cela n’est pas idéal, mais pas bloquant non plus.
Vous avez md0 qui est un RAID1 active mais dégradé (disque manquant) avec sda2+sdb2 au lieu de sda2+sdb2+sdc2
Pour ajouter un disque à la grappe :
mdadm --manage /dev/md0 --add /dev/sdc2
Il y a md1 qui est un RAID1 active et non-dégradé sda1+sdb1+sdc1. Apparemment vous l’avez déjà rétabli.
Et pour md3 qui est un RAID5 il est apparemment active (assemblé), degraded (disque manquant) et non started.
Je ne vois pas comment il peut être active mais non-started.
On va le rendre started (source ici). Si cela fonctionne, il n’y a plus qu’à faire le
--add
.mdadm --run /dev/md3
En cas d’échec on pourrait repartir à zéro : le stopper et le ré-assembler (dans un premier temps essayer sans) :
mdadm --stop /dev/md3
Pour l’assembler et l’activer :
mdadm --assemble --force /dev/md3 /dev/sda3 /dev/sdb3
Pour le reconstruire :
mdadm --manage /dev/md3 --add /dev/sdc3
La page suivante semble aller plus loin sur un problème similaire.
Et cet autre article qui fait du
--assemble --run
que je ne connaissais pas.Merci Paul pour ta réponse et l’intérêt que tu portes à mon problème
J’ai une trouille immense avec cette commande :
mdadm –assemble –force /dev/md3 /dev/sda3 /dev/sdb3
avec le –force je ne risque pas de perdre toutes mes données ?
Je crois que j’essayerai d’abord le mdadm –run avant de tester le mdadm –assemble –run ou mdadm –assemble –force.
A mon avis ces commandes n’engendreront pas de perte de données, mais le risque existe 🙂
pour le raid1 md0, je l’avais fait, mais j’ai cette erreur
mdadm –manage /dev/md0 –add /dev/sdc2
mdadm: /dev/sdc2 not large enough to join array
désolé d’être aussi « dégradé » moi même, mais comment faire pour sauvegarder intégralement 2 disques de 2t ? une copie physique intégrale avec l’aide d’un lecteur externe en USB ? avec quel outil ? sur un disque 4t formaté est-ce viable ou faut-il forcément deux disques de 2t ?
et dans l’état actuel de mes disques où puis-je retrouver les données ? où figurent-elles physiquement ? Y-a-t-il un moyen de vérifier si elles sont existantes et encore intègres ?
et pour cette commande de remise à zéro de SDC j’ai cette erreur :
mdadm –zero-superblock /dev/sdc
mdadm: Couldn’t open /dev/sdc for write – not zeroing
Je galère grave, heureusement que vous êtes sympa, merci !!!
Le message d’erreur semble signifier que sdc n’a pas autant d’octets allouables que sda et sdb. Vérifier avec
fdisk -l
.On peut sauvegarder 2 disques de 2 To en mode bloc avec la commande
dd
sur un disque de plus de 4 To, donc de 6 To.Exemple :
dd if=/dev/sda of=/chemin/vers/fichier-image.img bs=100M status=progress
Si j’étais vous, je chercherais à démarrer le RAID en mode dégradé, puis sauvegarde des données en mode fichiers (avec cp ou rsync) puis re-création d’un RAID neuf avec des disques identiques.
beh finalement, j’ai lancé la commande -assemble –force et ensuite –add sdc3, et le raid5 en train de reconstruire le 3ème disque
Suspense intense, je dois attendre au moins 24h pour savoir si il va retrouver toutes mes données !!
Si c’est le cas, faudra que je t’envoie une bouteille de champagne (ou autre, tout le monde n’aime pas forcément le champagne !!!)
Cela semble être en bonne voie !
Il n’y a pas de nécessité de reconstruire le RAID5 pour le monter et voir les données car le RAID5 tolère 1 disque en moins. Par contre, à ce stade il vaut mieux attendre la reconstruction car les disques sont très sollicités.
Tu peux suivre l’avancement de la reconstruction avec
watch cat /proc/mdstat
.Le Champagne est une excellente idée, merci, c’est très aimable à toi !
CHAMPAGNE !! ça a marché, j’ai retrouvé toutes mes partoches, mes arrangements etc .. tout mon taf d’une vingtaine d’année
MERCI PAUL !!!
Je suis ravi d’apprendre cette bonne nouvelle !
Maintenant, je vous conseille de :
– Sauvegarder toutes vos données sur un autre support (BluRay, DD externe, autre NAS…). Le RAID n’est pas une sauvegarde (article ici).
– Utiliser si possible des disques du même modèle dans vos arrays.
– Désynchroniser l’usure des disques d’une même grappe en faisant au moins 1 rotation au bout de 1 an.
– Exploiter les données SMART (article ici).
Je suis d’accord pour le champagne 😉
Bonne continuation !
bonjour Paul
J’ai eu aussi une malheureuse expérience avec un RAID qui est tombé suite à un crash système dans un boitier NAS QNAP.
C’est un groupe RAID composé de :
– RAID 10 : 4x4To
– RAID 1 : 2x256Go SSD en tiering QTier
Il y avait dessus un Storage Pool composé de deux volumes.
Le NAS a rendu l’âme, carte mère ou CPU,; donc je l’ai changé avec un autre modèle.
En remontant les disques sur le nouveau boitier, le RAID était au statut inactive, mais semblait encore bien assemblé.
J’ai utilisé des commandes diverses provenant de qq forums dont celui ci.
Je vais épargner la rédaction de ma longue et douloureuse découverte des commandes mdadm pour remonter un RAID défaillant (je viens d’un monde Windows sans XP sur les RAID mis à part la création).
Mais après 3 semaines d’efforts, j’ai réussi à remonter mon RAID et récupérer une partie de mes données.
Par contre, je n’ai récupéré qu’un volume sur les deux, la moins importante pour moi malheureusement.
Du coup, je ne sais pas comment forcer la main à mdadm pour retrouver ce volume qui semble encore bien présent qq part. Là par exemple, si j’utilise un outil de récupération de données comme reclaime, il voit bien les données de façon brute, mais je n’arrive pas à restaurer le volume, en tout cas, je pense que l’outil ne sait pas le faire, mais en plus il est payant, donc, je ne peux pas récupérer les fichiers.
les commandes comme pvscan, lvscan, lvdisplay ne donnent pas d’info sur ce volume disparu
avec lvdislay on obtient
[admin@19:04:33 / ~]: lvdisplay
WARNING: Device for PV q3Y8CI-XAQl-q7we-bnTX-fFnl-IWx4-8iLXVw not found or rejected by a filter.
— Logical volume —
LV Name tp1
VG Name vg1
LV UUID P9WLjL-TNd2-yozI-Z1dS-1H6s-dYgL-rkv0DX
LV Write Access read/write
LV Creation host, time NAS0F5A6B, 2019-06-08 09:46:45 +0200
LV Pool metadata tp1_tmeta
LV Pool data tp1_tierdata_0
LV Status NOT available
LV Size 7.20 TiB
Current LE 1888237
Segments 1
Allocation inherit
Read ahead sectors auto
— Logical volume —
LV Path /dev/vg1/lv2
LV Name lv2
VG Name vg1
LV UUID uJaJOC-VD97-Hgug-239W-Vopj-sxqn-22tezL
LV Write Access read/write
LV Creation host, time NAS0F5A6B, 2019-06-08 18:27:01 +0200
LV Pool name tp1
LV Status NOT available
LV Size 2.00 TiB
Current LE 524288
Segments 1
Allocation inherit
Read ahead sectors 8192
— Logical volume —
LV Path /dev/vg1/tmeta_bak
LV Name tmeta_bak
VG Name vg1
LV UUID 2eIYSL-4cgN-bCdi-zbUq-EpeD-4NS4-ra5hGs
LV Write Access read/write
LV Creation host, time NAS0F5A6B, 2019-06-08 09:46:45 +0200
LV Status available
# open 0
LV Size 64.00 GiB
Current LE 16384
Segments 1
Allocation inherit
Read ahead sectors auto
– currently set to 4096
Block device 253:0
— Logical volume —
LV Path /dev/vg1/lv1312
LV Name lv1312
VG Name vg1
LV UUID EhnGm1-oYZv-0Biv-qWwf-ZJk4-0Rx0-GHwy9M
LV Write Access read/write
LV Creation host, time NAS0F5A6B, 2019-06-09 20:53:33 +0200
LV Status NOT available
LV Size 776.00 MiB
Current LE 194
Segments 1
Allocation inherit
Read ahead sectors 8192
Ma requête était de savoir s’il existait un moyen pour retrouver ou bien forcer la main au système (en modifiant certaines config) pour retrouver ce volume (lv1) disparu.
Merci de vos conseils par avance.
Bonjour,
Visiblement votre grappe de disques durs utilise LVM en plus du RAID. Nous sortons donc du cadre théorique de cet article.
Pour vous aider, je pense qu’il faudrait vous orienter vers un expert Linux ou expert NAS QNAP. La plupart des intégrateurs de ce type de matériel n’ont aucune compétence en administration système, puisque leur valeur ajoutée est précisément la facilité d’utilisation.
Bien cordialement
bonsoir
Je n’avais pas vu votre réponse, je n’ai pas reçu de notifs. merci de votre aide tout de même.
Les expert QNAP n’ont pas été bien loin dans la tentative de récupération.
Le support que j’ai eu a vite abandonné.
J’ai quand même avancé, j’ai bien pu remonter le groupe de RAID, et j’ai pu récupérer 1 volume sur les 2. J’ai pu récupérer les données de ce volume.
Par contre, pour l’autre, je suis bloqué sur une erreur générique
« device-mapper: reload ioctl on (253:12) failed: No data available »
en gros, il n’arrive pas à activer ce volume, pourtant, il l’a bien vu, et connait sa taille, mais quelque chose d’autres bloque.
Bonjour,
Je profite de votre lumières…
J’hésite un peu aussi avant de lancer la commande…
j’ai ça :
[~] # cat /proc/mdstat
Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]
md1 : inactive sdb3[6](S) sdd3[5](S) sdc3[4](S)
11716348668 blocks super 1.0
md4 : active raid1 sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]
530128 blocks super 1.0 [2/2] [UU]
md13 : active raid1 sdd4[6] sdc4[5] sdb4[4] sda4[0]
458880 blocks super 1.0 [4/4] [UUUU]
bitmap: 1/8 pages [4KB], 32KB chunk
md9 : active raid1 sdd1[4] sdc1[5] sdb1[6] sda1[0]
530112 blocks super 1.0 [4/4] [UUUU]
bitmap: 0/9 pages [0KB], 32KB chunk
unused devices:
il me manque le disque sda3.
pensez vous que la commande « mdadm –assemble –run /dev/md1 /dev/sdb3 /dev/sdc3 /dev/sdd3
» est appropriée ?
Merci
Bonjour,
Encore une fois, toute opération d’administration sur un RAID dégradé est dangereuse et vous devez donc disposer d’une sauvegarde.
Quel est le niveau de RAID de md1 ? Les 3 disques s’affichent en spare (S) ce qui est à coté de la plaque. Je tenterais probablement de le stopper (–stop) pour ensuite l’assembler (–assemble) avec potentiellement 1 ou plusieurs disques absents selon le niveau de RAID.
Par ailleurs je trouve curieux que md13 et md9 soient des raid1 à 4 disques.
Cordialement
Bonjour, je débute la dedans je le reconnais et j’avoue hésiter a utiliser cette commande mdadm –assemble –scan un risque pour les données ou non en effet j’ai un raid 5 composé de 6 disques, un m’a lâchement quitté, accès partiel a des dossiers partagés mais pas grand chose dedans, ps je précise que j’ai pas de sauvegarde comment je peux la faire, j’ai tenté de cloner les disque de mon raid avec Acronis true image il me dit disque non initialisé o_0 alors j’hésite
Merci à toi pour ton retour
Bonne journée
Bonjour, le
mdadm –assemble –scan
est la commande normale pour assembler un RAID MDADM.Si le RAID5 fonctionne en mode normal ou dégradé, vous avez accès à 100% des données. Si le RAID5 n’est pas assemblé, vous avez accès à rien du tout.
Effectivement il peut être rassurant de faire une copie octet par octet de chaque disque avec l’outil dd ou équivalent. Le volume logique cible pourrait être un LVM, un zvol ZFS compressé, ou encore une image RAW convertie en qcow2 puis compressée. Mais il faut beaucoup d’espace.
Enfin il y a toujours un risque en manipulant des données, c’est pourquoi il faut toujours sauvegarder.
Bonne journée