- Fedora-Fr
- À propos de Fedora-Fr
- Historique
- Statistiques
- Télécharger
- Obtenir Fedora
- Toutes les méthodes de téléchargement
- Sous-projets
- Muffin
- Plateforme de blog
Dernière news : Un nouveau logo pour Fedora ?
Bonjour à tous,
suite à un upgrade dnf de ma machine mon /home n'est plus monté (tout le reste c'est bien passé)
Ma config :
1 raid 1 mdadm avec 2 disques /dev/sdb1 et /dev/sdc1 qui forment un /dev/md127
1 volume group vg-asterix-00 sur le /dev/md127
1 logical volume lv-home sur le vg-asterix00
ce que je vois:
[root@localhost ~]# vgscan
WARNING: found device with duplicate /dev/sdc1
WARNING: found device with duplicate /dev/md127
WARNING: Disabling lvmetad cache which does not support duplicate PVs.
WARNING: Scan found duplicate PVs.
WARNING: Not using lvmetad because cache update failed.
Reading all physical volumes. This may take a while...
WARNING: Not using device /dev/md127 for PV e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL.
WARNING: PV e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL prefers device /dev/sdb1 because of previous preference.
Found volume group "vg_asterix00" using metadata type lvm2
comme il voit un conflit d'ID des disques le volum group pointe sur sdb1 au lieu du md127, je suppose que ca a peu de chance de marcher dans ce cas mais je ne trouve pas comment revenir à la situation initiale.
J'ai trouvé ca sur le www : https://access.redhat.com/documentation … _multipath
et essayé de modiifer mes filtres pour que lvm ne considère plus sdb et sdc mais rien n'y fait.
Une autre idée ?
D'avance merci
Hors ligne
Contrôle tes UUID et ton fstab ainsi le détail de ton RAID1 avec mdadm --detail --scan entre autre.
Consulte la doc https://doc.fedora-fr.org/wiki/RAID_Log … ystem_Raid pour t'aider en cas.
F29_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F29_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F29_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM
Hors ligne
Merci pour la doc mais je voyais plutôt un problème avec lvm et les UUID, pas avec le RAID.
[root@localhost ~]# mdadm --detail /dev/md127
/dev/md127:
Version : 0.90
Creation Time : Fri Mar 19 21:06:19 2010
Raid Level : raid1
Array Size : 976759936 (931.51 GiB 1000.20 GB)
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 127
Persistence : Superblock is persistent
Update Time : Tue Nov 6 21:11:10 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : c88248bf:5fd07723:286cbc35:be7fa2bc
Events : 0.1527330
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sdc1
1 8 17 1 active sync /dev/sdb1
Pour moi il est opérationnel. juste pas monté par lvm.
Hors ligne
Oui je n'ai pas dit le contraire... et ton fstab ?
Pense à utiliser les balises code <> https://forums.fedora-fr.org/help.php#bbcode pour plus de lisibilité.
F29_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F29_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F29_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM
Hors ligne
le fstab pointe vers le volume vg_asterix00 qui malheureusement n'existent pas.
[root@localhost ~]# cat /etc/fstab
#
# /etc/fstab
# Created by anaconda on Fri Sep 30 21:30:09 2016
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/fedora-root / ext4 defaults 1 1
UUID=9072a3d1-53a2-4e41-b130-60b47731698b /boot ext4 defaults 1 2
UUID=74E9-8649 /boot/efi vfat umask=0077,shortname=winnt 0 2
#/dev/mapper/fedora-home /home ext4 defaults 1 2
/dev/mapper/fedora-swap swap swap defaults 0 0
#/dev/mapper/vg_asterix00/lv_home /home ext4 defaults 1 2
#/dev/mapper/vg_asterix00/lv_share /share ext4 defaults 1 2
[root@localhost ~]#
J'ai commenté les 2 lignes pour booter la machine et créer un home temporaire sur la partition root.
et les périphériques:
[root@localhost ~]# ls /dev/mapper/
control fedora-root fedora-swap
[root@localhost ~]#
J'ai bricolé les 'filters' dans le /etc/lvm.conf hier soir et ca eu marché y compris après le premier reboot, puis un deuxième reboot et la, plus moyen.
root@localhost ~]# cat /etc/lvm/lvm.conf | grep filter
# is used to drive LVM filtering like MD component detection, multipath
# Configuration option devices/filter.
# Run vgscan after changing the filter to regenerate the cache.
# See the use_lvmetad comment for a special case regarding filters.
# filter = [ "a|.*/|" ]
# filter = [ "r|/dev/cdrom|" ]
filter = [ "r|/dev/sdb1|", "r|/dev/sdc1|", "a|/dev/md127|" ]
Hors ligne
Que retourne
# blkid
# cat /etc/mdadm.conf
F29_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F29_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F29_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM
Hors ligne
et un petit
lsblk
dans la foulée
Linux, ya moins bien, mais c'est plus chèr!!!
Fedora 29 x86_64 sur HP 850 G5 et Dell Latitude E5440
Hors ligne
Bnosoir à vous,
root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 111,8G 0 disk
├─sda1 8:1 0 200M 0 part /boot/efi
├─sda2 8:2 0 500M 0 part /boot
└─sda3 8:3 0 111,1G 0 part
├─fedora-root 253:0 0 109,1G 0 lvm /
└─fedora-swap 253:1 0 2G 0 lvm
sdb 8:16 0 931,5G 0 disk
└─sdb1 8:17 0 931,5G 0 part
└─md127 9:127 0 931,5G 0 raid1
sdc 8:32 0 931,5G 0 disk
└─sdc1 8:33 0 931,5G 0 part
└─md127 9:127 0 931,5G 0 raid1
sr0 11:0 1 1024M 0 rom
[root@localhost ~]#
[root@localhost ~]# blkid
/dev/sda1: SEC_TYPE="msdos" UUID="74E9-8649" TYPE="vfat" PARTLABEL="EFI System Partition" PARTUUID="d9a75c1c-a8fa-40d6-94c3-81197dba7368"
/dev/sda2: UUID="9072a3d1-53a2-4e41-b130-60b47731698b" TYPE="ext4" PARTUUID="a01d4585-a5d3-44f1-adc7-08d91162ee6b"
/dev/sda3: UUID="rNgnWH-J7p4-eOBA-YiSr-LOYe-aSFA-HycKOc" TYPE="LVM2_member" PARTUUID="85c9d67d-9006-482f-9c2e-dbdb3c8c41aa"
/dev/sdb1: UUID="c88248bf-5fd0-7723-286c-bc35be7fa2bc" TYPE="linux_raid_member" PARTUUID="5e1a9de2-01"
/dev/sdc1: UUID="c88248bf-5fd0-7723-286c-bc35be7fa2bc" TYPE="linux_raid_member" PARTUUID="e32455b5-01"
/dev/mapper/fedora-root: UUID="dc8d3dd3-969c-42a1-a26b-c7e5efcea35a" TYPE="ext4"
/dev/mapper/fedora-swap: UUID="31cf297c-336f-4f5c-aa63-293d7e9da91d" TYPE="swap"
/dev/md127: UUID="e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL" TYPE="LVM2_member"
[root@localhost ~]#
Effectivement les UUID sont identiques sur sdb et sdc, Ce serait la cause du problème.
Et concernant mdam.conf, je ne vois pas le rapport mais il n'y en a pas.
Le 10/11/2018 : à lire comme suit:
Effectivement les UUID sont identiques sur sdb et sdc, Ce serait la cause du problème?
Et concernant mdam.conf, il n'y a pas de fichier /etc/mdadm.conf? pourtant /dev/md127 semble fonctionnel.
Dernière modification par grosludo (10/11/2018 15:21:08)
Hors ligne
Dans ce cas fais comme tu le souhaites puisque tu sais.
Dernière modification par Nicosss (09/11/2018 22:44:36)
F29_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F29_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F29_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM
Hors ligne
Ce n'était pas du tout mon propos Nicosss, ca se voulait plutôt intérogatif à votre précieux support.
J'étais supris qu'il n'y ai pas de mdadm.conf mais que le /dev/md127 soit déclaré actif et opérationnel par le /proc/mdstat.
Concernant les UUID, je vois que l'on peut les renouveler à l'aide de la commande tunefs. Est-ce que c'est une manip à tenter en renouvelant par exemple l'UUID de /dev/sdc? je ne connais pas les risques et effets de bord, c'est une vrai question, mais je reste à l'écoute d'autres idées également.
Merci encore.
Hors ligne
Ce n'est pas ce que tu laisses sous-entrendre...
Tu n'as pas de fichier /etc/mdadm.conf ?
Le but est de pouvoir comparer les différentes informations utiles avant de se lancer dans des modifications et ce pour ne pas faire plus de mal.
Que l'UUID soit identique est normal, par contre un UUID_SUB devrait aussi être présent pour moi et pour le PARTUUID c'est cohérent aussi.
A ce propos, que retourne aussi
# cat /proc/mdstat
Et pour anticiper la suite
# journalctl -b0 | egrep "(lvm|mdmonitor|raid)"
F29_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F29_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F29_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM
Hors ligne
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md127 : active (auto-read-only) raid1 sdb1[1] sdc1[0]
976759936 blocks [2/2] [UU]
unused devices: <none>
[root@localhost ~]# journalctl -b0 | egrep "(lvm|mdmonitor|raid)"
nov. 10 08:24:35 localhost.localdomain kernel: Command line: BOOT_IMAGE=/vmlinuz-4.18.17-300.fc29.x86_64 root=/dev/mapper/fedora-root ro rd.lvm.lv=fedora/root rd.lvm.lv=fedora/swap rhgb quiet LANG=fr_FR.UTF-8
nov. 10 08:24:35 localhost.localdomain kernel: Kernel command line: BOOT_IMAGE=/vmlinuz-4.18.17-300.fc29.x86_64 root=/dev/mapper/fedora-root ro rd.lvm.lv=fedora/root rd.lvm.lv=fedora/swap rhgb quiet LANG=fr_FR.UTF-8
nov. 10 08:24:35 localhost.localdomain dracut-cmdline[264]: Using kernel command line parameters: BOOT_IMAGE=/vmlinuz-4.18.17-300.fc29.x86_64 root=/dev/mapper/fedora-root ro rd.lvm.lv=fedora/root rd.lvm.lv=fedora/swap rhgb quiet LANG=fr_FR.UTF-8
nov. 10 08:24:37 localhost.localdomain kernel: md/raid1:md127: active with 2 out of 2 mirrors
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-lvmetad comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-monitor comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
nov. 10 08:24:37 localhost.localdomain lvm[642]: WARNING: found device with duplicate /dev/sdc1
nov. 10 08:24:37 localhost.localdomain lvm[642]: WARNING: Disabling lvmetad cache which does not support duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[642]: WARNING: Scan found duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[642]: WARNING: Not using lvmetad because cache update failed.
nov. 10 08:24:37 localhost.localdomain lvm[642]: 2 logical volume(s) in volume group "fedora" monitored
nov. 10 08:24:37 localhost.localdomain lvm[745]: WARNING: found device with duplicate /dev/sdc1
nov. 10 08:24:37 localhost.localdomain lvm[745]: WARNING: Disabling lvmetad cache which does not support duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[745]: WARNING: Scan found duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[745]: WARNING: Not using lvmetad because cache update failed.
nov. 10 08:24:37 localhost.localdomain lvm[745]: WARNING: Autoactivation reading from disk instead of lvmetad.
nov. 10 08:24:37 localhost.localdomain systemd[1]: Created slice system-lvm2\x2dpvscan.slice.
nov. 10 08:24:37 localhost.localdomain lvm[745]: 2 logical volume(s) in volume group "fedora" now active
nov. 10 08:24:37 localhost.localdomain lvm[745]: Cannot activate LVs in VG vg_asterix00 while PVs appear on duplicate devices.
nov. 10 08:24:37 localhost.localdomain lvm[745]: Cannot activate LVs in VG vg_asterix00 while PVs appear on duplicate devices.
nov. 10 08:24:37 localhost.localdomain lvm[745]: 0 logical volume(s) in volume group "vg_asterix00" now active
nov. 10 08:24:37 localhost.localdomain lvm[745]: vg_asterix00: autoactivation failed.
nov. 10 08:24:37 localhost.localdomain systemd[1]: lvm2-pvscan@8:3.service: Main process exited, code=exited, status=5/NOTINSTALLED
nov. 10 08:24:37 localhost.localdomain systemd[1]: lvm2-pvscan@8:3.service: Failed with result 'exit-code'.
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-pvscan@8:3 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=failed'
nov. 10 08:24:37 localhost.localdomain lvm[793]: WARNING: found device with duplicate /dev/sdc1
nov. 10 08:24:37 localhost.localdomain lvm[793]: WARNING: found device with duplicate /dev/md127
nov. 10 08:24:37 localhost.localdomain lvm[793]: WARNING: Disabling lvmetad cache which does not support duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[793]: WARNING: Scan found duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[793]: WARNING: Not using lvmetad because cache update failed.
nov. 10 08:24:37 localhost.localdomain lvm[793]: WARNING: Autoactivation reading from disk instead of lvmetad.
nov. 10 08:24:37 localhost.localdomain lvm[793]: WARNING: Not using device /dev/md127 for PV e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL.
nov. 10 08:24:37 localhost.localdomain lvm[793]: WARNING: PV e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL prefers device /dev/sdb1 because of previous preference.
nov. 10 08:24:37 localhost.localdomain lvm[793]: 2 logical volume(s) in volume group "fedora" now active
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=dmraid-activation comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_STOP pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=dmraid-activation comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
nov. 10 08:24:37 localhost.localdomain lvm[793]: Cannot activate LVs in VG vg_asterix00 while PVs appear on duplicate devices.
nov. 10 08:24:37 localhost.localdomain lvm[793]: 0 logical volume(s) in volume group "vg_asterix00" now active
nov. 10 08:24:37 localhost.localdomain lvm[793]: vg_asterix00: autoactivation failed.
nov. 10 08:24:38 localhost.localdomain systemd[1]: lvm2-pvscan@9:127.service: Main process exited, code=exited, status=5/NOTINSTALLED
nov. 10 08:24:38 localhost.localdomain systemd[1]: lvm2-pvscan@9:127.service: Failed with result 'exit-code'.
nov. 10 08:24:38 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-pvscan@9:127 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=failed'
nov. 10 09:25:16 localhost.localdomain audit[1]: SERVICE_STOP pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-lvmetad comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
[root@localhost ~]# ls /etc/md*
ls: impossible d'accéder à '/etc/md*': No such file or directory
Dernière modification par grosludo (10/11/2018 15:19:05)
Hors ligne
Que retourne
# lsblk -f
# mdadm --detail --scan
# cat /etc/lvm/cache/.cache/
Pour tune2fs sera effectivement à envisager et ensuite modifier le fstab.
Edit : Ajout commande
Dernière modification par Nicosss (11/11/2018 06:59:09)
F29_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F29_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F29_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM
Hors ligne
[root@localhost ~]# lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT
sda
├─sda1 vfat 74E9-8649 /boot/efi
├─sda2 ext4 9072a3d1-53a2-4e41-b130-60b47731698b /boot
└─sda3 LVM2_member rNgnWH-J7p4-eOBA-YiSr-LOYe-aSFA-HycKOc
├─fedora-root ext4 dc8d3dd3-969c-42a1-a26b-c7e5efcea35a /
└─fedora-swap swap 31cf297c-336f-4f5c-aa63-293d7e9da91d
sdb
└─sdb1 linux_raid_member c88248bf-5fd0-7723-286c-bc35be7fa2bc
└─md127 LVM2_member e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL
├─vg_asterix00-lv_home ext4 7c44493a-c312-4b08-9c55-4a07caa7186e
└─vg_asterix00-lv_share ext4 9f09bb36-dff9-446e-9b16-bd283e7fab1a
sdc
└─sdc1 linux_raid_member c88248bf-5fd0-7723-286c-bc35be7fa2bc
└─md127 LVM2_member e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL
├─vg_asterix00-lv_home ext4 7c44493a-c312-4b08-9c55-4a07caa7186e
└─vg_asterix00-lv_share ext4 9f09bb36-dff9-446e-9b16-bd283e7fab1a
sr0
[root@localhost ~]#
[root@localhost ~]# mdadm --detail --scan
ARRAY /dev/md/127_0 metadata=0.90 UUID=c88248bf:5fd07723:286cbc35:be7fa2bc
[root@localhost ~]#
[root@localhost ~]# cat /etc/lvm/cache/.cache
# This file is automatically maintained by lvm.
persistent_filter_cache {
valid_devices=[
"/dev/fedora/root",
"/dev/disk/by-id/md-uuid-c88248bf:5fd07723:286cbc35:be7fa2bc",
"/dev/disk/by-partuuid/d9a75c1c-a8fa-40d6-94c3-81197dba7368",
"/dev/disk/by-path/pci-0000:00:17.0-ata-3-part3",
"/dev/disk/by-id/ata-KINGSTON_SV300S37A120G_50026B766701A660-part1",
"/dev/md/127_0",
"/dev/disk/by-path/pci-0000:00:17.0-ata-3-part2",
"/dev/disk/by-id/dm-name-fedora-root",
"/dev/fedora/swap",
"/dev/block/9:127",
"/dev/mapper/fedora-root",
"/dev/disk/by-partlabel/EFI\\x20System\\x20Partition",
"/dev/disk/by-partuuid/a01d4585-a5d3-44f1-adc7-08d91162ee6b",
"/dev/block/253:1",
"/dev/disk/by-id/ata-KINGSTON_SV300S37A120G_50026B766701A660-part2",
"/dev/disk/by-path/pci-0000:00:17.0-ata-3-part1",
"/dev/disk/by-id/dm-name-fedora-swap",
"/dev/mapper/fedora-swap",
"/dev/block/253:0",
"/dev/disk/by-id/ata-KINGSTON_SV300S37A120G_50026B766701A660-part3",
"/dev/disk/by-uuid/9072a3d1-53a2-4e41-b130-60b47731698b",
"/dev/disk/by-uuid/31cf297c-336f-4f5c-aa63-293d7e9da91d",
"/dev/md127",
"/dev/block/8:1",
"/dev/disk/by-id/wwn-0x50026b766701a660-part2",
"/dev/disk/by-id/dm-uuid-LVM-Yi64Uwx58qAhdPmQualezA7gvHYqW9EPUIi4dVT8jvuEb7mZ220azKOErX4JYBaa",
"/dev/sda1",
"/dev/disk/by-id/dm-uuid-LVM-Yi64Uwx58qAhdPmQualezA7gvHYqW9EP8FK2wLk9ZG58CTwueTo3pUWDqkHYrd0D",
"/dev/disk/by-id/wwn-0x50026b766701a660-part3",
"/dev/disk/by-partuuid/85c9d67d-9006-482f-9c2e-dbdb3c8c41aa",
"/dev/dm-1",
"/dev/disk/by-id/lvm-pv-uuid-rNgnWH-J7p4-eOBA-YiSr-LOYe-aSFA-HycKOc",
"/dev/block/8:2",
"/dev/disk/by-id/lvm-pv-uuid-e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL",
"/dev/disk/by-id/wwn-0x50026b766701a660-part1",
"/dev/disk/by-uuid/74E9-8649",
"/dev/sda2",
"/dev/disk/by-uuid/dc8d3dd3-969c-42a1-a26b-c7e5efcea35a",
"/dev/dm-0",
"/dev/block/8:3",
"/dev/sda3"
]
}
Hors ligne
Bonjour à tous,
j'ai enfin résolu mon problème.
Les infos que je oeux partager:
selon des infos trouver sur des forums anglophones, il semblerait que les UUID identiques soient une chose normale pour une grappe RAID. Comme tune2fs refuse toute opération sur mes disques RAID, je me dis que ca doit être vrai meme si je n'ai pas trouvé de confirmation dans la doc de mdadm.
pour solutionner mon problème, j'ai du stopper lvmetad en positionnant
use_lvmetad = 0 dans /etc/lvm/lvm.conf puis rebooter et enfin :
[root@localhost ~]# vgscan
Reading all physical volumes. This may take a while...
Found volume group "vg_asterix00" using metadata type lvm2
Found volume group "fedora" using metadata type lvm2
[root@localhost ~]#
donc plus d'erreur et mes données sont toujours la.
Plus qu'a mettre mes sauvegardes à jour
Merci à vous.
Hors ligne
Voici ce que j'ai chez moi en RAID, en effet les UUID sont bien identiques (dans le cadre d'un miroir):
/dev/sdb1: UUID="f5845261-5e71-8507-2280-e46292554582" UUID_SUB="5ce47e6e-fd24-2075-484a-f9638c89dfb4" LABEL="stockage.lan:0" TYPE="linux_raid_member"
/dev/sdb2: UUID="24c3773d-f58f-c570-da63-72e41318bf49" UUID_SUB="715e20ca-ab20-d28e-693e-fb602a11abb4" LABEL="stockage.lan:1" TYPE="linux_raid_member"
/dev/sdb3: UUID="73c2861d-bf1d-3d5f-9b41-522994b2535d" UUID_SUB="c707d0bd-761e-4c40-1a05-33c5f5d161d6" LABEL="stockage.lan:2" TYPE="linux_raid_member"
/dev/sdd1: UUID="009d377c-f7cf-6ffc-f387-0881cd2ce434" UUID_SUB="223205af-c9cc-ce5c-f12d-14ef3f1bb50c" LABEL="stockage.lan:3" TYPE="linux_raid_member" PARTUUID="129bc0b5-80c7-4cee-941e-3f98a3bf1f56"
/dev/sda1: UUID="f5845261-5e71-8507-2280-e46292554582" UUID_SUB="6195f520-a6d6-4a13-6680-60c24de4094a" LABEL="stockage.lan:0" TYPE="linux_raid_member"
/dev/sda2: UUID="24c3773d-f58f-c570-da63-72e41318bf49" UUID_SUB="8bfd5868-58f4-3242-c5a8-98af7a650700" LABEL="stockage.lan:1" TYPE="linux_raid_member"
/dev/sda3: UUID="73c2861d-bf1d-3d5f-9b41-522994b2535d" UUID_SUB="3d004a38-b6b1-c15b-58d3-9584cacb7122" LABEL="stockage.lan:2" TYPE="linux_raid_member"
/dev/sdc1: UUID="009d377c-f7cf-6ffc-f387-0881cd2ce434" UUID_SUB="70025f20-4eab-5278-0245-7e7184766a1b" LABEL="stockage.lan:3" TYPE="linux_raid_member" PARTLABEL="primary" PARTUUID="3b0ec57b-c72e-4574-8aeb-9e24e327f6f7"
Linux, ya moins bien, mais c'est plus chèr!!!
Fedora 29 x86_64 sur HP 850 G5 et Dell Latitude E5440
Hors ligne
Désolé grosludo, je ne t'avais pas pas oublié mais je pensais t'avoir répondu.
Pour les UUID, UUID_SUB, PARTUUID c'est ce que je t'avais précisé.
Par contre c'est assez étrange pour lvm2-lvmetad.socket que tu sois obligé de le stopper.
Il doit y avoir un problème plus profond.
En tout cas, tant mieux si tu as récupéré tes données.
F29_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F29_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F29_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM
Hors ligne