Fedora-Fr - Communauté francophone Fedora - Linux

Communauté francophone des utilisateurs de la distribution Linux Fedora.

  

Dernière news : Fedora 31 Beta disponible pour les tests

#1 07/11/2018 00:09:47

grosludo
Membre
Inscription : 04/10/2007
Messages : 18

[Résolu] Problème avec mdadm ou lvm après upgrade

Bonjour à tous,
suite à un upgrade dnf de ma machine mon /home n'est plus monté (tout le reste c'est bien passé)

Ma config :
1 raid 1 mdadm avec 2 disques /dev/sdb1 et /dev/sdc1 qui forment un /dev/md127
1 volume group vg-asterix-00 sur le /dev/md127
1 logical volume lv-home sur le vg-asterix00

ce que je vois:
[root@localhost ~]# vgscan
  WARNING: found device with duplicate /dev/sdc1
  WARNING: found device with duplicate /dev/md127
  WARNING: Disabling lvmetad cache which does not support duplicate PVs.
  WARNING: Scan found duplicate PVs.
  WARNING: Not using lvmetad because cache update failed.
  Reading all physical volumes.  This may take a while...
  WARNING: Not using device /dev/md127 for PV e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL.
  WARNING: PV e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL prefers device /dev/sdb1 because of previous preference.
  Found volume group "vg_asterix00" using metadata type lvm2

comme il voit un conflit d'ID des disques le volum group pointe sur sdb1 au lieu du md127, je suppose que ca a peu de chance de marcher dans ce cas mais je ne trouve pas comment revenir à la situation initiale.
J'ai trouvé ca sur le www : https://access.redhat.com/documentation … _multipath
et essayé de modiifer mes filtres pour que lvm ne considère plus sdb et sdc mais rien n'y fait.
Une autre idée ?
D'avance merci

Hors ligne

#2 07/11/2018 06:30:45

Nicosss
Membre
Lieu : Isère
Inscription : 05/03/2007
Messages : 4 911
Site Web

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Contrôle tes UUID et ton fstab ainsi le détail de ton RAID1 avec mdadm --detail --scan entre autre.

Consulte la doc https://doc.fedora-fr.org/wiki/RAID_Log … ystem_Raid pour t'aider en cas.


F30_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F30_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F30_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM

Hors ligne

#3 07/11/2018 21:52:32

grosludo
Membre
Inscription : 04/10/2007
Messages : 18

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Merci pour la doc mais je voyais plutôt un problème avec lvm et les UUID, pas avec le RAID.
[root@localhost ~]# mdadm --detail /dev/md127
/dev/md127:
           Version : 0.90
     Creation Time : Fri Mar 19 21:06:19 2010
        Raid Level : raid1
        Array Size : 976759936 (931.51 GiB 1000.20 GB)
     Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
      Raid Devices : 2
     Total Devices : 2
   Preferred Minor : 127
       Persistence : Superblock is persistent

       Update Time : Tue Nov  6 21:11:10 2018
             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              UUID : c88248bf:5fd07723:286cbc35:be7fa2bc
            Events : 0.1527330

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       17        1      active sync   /dev/sdb1

Pour moi il est opérationnel. juste pas monté par lvm.

Hors ligne

#4 07/11/2018 23:11:44

Nicosss
Membre
Lieu : Isère
Inscription : 05/03/2007
Messages : 4 911
Site Web

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Oui je n'ai pas dit le contraire... et ton fstab ?

Pense à utiliser les balises code <> https://forums.fedora-fr.org/help.php#bbcode pour plus de lisibilité.


F30_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F30_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F30_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM

Hors ligne

#5 08/11/2018 21:54:50

grosludo
Membre
Inscription : 04/10/2007
Messages : 18

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

le fstab pointe vers le volume vg_asterix00 qui malheureusement n'existent pas.

[root@localhost ~]# cat /etc/fstab

#
# /etc/fstab
# Created by anaconda on Fri Sep 30 21:30:09 2016
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/fedora-root /                       ext4    defaults        1 1
UUID=9072a3d1-53a2-4e41-b130-60b47731698b /boot                   ext4    defaults        1 2
UUID=74E9-8649          /boot/efi               vfat    umask=0077,shortname=winnt 0 2
#/dev/mapper/fedora-home /home                   ext4    defaults        1 2
/dev/mapper/fedora-swap swap                    swap    defaults        0 0
#/dev/mapper/vg_asterix00/lv_home      /home ext4 defaults 1 2
#/dev/mapper/vg_asterix00/lv_share     /share ext4 defaults 1 2
[root@localhost ~]# 

J'ai commenté les 2 lignes pour booter la machine et créer un home temporaire sur la partition root.
et les périphériques:

[root@localhost ~]# ls /dev/mapper/
control  fedora-root  fedora-swap
[root@localhost ~]# 

J'ai bricolé les 'filters' dans le /etc/lvm.conf hier soir et ca eu marché y compris après le premier reboot, puis un deuxième reboot et la, plus moyen.

root@localhost ~]# cat /etc/lvm/lvm.conf | grep filter
        # is used to drive LVM filtering like MD component detection, multipath
        # Configuration option devices/filter.
        # Run vgscan after changing the filter to regenerate the cache.
        # See the use_lvmetad comment for a special case regarding filters.
        # filter = [ "a|.*/|" ]
        # filter = [ "r|/dev/cdrom|" ]
        filter = [ "r|/dev/sdb1|", "r|/dev/sdc1|", "a|/dev/md127|" ]

Hors ligne

#6 08/11/2018 22:06:05

Nicosss
Membre
Lieu : Isère
Inscription : 05/03/2007
Messages : 4 911
Site Web

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Que retourne

# blkid
# cat /etc/mdadm.conf

F30_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F30_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F30_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM

Hors ligne

#7 09/11/2018 09:34:20

madko
Contributeur Fedora et Linuxé depuis 1994
Modérateur
Lieu : Noisy the Great (9³)
Inscription : 22/12/2006
Messages : 7 319
Site Web

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

et un petit

lsblk

dans la foulée

Hors ligne

#8 09/11/2018 23:00:42

grosludo
Membre
Inscription : 04/10/2007
Messages : 18

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Bnosoir à vous,

root@localhost ~]# lsblk
NAME            MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda               8:0    0 111,8G  0 disk  
├─sda1            8:1    0   200M  0 part  /boot/efi
├─sda2            8:2    0   500M  0 part  /boot
└─sda3            8:3    0 111,1G  0 part  
  ├─fedora-root 253:0    0 109,1G  0 lvm   /
  └─fedora-swap 253:1    0     2G  0 lvm   
sdb               8:16   0 931,5G  0 disk  
└─sdb1            8:17   0 931,5G  0 part  
  └─md127         9:127  0 931,5G  0 raid1 
sdc               8:32   0 931,5G  0 disk  
└─sdc1            8:33   0 931,5G  0 part  
  └─md127         9:127  0 931,5G  0 raid1 
sr0              11:0    1  1024M  0 rom   
[root@localhost ~]# 
[root@localhost ~]# blkid
/dev/sda1: SEC_TYPE="msdos" UUID="74E9-8649" TYPE="vfat" PARTLABEL="EFI System Partition" PARTUUID="d9a75c1c-a8fa-40d6-94c3-81197dba7368"
/dev/sda2: UUID="9072a3d1-53a2-4e41-b130-60b47731698b" TYPE="ext4" PARTUUID="a01d4585-a5d3-44f1-adc7-08d91162ee6b"
/dev/sda3: UUID="rNgnWH-J7p4-eOBA-YiSr-LOYe-aSFA-HycKOc" TYPE="LVM2_member" PARTUUID="85c9d67d-9006-482f-9c2e-dbdb3c8c41aa"
/dev/sdb1: UUID="c88248bf-5fd0-7723-286c-bc35be7fa2bc" TYPE="linux_raid_member" PARTUUID="5e1a9de2-01"
/dev/sdc1: UUID="c88248bf-5fd0-7723-286c-bc35be7fa2bc" TYPE="linux_raid_member" PARTUUID="e32455b5-01"
/dev/mapper/fedora-root: UUID="dc8d3dd3-969c-42a1-a26b-c7e5efcea35a" TYPE="ext4"
/dev/mapper/fedora-swap: UUID="31cf297c-336f-4f5c-aa63-293d7e9da91d" TYPE="swap"
/dev/md127: UUID="e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL" TYPE="LVM2_member"
[root@localhost ~]# 

Effectivement les UUID sont identiques sur sdb et sdc, Ce serait la cause du problème.
Et concernant mdam.conf, je ne vois pas le rapport mais il n'y en a pas.

Le 10/11/2018 : à lire comme suit:
Effectivement les UUID sont identiques sur sdb et sdc, Ce serait la cause du problème?
Et concernant mdam.conf,  il n'y a pas de fichier /etc/mdadm.conf? pourtant /dev/md127 semble fonctionnel.

Dernière modification par grosludo (10/11/2018 16:21:08)

Hors ligne

#9 09/11/2018 23:44:20

Nicosss
Membre
Lieu : Isère
Inscription : 05/03/2007
Messages : 4 911
Site Web

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Dans ce cas fais comme tu le souhaites puisque tu sais.

Dernière modification par Nicosss (09/11/2018 23:44:36)


F30_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F30_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F30_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM

Hors ligne

#10 10/11/2018 09:37:10

grosludo
Membre
Inscription : 04/10/2007
Messages : 18

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Ce n'était pas du tout mon propos Nicosss, ca se voulait plutôt intérogatif à votre précieux support.
J'étais supris qu'il n'y ai pas de mdadm.conf mais que le /dev/md127 soit déclaré actif et opérationnel par le /proc/mdstat.

Concernant les UUID, je vois que l'on peut les renouveler à l'aide de la commande tunefs. Est-ce que c'est une manip à tenter en renouvelant par exemple l'UUID de /dev/sdc? je ne connais pas les risques et effets de bord, c'est une vrai question, mais je reste à l'écoute d'autres idées également.
Merci encore.

Hors ligne

#11 10/11/2018 10:44:32

Nicosss
Membre
Lieu : Isère
Inscription : 05/03/2007
Messages : 4 911
Site Web

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Ce n'est pas ce que tu laisses sous-entrendre...

Tu n'as pas de fichier /etc/mdadm.conf ?

Le but est de pouvoir comparer les différentes informations utiles avant de se lancer dans des modifications et ce pour ne pas faire plus de mal.
Que l'UUID soit identique est normal, par contre un UUID_SUB devrait aussi être présent pour moi et pour le PARTUUID c'est cohérent aussi.

A ce propos, que retourne aussi

# cat /proc/mdstat

Et pour anticiper la suite

# journalctl -b0 | egrep "(lvm|mdmonitor|raid)"

F30_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F30_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F30_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM

Hors ligne

#12 10/11/2018 16:17:53

grosludo
Membre
Inscription : 04/10/2007
Messages : 18

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md127 : active (auto-read-only) raid1 sdb1[1] sdc1[0]
      976759936 blocks [2/2] [UU]
      
unused devices: <none>
[root@localhost ~]# journalctl -b0 | egrep "(lvm|mdmonitor|raid)"
nov. 10 08:24:35 localhost.localdomain kernel: Command line: BOOT_IMAGE=/vmlinuz-4.18.17-300.fc29.x86_64 root=/dev/mapper/fedora-root ro rd.lvm.lv=fedora/root rd.lvm.lv=fedora/swap rhgb quiet LANG=fr_FR.UTF-8
nov. 10 08:24:35 localhost.localdomain kernel: Kernel command line: BOOT_IMAGE=/vmlinuz-4.18.17-300.fc29.x86_64 root=/dev/mapper/fedora-root ro rd.lvm.lv=fedora/root rd.lvm.lv=fedora/swap rhgb quiet LANG=fr_FR.UTF-8
nov. 10 08:24:35 localhost.localdomain dracut-cmdline[264]: Using kernel command line parameters: BOOT_IMAGE=/vmlinuz-4.18.17-300.fc29.x86_64 root=/dev/mapper/fedora-root ro rd.lvm.lv=fedora/root rd.lvm.lv=fedora/swap rhgb quiet LANG=fr_FR.UTF-8
nov. 10 08:24:37 localhost.localdomain kernel: md/raid1:md127: active with 2 out of 2 mirrors
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-lvmetad comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-monitor comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
nov. 10 08:24:37 localhost.localdomain lvm[642]:   WARNING: found device with duplicate /dev/sdc1
nov. 10 08:24:37 localhost.localdomain lvm[642]:   WARNING: Disabling lvmetad cache which does not support duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[642]:   WARNING: Scan found duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[642]:   WARNING: Not using lvmetad because cache update failed.
nov. 10 08:24:37 localhost.localdomain lvm[642]:   2 logical volume(s) in volume group "fedora" monitored
nov. 10 08:24:37 localhost.localdomain lvm[745]:   WARNING: found device with duplicate /dev/sdc1
nov. 10 08:24:37 localhost.localdomain lvm[745]:   WARNING: Disabling lvmetad cache which does not support duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[745]:   WARNING: Scan found duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[745]:   WARNING: Not using lvmetad because cache update failed.
nov. 10 08:24:37 localhost.localdomain lvm[745]:   WARNING: Autoactivation reading from disk instead of lvmetad.
nov. 10 08:24:37 localhost.localdomain systemd[1]: Created slice system-lvm2\x2dpvscan.slice.
nov. 10 08:24:37 localhost.localdomain lvm[745]:   2 logical volume(s) in volume group "fedora" now active
nov. 10 08:24:37 localhost.localdomain lvm[745]:   Cannot activate LVs in VG vg_asterix00 while PVs appear on duplicate devices.
nov. 10 08:24:37 localhost.localdomain lvm[745]:   Cannot activate LVs in VG vg_asterix00 while PVs appear on duplicate devices.
nov. 10 08:24:37 localhost.localdomain lvm[745]:   0 logical volume(s) in volume group "vg_asterix00" now active
nov. 10 08:24:37 localhost.localdomain lvm[745]:   vg_asterix00: autoactivation failed.
nov. 10 08:24:37 localhost.localdomain systemd[1]: lvm2-pvscan@8:3.service: Main process exited, code=exited, status=5/NOTINSTALLED
nov. 10 08:24:37 localhost.localdomain systemd[1]: lvm2-pvscan@8:3.service: Failed with result 'exit-code'.
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-pvscan@8:3 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=failed'
nov. 10 08:24:37 localhost.localdomain lvm[793]:   WARNING: found device with duplicate /dev/sdc1
nov. 10 08:24:37 localhost.localdomain lvm[793]:   WARNING: found device with duplicate /dev/md127
nov. 10 08:24:37 localhost.localdomain lvm[793]:   WARNING: Disabling lvmetad cache which does not support duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[793]:   WARNING: Scan found duplicate PVs.
nov. 10 08:24:37 localhost.localdomain lvm[793]:   WARNING: Not using lvmetad because cache update failed.
nov. 10 08:24:37 localhost.localdomain lvm[793]:   WARNING: Autoactivation reading from disk instead of lvmetad.
nov. 10 08:24:37 localhost.localdomain lvm[793]:   WARNING: Not using device /dev/md127 for PV e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL.
nov. 10 08:24:37 localhost.localdomain lvm[793]:   WARNING: PV e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL prefers device /dev/sdb1 because of previous preference.
nov. 10 08:24:37 localhost.localdomain lvm[793]:   2 logical volume(s) in volume group "fedora" now active
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=dmraid-activation comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
nov. 10 08:24:37 localhost.localdomain audit[1]: SERVICE_STOP pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=dmraid-activation comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
nov. 10 08:24:37 localhost.localdomain lvm[793]:   Cannot activate LVs in VG vg_asterix00 while PVs appear on duplicate devices.
nov. 10 08:24:37 localhost.localdomain lvm[793]:   0 logical volume(s) in volume group "vg_asterix00" now active
nov. 10 08:24:37 localhost.localdomain lvm[793]:   vg_asterix00: autoactivation failed.
nov. 10 08:24:38 localhost.localdomain systemd[1]: lvm2-pvscan@9:127.service: Main process exited, code=exited, status=5/NOTINSTALLED
nov. 10 08:24:38 localhost.localdomain systemd[1]: lvm2-pvscan@9:127.service: Failed with result 'exit-code'.
nov. 10 08:24:38 localhost.localdomain audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-pvscan@9:127 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=failed'
nov. 10 09:25:16 localhost.localdomain audit[1]: SERVICE_STOP pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-lvmetad comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
[root@localhost ~]# ls /etc/md*
ls: impossible d'accéder à '/etc/md*': No such file or directory

Dernière modification par grosludo (10/11/2018 16:19:05)

Hors ligne

#13 11/11/2018 07:57:36

Nicosss
Membre
Lieu : Isère
Inscription : 05/03/2007
Messages : 4 911
Site Web

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Que retourne

# lsblk -f
# mdadm --detail --scan
# cat /etc/lvm/cache/.cache/

Pour tune2fs sera effectivement à envisager et ensuite modifier le fstab.

Edit : Ajout commande

Dernière modification par Nicosss (11/11/2018 07:59:09)


F30_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F30_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F30_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM

Hors ligne

#14 11/11/2018 15:45:11

grosludo
Membre
Inscription : 04/10/2007
Messages : 18

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

[root@localhost ~]# lsblk -f
NAME                        FSTYPE            LABEL UUID                                   MOUNTPOINT
sda                                                                                        
├─sda1                      vfat                    74E9-8649                              /boot/efi
├─sda2                      ext4                    9072a3d1-53a2-4e41-b130-60b47731698b   /boot
└─sda3                      LVM2_member             rNgnWH-J7p4-eOBA-YiSr-LOYe-aSFA-HycKOc 
  ├─fedora-root             ext4                    dc8d3dd3-969c-42a1-a26b-c7e5efcea35a   /
  └─fedora-swap             swap                    31cf297c-336f-4f5c-aa63-293d7e9da91d   
sdb                                                                                        
└─sdb1                      linux_raid_member       c88248bf-5fd0-7723-286c-bc35be7fa2bc   
  └─md127                   LVM2_member             e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL 
    ├─vg_asterix00-lv_home  ext4                    7c44493a-c312-4b08-9c55-4a07caa7186e   
    └─vg_asterix00-lv_share ext4                    9f09bb36-dff9-446e-9b16-bd283e7fab1a   
sdc                                                                                        
└─sdc1                      linux_raid_member       c88248bf-5fd0-7723-286c-bc35be7fa2bc   
  └─md127                   LVM2_member             e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL 
    ├─vg_asterix00-lv_home  ext4                    7c44493a-c312-4b08-9c55-4a07caa7186e   
    └─vg_asterix00-lv_share ext4                    9f09bb36-dff9-446e-9b16-bd283e7fab1a   
sr0                                                                                        
[root@localhost ~]# 
[root@localhost ~]# mdadm --detail --scan
ARRAY /dev/md/127_0 metadata=0.90 UUID=c88248bf:5fd07723:286cbc35:be7fa2bc
[root@localhost ~]# 
[root@localhost ~]# cat /etc/lvm/cache/.cache 
# This file is automatically maintained by lvm.

persistent_filter_cache {
        valid_devices=[
                "/dev/fedora/root",
                "/dev/disk/by-id/md-uuid-c88248bf:5fd07723:286cbc35:be7fa2bc",
                "/dev/disk/by-partuuid/d9a75c1c-a8fa-40d6-94c3-81197dba7368",
                "/dev/disk/by-path/pci-0000:00:17.0-ata-3-part3",
                "/dev/disk/by-id/ata-KINGSTON_SV300S37A120G_50026B766701A660-part1",
                "/dev/md/127_0",
                "/dev/disk/by-path/pci-0000:00:17.0-ata-3-part2",
                "/dev/disk/by-id/dm-name-fedora-root",
                "/dev/fedora/swap",
                "/dev/block/9:127",
                "/dev/mapper/fedora-root",
                "/dev/disk/by-partlabel/EFI\\x20System\\x20Partition",
                "/dev/disk/by-partuuid/a01d4585-a5d3-44f1-adc7-08d91162ee6b",
                "/dev/block/253:1",
                "/dev/disk/by-id/ata-KINGSTON_SV300S37A120G_50026B766701A660-part2",
                "/dev/disk/by-path/pci-0000:00:17.0-ata-3-part1",
                "/dev/disk/by-id/dm-name-fedora-swap",
                "/dev/mapper/fedora-swap",
                "/dev/block/253:0",
                "/dev/disk/by-id/ata-KINGSTON_SV300S37A120G_50026B766701A660-part3",
                "/dev/disk/by-uuid/9072a3d1-53a2-4e41-b130-60b47731698b",
                "/dev/disk/by-uuid/31cf297c-336f-4f5c-aa63-293d7e9da91d",
                "/dev/md127",
                "/dev/block/8:1",
                "/dev/disk/by-id/wwn-0x50026b766701a660-part2",
                "/dev/disk/by-id/dm-uuid-LVM-Yi64Uwx58qAhdPmQualezA7gvHYqW9EPUIi4dVT8jvuEb7mZ220azKOErX4JYBaa",
                "/dev/sda1",
                "/dev/disk/by-id/dm-uuid-LVM-Yi64Uwx58qAhdPmQualezA7gvHYqW9EP8FK2wLk9ZG58CTwueTo3pUWDqkHYrd0D",
                "/dev/disk/by-id/wwn-0x50026b766701a660-part3",
                "/dev/disk/by-partuuid/85c9d67d-9006-482f-9c2e-dbdb3c8c41aa",
                "/dev/dm-1",
                "/dev/disk/by-id/lvm-pv-uuid-rNgnWH-J7p4-eOBA-YiSr-LOYe-aSFA-HycKOc",
                "/dev/block/8:2",
                "/dev/disk/by-id/lvm-pv-uuid-e5yD02-i0iV-JNgr-WWly-w8pO-Bz5B-uowMoL",
                "/dev/disk/by-id/wwn-0x50026b766701a660-part1",
                "/dev/disk/by-uuid/74E9-8649",
                "/dev/sda2",
                "/dev/disk/by-uuid/dc8d3dd3-969c-42a1-a26b-c7e5efcea35a",
                "/dev/dm-0",
                "/dev/block/8:3",
                "/dev/sda3"
        ]
}

Hors ligne

#15 18/11/2018 09:44:12

grosludo
Membre
Inscription : 04/10/2007
Messages : 18

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Bonjour à tous,
j'ai enfin résolu mon problème.
Les infos que je oeux partager:
selon des infos trouver sur des forums anglophones, il semblerait que les UUID identiques soient une chose normale pour une grappe RAID. Comme tune2fs refuse toute opération sur mes disques RAID, je me dis que ca doit être vrai meme si je n'ai pas trouvé de confirmation dans la doc de mdadm.
pour solutionner mon problème, j'ai du stopper lvmetad en positionnant
use_lvmetad = 0 dans /etc/lvm/lvm.conf puis rebooter et enfin :

[root@localhost ~]# vgscan
  Reading all physical volumes.  This may take a while...
  Found volume group "vg_asterix00" using metadata type lvm2
  Found volume group "fedora" using metadata type lvm2
[root@localhost ~]# 

donc plus d'erreur et mes données sont toujours la.
Plus qu'a mettre mes sauvegardes à jour smile
Merci à vous.

Hors ligne

#16 18/11/2018 11:02:41

madko
Contributeur Fedora et Linuxé depuis 1994
Modérateur
Lieu : Noisy the Great (9³)
Inscription : 22/12/2006
Messages : 7 319
Site Web

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Voici ce que j'ai chez moi en RAID, en effet les UUID sont bien identiques (dans le cadre d'un miroir):

/dev/sdb1: UUID="f5845261-5e71-8507-2280-e46292554582" UUID_SUB="5ce47e6e-fd24-2075-484a-f9638c89dfb4" LABEL="stockage.lan:0" TYPE="linux_raid_member" 
/dev/sdb2: UUID="24c3773d-f58f-c570-da63-72e41318bf49" UUID_SUB="715e20ca-ab20-d28e-693e-fb602a11abb4" LABEL="stockage.lan:1" TYPE="linux_raid_member" 
/dev/sdb3: UUID="73c2861d-bf1d-3d5f-9b41-522994b2535d" UUID_SUB="c707d0bd-761e-4c40-1a05-33c5f5d161d6" LABEL="stockage.lan:2" TYPE="linux_raid_member" 
/dev/sdd1: UUID="009d377c-f7cf-6ffc-f387-0881cd2ce434" UUID_SUB="223205af-c9cc-ce5c-f12d-14ef3f1bb50c" LABEL="stockage.lan:3" TYPE="linux_raid_member" PARTUUID="129bc0b5-80c7-4cee-941e-3f98a3bf1f56" 
/dev/sda1: UUID="f5845261-5e71-8507-2280-e46292554582" UUID_SUB="6195f520-a6d6-4a13-6680-60c24de4094a" LABEL="stockage.lan:0" TYPE="linux_raid_member" 
/dev/sda2: UUID="24c3773d-f58f-c570-da63-72e41318bf49" UUID_SUB="8bfd5868-58f4-3242-c5a8-98af7a650700" LABEL="stockage.lan:1" TYPE="linux_raid_member" 
/dev/sda3: UUID="73c2861d-bf1d-3d5f-9b41-522994b2535d" UUID_SUB="3d004a38-b6b1-c15b-58d3-9584cacb7122" LABEL="stockage.lan:2" TYPE="linux_raid_member" 
/dev/sdc1: UUID="009d377c-f7cf-6ffc-f387-0881cd2ce434" UUID_SUB="70025f20-4eab-5278-0245-7e7184766a1b" LABEL="stockage.lan:3" TYPE="linux_raid_member" PARTLABEL="primary" PARTUUID="3b0ec57b-c72e-4574-8aeb-9e24e327f6f7" 

Hors ligne

#17 19/11/2018 19:56:52

Nicosss
Membre
Lieu : Isère
Inscription : 05/03/2007
Messages : 4 911
Site Web

Re : [Résolu] Problème avec mdadm ou lvm après upgrade

Désolé grosludo, je ne t'avais pas pas oublié mais je pensais t'avoir répondu.
Pour les UUID, UUID_SUB, PARTUUID c'est ce que je t'avais précisé.

Par contre c'est assez étrange pour lvm2-lvmetad.socket que tu sois obligé de le stopper.

Il doit y avoir un problème plus profond.

En tout cas, tant mieux si tu as récupéré tes données.


F30_64 Gnome-Shell - GA-990FXA-UD3 - Phenom II X6 1100T - NH-D14 - Ati HD 5750 Fanless - 16Go RAM /&/ F30_64 Gnome-Shell - Toshiba Satellite C660D-19X - 8Go RAM
F30_64 - ASRock 960GC-GS FX - AMD FX(tm)-8300 - 16Go RAM

Hors ligne

Pied de page des forums