@kwizart : :hammer: produit

Ok, si je comprend bien, j'ai un raid semi-materiel (car drivers intégrés dans windows pdt l'install).
Et, arretes moi si je me trompes, le raid 0 est un raid mirroring, copiant les données sur 2 DD.
Partant de la, je dois utiliser le device-mapper pour voir la partion (ou DD) "raidé" si je peux dire ca comme ca.

Maintenant, comment je fais pour ecrire dans /dev/mapper et créer mon montage, car moi j'ai rien dans ce répertoire ormis un fichier "control" que je ne peux meme pas éditer ???????

D'avance merci pour la réponse......
Pourtant c'est géré en interne par le nforce donc je vois pas où est le problème...
le probleme, c'est que je ne sais pas ou et comment monter mon raid, et le moment venu, comment ecrire des données dessus...

si c'est géré en interne, ok, mais je le trouve ou ce raid pour y ecrire mes données ??????

🙁 produit

Dans l'attente d'une réponse.......
bon je crois que je commence a comprendre ce qui deconnes, mais je bloque sur les options de la commande dmraid.

En fait qd je fais un "dmraid -r", j'ai ce résultat :
[root@DOF3 ~]# dmraid -r
/dev/hdc: "nvidia" and "hpt37x" formats discovered (using hpt37x)!
/dev/hdd: "nvidia" and "hpt37x" formats discovered (using hpt37x)!
/dev/hdc: hpt37x, "hpt37x_ffchjiefb", stripe, ok, 156301477 sectors, data@ 10
/dev/hdd: hpt37x, "hpt37x_ffchjiefb", stripe, ok, 156301477 sectors, data@ 10

et qd j'essaie de l'activer avec dmraid -ay, j'ai ce résultat :
[root@DOF3 ~]# dmraid -ay
/dev/hdc: "nvidia" and "hpt37x" formats discovered (using hpt37x)!
/dev/hdd: "nvidia" and "hpt37x" formats discovered (using hpt37x)!
ERROR: hpt37x: wrong # of devices in RAID set "hpt37x_ffchjiefb" [2/1] on /dev/hdc
ERROR: hpt37x: wrong # of devices in RAID set "hpt37x_ffchjiefb" [2/1] on /dev/hdd
ERROR: removing inconsistent RAID set "hpt37x_ffchjiefb"
No RAID sets

et la, je vois vraiment pas quoi faire.
j'ai tout de suite pensé que cette erreur pouvait venir du fait que j'ai créé 2 partition sur le raid, la première en ext3, et la seconde en ntfs. Préférant ext3, j'ai rebooté sur windows et simplement détruit la partition ntfs.
Et en rebootant sur fc6 et avec les meme cmds, j'ai tjs la meme erreur.
Donc la j'essaie d'effacer ou reconstruire le raid nvidia (je sais pas ou fc a trouvé le hpt37x), mais je bloque sur les options a ajouter après dmraid.

Toutes les propositions sont les bienvenues.......
on n'est pas au niveau du ext3 ou ntfs ici, je pense que tu es sur la bonne piste...
Il faut voir pourquoi la première erreur...apres dmraid -ay

Il est possible que "hpt37x" et "nvidia" soient en conflit! une possibilité et le fait de ne pas avoir branché les nappes sata sur les bons ports (linux et un peu plus pointilleux que linux sur ce point si je me souviens bien!)

Autre solution essayer de force l'un ou l'autre driver mais je ne comprend pas pourquoi il "hésites" entre les deux!
@kwizart :

Salut :hammer: produit,
En effet, je suis ok pour ext3 et ntfs, j'ai essayé 2, 3 trucs et rien n'a changé.
Maintenant, je vois pas ou il a pu trouvé ce "hpt37x", car je n'ai que 3 nappes connectées à la carte mère, la 1ere est une sata pour le DD systeme avec ses partitiions, la 2nde en ide pour le lecteur DVD, et enfin la 3eme pour les 2 DD ATA ide eux aussi.
je ne vois que 2 choses, soit le raid "hpt37x" est specifique pour le raid en ide, soit c'est mon install de fc6 32 bits sur une station 64 bits qui déplait a fc.

Pourrais-tu m'aiguiller la dessus ????

autre chose, j'ai essayé d'activer individuellement le "nvidia" puis le "hpt37x" avec la cmd : "dmraid -ay -f",
et voici ce que ca renvoit :
[root@DOF3 ~]# dmraid -ay -f hpt37x
ERROR: hpt37x: wrong # of devices in RAID set "hpt37x_ffchjiefb" [2/1] on /dev/hdc
ERROR: hpt37x: wrong # of devices in RAID set "hpt37x_ffchjiefb" [2/1] on /dev/hdd
ERROR: removing inconsistent RAID set "hpt37x_ffchjiefb"
No RAID sets with format: "hpt37x"
[root@DOF3 ~]# dmraid -ay -f nvidia
[root@DOF3 ~]#

et comme on peut le voir, aucun pb pour le "nvidia" sauf qu'il n'y a rien a activer (autrement un nom serait donné après nvidia),
par contre la cmd trouve bien le "hpt37x", avec les 2 DD liés, donne un nom à ce raid, maistrouve un mauvais #device et le desactive aussitot.
Que faire, je ne trouve aucune info la dessus, meme avec le man, ou plutot j'arrive pas a trouver la bonne formulation des options pour regler le pb.
je n'arrive meme pas a utiliser l'option -d|--debug.

AU SECOURS........🙁 produit
Comme me l'a fait remarquer SmootherFrOgZ en privé (on s'occupe bien de vous hein ? 🙂 )
La disctintion entre un raid semi matériel et logiciel est encore floue...
Est ce que tu es sur d'avoir un raid semi matériel ou logiciel ?
En gros est ce que tu as définit dans le bios ton disque et par la suite il est vu comme un seul volume ? ou Est ce que tu as définit des volumes raid logiciels à l'intallation de fedora ?

Sinon ce que tu me raccontes avec le nombre de nappe me semble abbérant! (ne même temps je n'ai pas ce problème en sata car j'utilise une seule nappe, donc je peux me tromper sur ce point). Mais comment veux tu faire un disque raid si chacun des disques se partage une nappe? Il faut :
- Que le raid utilise le même controlleur (a priori, cela vaut pour du raid 0 ou du raid1, le raid 0,1 pourrait se comporter différemment...)
Cela signfies que tu dois brancher ton raid sur les connecteurs 1 et 2
- Que le chaque disque en raid ait une seule nappe qu'il utilises exclusivement.. (voir pas de lecteur dvd sur greffer sur de l'ide en slave pour ne pas déséquilibrer)
@kwizart :
je reviens et j'avance doucement.

pour ta question, j'ai declaré 2 DD ide dans le bios pour le raid, et 2 volumes pour le raid logiciel a l'install de fc.

le nouveau :
-j'ai reussi a effacer le raid "hpt37x", ce qui donne maintenant :
[root@DOF3 ~]# dmraid -r
/dev/hdc: nvidia, "nvidia_cddbgbie", mirror, ok, 160836478 sectors, data@ 0
/dev/hdd: nvidia, "nvidia_cddbgbie", mirror, ok, 156301486 sectors, data@ 0
je n'en ai plus que 1.

-j'ai essayé de le monter avec "dmraid -ay -f nvidia" et ca donne :
[root@DOF3 ~]# dmraid -ay -f nvidia
RAID set "nvidia_cddbgbie" already active
[root@DOF3 ~]# mount -t ext3 /dev/hdc1 /media/RAID
mount: /dev/hdc1 already mounted or /media/RAID busy
je conclue donc que mon raid est ok.

ensuite j'ai utilisé ta cmd du #20, pour moi: "fdisk -l /dev/mapper/nvidia_cddbgbie", et ca donne :
[root@DOF3 ~]# fdisk -l /dev/mapper/nvidia_cddbgbie

Disk /dev/mapper/nvidia_cddbgbie: 80.0 GB, 80026360832 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/mapper/nvidia_cddbgbie1 1 9729 78148161 6 FAT16

par contre je comprends pas pourquoi c'est en fat32

-et qd je passe par gparted pour voir mes DD et partitions :
j'ai bien les 2 DD physiques en ide du raid + 1 DD sata pour mon systeme + 1 md0 (ce doit etre le volume raid de l'install), mais ma partition raid est bien en fat16, la je comprend pas, j'ai jms donné ce format).

j'ai encore 2 ou 3 questions :
-si ce raid est actif, ou je le trouve ?????
-dois-je le monter ? si oui comment ?
-comment puis-je ecrire dessus ?
-est-ce que je peux le passer en ntfs (je peux en expliquer le besoin, si besoin)????

d'avance merci pour ton aide....
Pour gparted c'est pareil que fisk -l il faut que tu passes en argument depuis une ligne de commande la vue depuis /dev/mapper ...

Ce que tu appel définir dans le bios ne me semble pas suffisant... Il faut que tu actives la capacité raid en quelquesorte sur chaque disque nappe, mais aussi que tu définisses le volume raid (en stripping:0 ou en miroring:1 - Attention! Si tu fais cela tu risque de perdre tes données actuellement sur le volume nouvellement crée).
la tout de suite, la sauvegarde est faite, verifiée et complete, donc pas de souci pour les données.
dans je bios, j'ai bien définit 2 DD ide, en raid mirroring seulement, pour assurer les svg.

mais je ne trouve vraiment pas comment monter le raid (il est actif, mais actif veut-il dire monter ??), donc je trouve pas comment y stocker des données pour essayer si ca marche.

comment fais-tu pour acceder a tes raids, les as-tu monter, ou sont-ils directement montés dans le poste de travail ????

je viens de rebooter, et ca fait 2 fois que j'ai un abnormal exit sur la ligne du udev, as-tu 1 idée du soucis ????
3 mois plus tard
Et, arretes moi si je me trompes, le raid 0 est un raid mirroring, copiant les données sur 2 DD.
le raid 0 groupe 2 disque physique en un disque logique
le raid 1 (miroring) copi les mémes données sur les deux disques en meme temp-> 2 disques identiques
Pour faire simple, tu as 2 disque de 20 Go

RAID 0 = 20 + 20 = 40 Go (aucune tolérance de panne, tu perds un disque, tu perds tout)
RAID 1 = 20 Go = Les deux disques sont des copies conformes (tu perds la moitié de ta surface, mais tu peux perdre un disque sans problème).