Avant que je me replonge dans "Documentation/networking/bonding.txt", j'aimerais savoir si quelqu'un à déjà tenter une aggregation de 2 liens : 1 ethernet et 1 wifi au travers d'un interface bond...

J'ai déjà utilisé le bonding pour faire de la haute dispo et de l'agregation (trunking) avec 2 liens ethernet.
Est-ce possible avec 1 lien ethernet et 1 lien wifi ?

Est-ce compatible avec Network Manager ? (ça c'est la question qui tue...🙂)
hum, si tu as fait sur deux ethernets, je veux bien que tu nous explique ce dont tu parles!
J'ai pas du tout saisi !
kwizart wrote:hum, si tu as fait sur deux ethernets, je veux bien que tu nous explique ce dont tu parles!
J'ai pas du tout saisi !
En fait, j'ai déjà expérimenté des configurations du style :

1) bond0 = eth0+eth1 en haute dispo (un seul eth actif à la fois et basculement sur l'autre eth si l'eth actif perd le lien physique - j'entend par là que le matériel réseau sur lequel il est connecté est k.o. ou que le câble réseau qui relie l'interface eth avec ce matériel réseau est débraché / sectionné / ...)

2) bond0 = eth0+eth1 en trunk (les 2 eths sont actifs en même temps et on obtient une connexion en simili 200Mb/s (ou 2Gb/s si on travaille avec des interfaces Gigabit)

Et actuellement je me pose la question (peut-être bête) de savoir si on peut faire : bond0= eth0 + ath0 (j'utilise madwifi pour gérer ma carte wifi) pour faire un trunk à 154 Mb/s (théorique).

Je ne suis pas sûr que ce soit faisable et j'aimerais savoir si d'autres se sont déjà posés la question, y ont répondu, et, si c'est faisable, si c'est compatible avec Network Manager (question subsidaire motivée par le fait que, par défaut, Network Manager bascule automatiquement du wifi à l'ethernet câblé, lorsqu'il détecte que cette dernière est opérationnelle, bien que je pense qu'une fois qu'on a une interface bond0 à la place d'une eth0 et d'une ath0, le problème est règlé).
Et comment tu crées un bond0 concretement ?

A priori je ne pense pas que NetworkManager te soit utilile dans ce cas...Mais à tester...

Est ce qu'il ne faut pas que le matériel(driver) supporte cette configuration à la base?
Je crois que les derniers chipsets nforce nvidia comporte un certain nombre de fonctions pour gérer ce genre de montages...
@kwizart
le bonding c'est le terme linux pour l'etherchannel chez cisco ou trunking chez sun (norme IEEE 802.3ad)
pour la création de l'interface bondX, c'est avec la commande ifenslave (grossièrement c'est comme pour créer un pont)
regardes ce vieux post : http://forums.fedora-fr.org/viewtopic.php?id=679&words=bonding

@da_norf
Je ne peux pas te répondre mais je voudrais te poser quelques questions :
Quel mode envisages-tu pour ton agrégation (active-bakcup, broadcast, balance-rr, balance-xor,etc) ?
utilises-tu une méthode 'fedora' avec un fichier ifcfg-bond0 ou passes-tu un script maison ?

PS : je sais que l'on peut mixer des interfaces avec des débits différents, mais aucune idée pour savoir si l'on peut mixer du sans fil avec du filaire, j'aurais tendance à dire que le mode envisagé doit influencer fortement le résultat 😐
kwizart wrote:Et comment tu crées un bond0 concretement ?
celmir wrote:utilises-tu une méthode 'fedora' avec un fichier ifcfg-bond0 ou passes-tu un script maison ?
En fait j'en ai encore jamais configuré sur Fedora ...🙁 (seulement sur des RedHat -8, 9 et ES EL-)
Donc je le fait "simple", à la main, par exemple pour une configuration haute-dispo, je modifie les fichiers suivant comme suit :

/etc/modules.conf
...
alias bond0 bonding
options bond0 miimon=100 mode=1
/etc/sysconfig/network-scripts/ifcfg-ethX
DEVICE=ethX
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
ETHTOOL_OPTS=autoneg off speed 100 duplex full
/etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
BOOTPROTO=none
ONBOOT=yes
NETWORK=172.26.11.0
NETMASK=255.255.255.0
IPADDR=172.26.11.99
BROADCAST=172.26.11.255
GATEWAY=172.26.11.19
USERCTL=no
Ce qui fonctionne très bien pour mon besoin. S'il existe une méthode "Fedora", il faudra que je me renseigne, car je connais pas...
kwizart wrote:A priori je ne pense pas que NetworkManager te soit utilile dans ce cas...Mais à tester...
Ma question n'est pas "Est-ce utile ?" mais "Est-ce compatible ?"
kwizart wrote:Est ce qu'il ne faut pas que le matériel(driver) supporte cette configuration à la base?
Pas à ma connaissance, mais je ne suis pas non plus expert en ce domaine...
celmir wrote:Quel mode envisages-tu pour ton agrégation (active-bakcup, broadcast, balance-rr, balance-xor,etc) ?
Comme ça, par défaut, sans plus y avoir réfléchi, j'aurais dit : "balance-rr"...
celmir wrote:PS : je sais que l'on peut mixer des interfaces avec des débits différents, mais aucune idée pour savoir si l'on peut mixer du sans fil avec du filaire, j'aurais tendance à dire que le mode envisagé doit influencer fortement le résultat 😐
Je ne suis, donc pas le seul sur le Forum a me poser des questions sur ce sujet 😉 Quelque part, ça me rassure, j'avais un peu peur d'être passé à côté d'un truc évident...
celmir wrote:le bonding c'est le terme linux pour l'etherchannel chez cisco ou trunking chez sun (norme IEEE 802.3ad)
Pour le Trunking de Sun, je ne peux rien dire, mais l'Etherchannel de Cisco, du temps où j'y est touché (la dernière fois c'était sur un 5500...), on ne pouvait faire que de l'aggrégation de liens provenant de plusieurs ports d'un même switch, pas de haute-dispo, il me semble... donc le bonding de Linux serait plus complet.
tu utilises ce que je pense etre une méthode fedora (ce n'est peut-etre pas restrictif), enfin si ke compare avec ce que j'avais testé en reprenant un article qui décrivait une solutin adaptée à debian.

Juste pour argumenter les différentes déclinaisons propriétaires de 802.3ad :
http://en.wikipedia.org/wiki/Link_aggregation