链路聚合(英文:LinkAggregation)是一个计算机网路术语,指将多个数学端口凝聚在一起,产生一个逻辑端口,以实现出/入流量吞吐量在各成员端口的负荷分担,交换机按照用户配置的端口负荷分担策略决定网路封包从那个成员端口发送到对端的交换机。当交换机测量到其中一个成员端口的链路发生故障时,就停止在此端口上发送封包linux命令,并按照负荷分担策略在剩下的链路中重新估算报文的发送端口,故障端口恢复后再度兼任收发端口。链路聚合在降低链路带宽、实现链路传输弹性和工程冗余等方面是一项很重要的技术。
总结一下就是:两个数学网卡绑定为一个逻辑网卡
企业工作中,我们的网路状况是不能出现问题的,假如出现问题会带来非常多的麻烦与损失,所以单纯使用一块网卡来进行网路服务肯定是不保险的,我们须要通过2块网卡来绑定为一个逻辑网卡来工作;
其中链路聚合一般分为三种工作模式:
(1)active-backup:主备(一块网卡工作,另一块备用,当工作的网卡出问题时,备用网卡及时上岗因而防止网路出现问题)
(2)loadbalance:负载均衡
(3)roundrobin:寻址
其中我们最常用的就是第一种主备模式!
开始实验!
在一台虚拟机中做实验:
可以看见我们的虚拟机有两块网卡分别是eth0,eth1:
创建链路聚合的逻辑网卡bond0:
借助nmcli命令,可以通过nmcli--help,或则按两下tab键查看可输入的名令
eg:按两下tab出现下边那么多种mode供我们参考选择,我们选择主备模式active-backup
完整命令如下:
ip为172.25.254.111的,bond类型的,名为bond0的,主备模式的逻辑网卡:
再度查看网卡情况:
可以看见出现了我们刚刚配置成功的逻辑网卡bond0:
由于bond0早已设置了IP地址172.25.254.111,我们真机的IP为172.25.254.148在同一公网所以试着PING一下:
真机IP:
可以发觉ping不通我们的bond0:
查看逻辑网卡相关信息:
cat/proc/net/bonding/bond0
可以看见模式为主备
备用网卡没有(none)
正在工作的主网卡也没有(none)
所以PING不通是由于链路聚合的逻辑网卡bond0想要正常工作就必须给它添加可用的网卡:
添加真实网卡eth0到bond0逻辑网卡:
nmcliconnectionaddcon-nameeth0ifnameeth0typebond-slavemasterbond0
观察bond0信息变化:
可以看见活跃的Slave下出现了eth0网卡linux桌面,但是由于我们只添加的eth0网卡linux端口聚合加大带宽,所以备用网卡此时是没有的
此时再用真机PING一下bond0设置的IP:(发觉可以PING通了!)
添加备用网卡eth1到逻辑网卡bond0:
与添加eth0命令一致只须要将eth0换为eth1即可!:
观察bond0信息:
可以看见不仅主网卡eth0以外,又出现了备用网卡eth1:
我们模拟一下当主网卡不在工作的时侯eth1是否及时上岗工作!:
首先监视bond0信息:
watch-n1cat/proc/net/bonding/bond0
让eth0网卡下线:
ifconfigeth0down关掉eth0
ifconfigeth0up开启eth0
执行ifconfigeth0down前eth0正作为主网卡在工作:
执行后:(可以看见eth1及时的由备用网卡变为了主网卡来继续工作保证网路不出现问题!)
当我们开启eth0linux端口聚合加大带宽,关掉eth1的时侯:(eth0由备用网卡变为了主网卡!)
###配置文件编撰的构建方式###
编撰bond0文件:
vim/etc/sysconfig/network-scripts/ifcfg-bond0
编撰完毕,重启网路生效:
再编撰eth0,eth1主,备用两块网卡到bond0上:
eth0文件的内容:
步骤:(先编撰,再重启,查看是否生成配置文件)
同理eth1文件的配置:
可以看见bond0信息又出现了:
#####设备的移除#####
先查看网卡设备:
nmcliconnectionshow
删掉逻辑网卡bond0:
nmcliconnetctiondeletebond0
删掉eth0eth1插口上的信息:
over!