"nmcli con 必威show" 是否存在team0接口,不懂技术的

卡夫卡品质优化之坎坷路(2),kafka质量优化

接上一篇:

题外话:
 上一篇轻便说了一晃协和对kafka的部分基础掌握,以及c++中怎么着行使librdkafka来落到实处大家和好的业务须要。这一篇就来商量研究一些另类游戏的方法,跟代码无关,用到的才能也不算新,可是令本身倍感古怪的是,竟然从未人如此使用过,实施过。。。
 小编挺难过的,这么一些通用且实用,而且通过很简单的操作就能够升官好数倍质量的点子,竟然甚少人去接纳他们,以致奇怪。猛然感觉中国以此IT意况里,怎么能力作育出巨大的程序猿,公司青眼的是好处,领导赏识的是结果,不懂本领的人做领导,懂本事的人被领导,面试靠出口,工作靠开会,晋升靠资历,找工作靠教育水平。。。
 百分之99的等级次序,“先出叁个版本,后面再想念优化”“那个须要很简短,怎么落到实处作者不管,前些天自家将要”,可是。。恒久没不时间梳理,也艰巨考虑。项目永世很急,程序猿长久在加班。。。在此以前的代码永恒要靠下一任调bug。。。

扯远了,回归正题吧。

一.卡夫卡情形搭建
 互联网有非常多条件搭建的课程示例,看了弹指间,大致全部都以一模二样,都是并行转过来转过去,未有虚构到实在使用场景,也不思虑质量终归如何,也不思量怎么要如此搭,反正大家都以按那些套路来的,以至本身想找一篇搭建5个节点集群的都找不到。
 实际生育情况中,大家的kafka是搭建在服务器上的,大家都明白每台服务器搭建贰个节点,八个节点组成二个集群。我们也知道kafka的属性瓶颈是在网络IO和磁盘读写速度上。
常常状态下这么搭建当然是没难题的,並且kafka本人是为短音讯而设计的,然则在比比较多接纳场景中,大家只可以实时传输图片这种大音信,要是大家要搭建一个支撑日吞吐量4000万数据的集群,每条消息1M,
咱俩来算一下:
 倘诺每一种节点带宽是一千Mbps,可传输的字节数就壹仟/8=125M, 假如要帮衬每分钟处理500条数据,那须求二个多大的集群呢?
好的,500条*1M=500M, 500M/125M=4。 也正是4个节点的集群。没毛病呢好朋友?
没毛病么?毛病一点都不小呀。大家算的那500M只是是数额吞吐量的带宽,可是吞吐量吞吐量,有吞也是有吐啊。
最简便易行的1份添丁1份花费,各必要占掉个中六分之三的带宽,那大家要到达每分钟生产500条花费500条,起码就要求一千M字节的带宽。
这只是最奇妙的条件,实际选拔中,必然不独有三个顾客要从kafka中费用数量,假若有3个顾客要从集群中花费数据,还要协助每秒500条,那就表示自身这一个集群的吞吐总数要达成每分钟两千M字节,网络io比特率要满意每分钟两千0Mbps,假诺每一种节点采用千兆网卡,那表示小编需求贰个由20台服务器组成的集群。一台服务器保守点配置日常的5万块钱一台,那就供给100万本金。
那明摆着不对啊,kafka不是称呼吞吐量宇宙第一的么,怎会要靠堆集服务器的数码来满意仅仅是每秒管理500条数据的供给吗?
那当中必然有标题,作者要去找官方要个说法去,那跟你们吹出来的完全不相符啊,逗小编呢啊?
求带麻袋,我们再细致回过头来想一想,难点出在哪吧,大家的图谋也没难点,那要么算的最最赏心悦目标地方下,实际的生产情况可能更差。不对,一定有标题。

密切屡了又屡,真的没难题,大家合营社就是这么用的呦,大家厂商也是如此用的呦,没毛病呢老铁?
没毛病么?毛病十分的大啊。通过上边的估算我们很举世瞩目会吸收三个强劲而且官方可验证的结论,限制kafka质量的只可以是互连网带宽远远不足大。有没有主意缓慢解决吧?换万兆带宽?整个都换到万兆,那那多少个,开支又翻了一倍,200万股份资本。

好呢,接下去正是大家怎样缓和这么些互联网瓶颈的实践之路了:
    既然大家的瓶颈是在网络上,互连网的瓶颈又是在网卡上,把千兆网卡换万兆网卡又不现实,那就只剩一条路了,增加块网卡。OK,日常的服务器都扶助4网口+1管理口,先来插上四根网线,配置多个ip地址。没毛病,然后我们就想了,既然都有四块网卡,每块网卡又有单独的ip地址了,那大家是还是不是足以在一台机器上搭建4个kafka节点,每种节点绑定一块网卡呢,来试试啊,很打动。。。根据教程,一步一步,摩擦摩擦,biu的一。。。。纳尼??竟然起不来??难道笔者安排出标题了?检查一遍,给自家起。。。检查两次,给本人起。。。检查三次。。。百度谷歌(Google),检查柒遍。。。什么鬼???kafka难道不扶助在一台机械上开多少个经过?不对啊,不是还大概有在一台机械上搭建伪集群的科目摆在那呢,那表达不是kafka的标题。然后又是一顿查,一顿乱试,终于。。大家核算出了本质:在同样台机器上起三个kafka要求配置端口号不雷同,何况新版kafka逐步放弃了host.name和port这四个布局项,全体相关的布置,只必要配置listeners就能够。
再全体删掉重新来过,配网卡ip,配listeners,给作者起!哈哈哈,终于起来了,并且能够健康生产开销数据了,我当成太狠了,这么难的主题素材居然被小编搞定了,经过这么多努力,我们究竟能够达成一块网卡对应一个kafka节点的受人尊敬的人愿望了,还会有哪个人??  但是。。。俗话说的好。。。不要喜欢的太早。。。过早。。早。。

来吗,让咱们看一看你的网络IO瓶颈能还是不能够达成6000Mbps吧,手指急迅的输入一串代码:sar -n DEV 1  
当当当。。随着生产线程数的充实,互联网io非常快实现一千Mbps了,小编要再加13个生产! sar -n DEV 1 当当当。。。什么?网络io竟然依旧一千Mbps,不对不对,怎么肥四?抓个包看一看,四个ip分别创建tcp链接并早先相互数据,没难题啊,再精心一瞅,我去,为什么全部ip指向的都是同贰个mac地址,那不科学啊,是在逗作者吧?作者不相信,确定是我哪个地方配置错了,明确是作者心远远不够义气,确定是本人起步的艺术不对。。。我不相信,小编不相信。。。笔者不相信。。。让我们再试贰回。。几遍。。。一次。。。
求带麻袋,全体网卡ip都指向了叁个mac地址,是还是不是说供给手动配置网卡的路由音讯,让每一个网卡都经过协和的路由来转载数量,查资料,看教程,看man手册,配置路由。。让我们再虔诚的试三回。。。试四遍。。。试二回。。。不玩了。。作者要回家,小编想阿妈。。。

静下心来再想想:我们明日得以确定的是,在一台机械上搭建集群是立见功效的,只需配备端口号差别等就能够,各样kafka节点绑定一块网卡的点子不可行,尽管把套接字绑定到一个特定网卡的ip上,数据包离开主机时会首先通过路由表,路由表会寻找最低资本的互联网接口(肆意静态的接口)进行发送,大家安插的四块网卡具备一样的财力,因为四块网卡是在同二个子网内(即同二个网段),因而传输率不会超过单张网卡的传输率,倘使要消除这么些主题素材,那么实用的路径是手动配置路由表音讯,何况要保险四块网卡的ip位于不相同的网段上,并要确认保证差异的网段是足以连接的。

好吧,实际行使中大家是被分配ip的那个,并非能够私行分配网段的那些,鲜明这种办法也不可行,不过最少我们总括出了一套一蹴而就方案不是么。

大家花了汪洋的岁月琢磨kafka跟网卡之间的关联,但忽然回过头来想,开掘大家神不知鬼不觉中绕了一个大弯。追根究底,大家是要减轻网络带宽的主题素材,结果反而把团结绕到跟kafka的关联上了,既然在一台机械上能够搭建伪集群,那么为何不把这台机械的具有网卡做四个绑定呢?

从Centos7起先利用team方式,链路聚合的不二等秘书诀进行多网卡绑定,让大家来试一试呢:
详细表达请参见官方文书档案:

要刚烈的是,用于绑定的网卡,不应有安排任邓建国态的IP地址,进行绑定以前,供给将有着网卡复苏到开首化状态。並且一台服务器只好有多少个网关。
咱俩需求的是充实带宽方式的绑定,至于其余形式,请自行钻研,通过NetworkManager来配置一下:

  1. 创设team1,并精选情势:
    命令:nmcli connection add con-name team1 type team ifname team1 config '{"device": "team1", "runner": {"name": "loadbalance","tx_hash": ["eth", "ipv4", "ipv6"],"tx_balancer": {"name": "basic"}}}'
  1. 增添网卡开展绑定(本机一共四块网卡)
    命令:nmcli connection add con-name team1-port1 type team-slave ifname enp2s0f0 master team1
    nmcli connection add con-name team1-port2 type team-slave ifname enp2s0f1 master team1
    nmcli connection add con-name team1-port3 type team-slave ifname enp2s0f2 master team1
    nmcli connection add con-name team1-port4 type team-slave ifname enp2s0f3 master team1
  1. 给绑定后的杜撰网卡设置IP地址和网关
    命令:nmcli connection modify team1 ipv4.addresses 192.20.25.100/24 ipv4.gateway 192.20.25.254 ipv4.method manual
    备注:ipv4.addresses 192.20.25.100/24这里是四块网卡聚合成一块网卡的ip地址和子网掩码缩写。
    ipv4.gateway 192.20.25.254这里是网卡的网关配置。
  1. 启动team1
    命令:nmcli connection up team1 

5.重启互联网
命令:systemctl restart network

  1. 查阅景况
    命令:teamdctl team1 state
    备考:这里应该显得了4块网卡的音信。
  1. 列出team1的端口
    命令:teamnl team1 ports
    备注:这里应该显得了4块网卡的音讯。

任何的操作:nmcli device disconnect  enp2s0f0 (禁用在那之中的一块)
nmcli device connect enp2s0f0(启用其中的一块)
ip link set down enp2s0f0 (关闭掉个中的一块实行测量试验)

  1. 查阅互联网
    命令:ip add
    备考:这里就足以体现出team1的信息(ip和网关等新闻)。

至此,配置多网卡链路聚合结束。

万分企盼中,我们在其上述搭建了叁个kafka伪集群,开头测量试验。。。开12个生产!
当当当。。。网络IO达到一千Mbps,三千Mbs,两千Mbps,3600Mbps...天呐,竟然成功了。。。并且带宽损失率竟然不当先百分之10.。。

咱俩成年人在多少个幸运的时日,学习发展的本钱如此之小,

大家成年人在三个倒霉的时期,学习进步的花费如此之大。

一.CentOS 7网络属性配置

(一)网卡名称命名

选拔守旧命超方式: 

(1) 编辑/etc/default/grub配置文件 GRUB_CMDLINE_LINUX="rhgb quiet net.ifnames=0"

必威 1

image.png


(2) 为grub2生成其安排文件

grub2-mkconfig -o /etc/grub2.cfg 或是grub2-mkconfig > /etc/grub2.cfg
(3) 重启系统
或选取对/boot/grub2/grub.cfg来促成修改
步骤:

(1)vim /boot/grub2/grub.cfg

必威 2

image.png

必威 3

image.png


(2) cdnet ——cd /etc/sysconfig/network-scripts来修改配置文件
vim ifcfg-ens33

必威 4

image.png


(3)保存后。重启使其收效

(报mac错误,正常)

[root@linuxidc ~]# nmcli connection add con-name team0-port1 ifname ens34 type team-slave master team0

nmcli conn down eno16777736  //关闭连接eno16777736

以实验来评释:

步骤:
(1)首先将三个网卡都在设定在贰个网段(都以仅主机形式)
初步布署 ncmli connection add type bond con-name bond0 ifname bond0 mode active-backup(主备方式)

必威 5

image.png

(2)使bond0生效——nmcli connection up bond0

必威 6

image.png


(3)nmcli connection show——查看是不是启用该配置网卡
(4)关联三个slave网卡——
nmcli connection add con-name bond0-slave1 type bond-slave ifname eth0 master bond0
nmcli connection add con-name bond0-slave2 type bond-slave ifname eth1 master bond0

必威 7

image.png

(5)使网卡生效——nmcli connection up bond0-slave1 nmcli connection up bond0-slave2
完了安装
cat /proc/net/bonding/bond0 来查阅具体哪些网卡生效
删去bond0网卡方法
(1)禁止使用网卡 nmcli connection down bond0
nmcli connection delete bond0
nmcli connection show-来查看是不是删除
nmcli connection delete bond0-slave1
nmcli connection delete bond0-slave2
nmcli connection reload——同步
nmcli connection show-做最终的确认

 

[root@linuxidc ~]# nmcli connection modify br1 ipv4.addresses "192.168.20.20/24,192.168.20.1"
[root@linuxidc ~]# nmcli connection modify br1 ipv4.method manual

nmcli con add type bond-slave ifname eno2 master bond0

三测量试验互连网工具

(1)在命令行下测量试验网络的连通性 
来得主机名 hostname 
测量试验互联网连通性 ping mtr 
来得正确的路由表 ip route 
规定名称服务器使用: nslookup  host  dig 
追踪路由 • traceroute • tracepath
(2)网络顾客端工具
ftp,lftp
子命令:get、 mget、ls、help
lftp [-p port] [-u user[,password]] SERVER 
lftpget URL 
wget [option]... [URL]...
-q: 静默形式 -c: 断点续传 -O: 保存地点 --limit-rate=: 钦赐传输速率,单位K,M等 links URAV4L --dump --source

 

[root@linuxidc network-scripts]# teamnl team0 getoption mode

nmcli创造的互连网连接是随便的,类型二种含有bond、bridge、vlan、wifi、bluetooth、ethernet、vpn等等,名字能够大肆取。设备和一连是一对多的关系,但各种设备同期只可以对应二个运维的连年。

(三)nmcli命令

(1)命令行工具:nmcli——有过多的子命令

必威 8

image.png

经过 nmcli connection help来纯熟有关命令

必威 9

image.png


nmcli [ OPTIONS ] OBJECT { COMMAND | help }

  • device - show ——相当于ip link,查看数据链路层音讯
  • nmcli connection show ——也便是ip addr查看网络层新闻
    (2)修改IP地址等属性
  • nmcli connection modify ens33 connection.id eth0——将name=ens33改为eth0

    cat /etc/sysconfig/network-scripts/ifcfg-ens33

    必威 10

    image.png


    nmcli con reload:重新加载,功用是使配置文件生效

  • 在eth1网卡上新增加八个网卡
    nmcli connection add con-name home-eth1 ethernet ifname eth1

    ls /etc/sysconfig/network-scripts/ifcfg-home-eth1

    必威 11

    image.png


    那儿让该网卡生效效用在eth第11中学:nmcli connection uo home-eth1,原本的网卡被挤掉,使用新布署的网卡,因为该网卡的BOOTPROTO是dhcp类型的,所以会活动获取新的网站
    万一想将自行获取格局改为手动获取方式,则通过:nmcli connection modify home-eth1 ipv4.method manual ipv4.addresses 3.3.3.3/24 ipv4.gateway 3.3.3.1 ipv4.dns 2.2.2.2

    接下来nmcli connection up home-eth1来使其收效
    剔除新添网卡:
    nmcli connection down home-eth1
    nmcli connection del home-eth1
    nmcli connection show来查阅是还是不是删除
    (3)修改配置文件施行生效
    systemctl restart network 或是 nmcli con reload 
    nmcli命令生效: nmcli con down eth0 ;nmcli con up eth0

(四)使用nmcli配置互连网

NeworkManager是治本和监察互连网设置的护理进度 
道具即互联网接口,连接是对网络接口的配置。
二个互联网接口 可有多个一连配置,但同期只有多少个接二连三配置生效 

  • 展现全体包涵不活动接二连三
    nmcli con show 
  • 展现全部移动再而三
    nmcli con show --active 
  • 来得网络连接配置
    nmcli con show "System eth0“ 
  • 呈现设备状态
    nmcli dev status
  • 体现网络接口属性 nmcli dev show eth0 
  • 创办新连接default,IP自动通过dhcp获取
    nmcli con add con-name default type Ethernet ifname eth0 
  • 删除连接 nmcli con del default 
  • 开创新连接static ,钦命静态IP,不活动再三再四 nmcti con add con-name static ifname eth0 autoconnect no type Ethernet ip4 172.25.X.10/24 gw4 172.25.X.254

 

    查看team0的干活境况:

#nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name": "activebackup"}}'

CentOS 6以前,网络接口使用三番五次号码命名:eth0、eth1等,当 扩充或删除网卡时,名称恐怕会产生变化 
CentOS 7使用基于硬件,设备拓扑和装置类型命名: 
(1) 网卡命名机制 systemd对网络设施的命名方式
(a) 如若Firmware或BIOS为主板上并轨的配备提供的索引音讯可用,且可预测则基于此索引实行命名,比方eno1
(b) 即便Firmware或BIOS为PCI-E扩充槽所提供的目录消息可用,且可预测,则基于此索引入行命名,比如ens1
(c) 假使硬件接口的情理地方消息可用,则基于此音信进行命 名,比方enp2s0
(d) 倘诺客户显式运维,也可依靠MAC地址进行命名, enx2387a1dc56
(e) 上述均不可用时,则动用古板命名机制

  绑定第二块网卡:"nmcli con add con-name 网卡小名2 ifname 原网卡名2 type team-slave master team0"。

            3、图形化分界面;

nmcli conn up eno16777736  //张开连接eno16777736

(六)网络组Network Teaming

(1)互联网组:是将八个网卡聚合在一齐方法,从而达成冗错和提 高吞吐量 
互连网组分化于旧版中bonding本事,提供更加好的性情和扩大性 
网络组由基础驱动和teamd守护进度完成. 
两种方法runner
broadcast
roundrobin
activebackup
loadbalance
lacp (implements the 802.3ad Link Aggregation Control Protocol)
(2)运转网络组接口不会自动运维网络组中的port接口 ——nmcil connection up team0时,网络组中的port接口未有运行
启航互连网组接口中的port接口总会自动运营网络组接口 ——nmcli connection up team-slave-eth0,此时网络组接口也会运维
剥夺网络组接口会自动禁止使用互连网组中的port接口——nmcli connectiion down team0,网络组的port接口也会被禁止使用
尚无port接口的网络组接口能够运营静态IP连接 
启用DHCP连接时,未有port接口的网络组会等待port接 口的步入
(3)创制网络组接口
nmcli con add type team con-name CNAME ifname INAME [config JSON] CNAME 连接名,INAME 接口名 JSON 指定runner方式 格式:'{"runner": {"name": "METHOD"}}' METHOD 可以是broadcast, roundrobin, activebackup, loadbalance, lacp
(4)创建port接口
nmcli con add type team-slave con-name CNAME ifname INAME master TEAM CNAME 连接名 INAME 网络接口名 TEAM 网络组接口名 
连日来名若不钦点,默感到team-slave-IFACE nmcli dev dis INAME nmcli con up CNAME INAME 设备名 CNAME 互联网组接口名或port接口
(5)网络组示例
nmcli con add type team con-name team0 ifname team0 config ‘{"runner": {"name": "loadbalance"}}' 
nmcli con mod team0 ipv4.addresses 192.168.1.100/24 
nmcli con mod team0 ipv4.method manual 
nmcli con add con-name team0-eth1 type team-slave ifname eth1 master team0 nmcli con add con-name team0-eth2 type team-slave ifname eth2 master team0 nmcli con up team0 
nmcli con up team0-eth1 
nmcli con up team0-eth2 
teamdctl team0 state; nmcli dev dis eth1
实施:创设网络组
ip link nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name": "activebackup"}}' 
nmcli con mod team0 ipv4.addresses '192.168.0.100/24' 
nmcli con mod team0 ipv4.method manual 
nmcli con add con-name team0-port1 type team-slave ifname eth1 master team0 nmcli con add con-name team0-port2 type team-slave ifname eth2 master team0 teamdctl team0 state
ping -I team0 192.168.0.254 
nmcli dev dis eno1 
teamdctl team0 state 
nmcli con up team0-port1 
nmcli dev dis eno2 
teamdctl team0 state 
nmcli con up team0-port2 
teamdctl team0 state
(5)管理网络组配置文件/etc/sysconfig/network-scripts/ifcfg-team0
DEVICE=team0
DEVICETYPE=Team
TEAM_CONFIG="{"runner": {"name": "broadcast"}}"
BOOTPROTO=none
IPADDR0=172.25.5.100
PREFIX0=24
NAME=team0
ONBOOT=yes
/etc/sysconfig/network-scripts/ifcfg-team0-eth1
DEVICE=eth1
DEVICETYPE=TeamPort
TEAM_MASTER=team0
NAME=team0-eth1
ONBOOT=yes

                                          ## 实验练习

始建一个网络组,runner情势为broadcast,手动增加网站
步骤
nmcli connection add type team con-name team0 ifname team0 config '{"runner":{"name":"broadcast"}}'
nmcli conection modify team0 ipv4.adresses 192.168.136.176/24 ipv4.method manual
添加port接口
nmcli connection add type team-salve con-name team-slave0-eth1 ifname team-slave-eth1 master team0
nmcli connection add type team-salve con-name team-slave0-eth0 ifname team-slave-eth0 master team0
ping 192.168.136.176
teamdctl team0 state
删除网络组
nmcli connection down team0
nmcli connection delete team0
nmcli connection delet team-slave0-eth1
nmcli connection delet team-slave0-eth0
nmcli connection reload

2.查看接口:"nmcli con show" 是还是不是留存team0接口。

三、配置桥接互连网
1、使用brctl命令

nmcli con up bond0

(二) CentOS7主机名

(1)配置文件:/etc/hostname ,默许未有此文件,通过DNS反向分析获取主机名,主机名默认为:localhost.localdomain——cat /etc/hostname 

必威 12

image.png

(2)显示主机名音信 hostname hostnamectl status 
(3)设置主机名 hostnamectl set-hostname centos7.magedu.com

有别于于centos6,采取上述命令后会自动生成,且自动写入配置文件中

必威 13

image.png


(4)删除文件/etc/hostname,恢复生机主机名localhost.localdomain 
CentOS 7网络布局工具 

图形工具:nm-connection-editor 

字符配置tui工具:nmtui 

必威 14

image.png

5.运转聚合网络:"nmcli con up team0"

2、使用nmcli命令

nmcli con mod bond0 connection.autoconnect yes

二.网桥

(1)概念:
桥接:把一台机器上的多少个网络接口“连接”起来。其结 果是,在那之中贰个网口收到的报文子禽被复制给其余网口并发送 出去。以使得网口之间的报文可以互为转载。网桥便是那样 叁个装备,它有多少个网口,並且那么些网口是桥接起来的。 与网桥相连的主机就能够由此沟通机的报文转载而互相通信。 
主机A发送的报文被送到沟通机S1的eth0口,由于eth0与 eth1、eth2桥接在一齐,故而报文被复制到eth1和eth2,况兼发送出去,然后被主机B和沟通机S2吸取到。而S2又会将 报文转载给主机C、D。

必威 15

image.png

(2)配置落成网桥
布局原理和bonding和互连网组的创始类似,具体安插过程如下:
nmcli connection add type briage con-name brg0 ifname brg0
nmcli connection modify br0 ipv4.addresses 192.168.38.100/24
ipv4.method manuall
nmcli con add type bridge-slave con-name br0-slave0-eth1 ifname eth1 master br0
nmcli con add type bridge-slave con-name br0-slave0-eth0 ifname eth10master br0
查看配置情形
cat /etc/sysconfig/network-scripts/ifcfg-br0
cat /etc/sysconfig/network-scripts/ifcfg-br0-port0
brctl show
删去网桥
首先禁止使用网卡,然后删除网卡brctl delbr br0 
除去网桥中网卡 brctl delif eth0 
瞩目:NetworkManager只扶助以太网接口接口连接到网桥,不支 持聚合接口

3.绑定第一块网卡:"nmcli con add con-name 网卡外号1 ifname 原网卡名1 type team-slave master team0"。

添加team0

#nmcli con add type team-slave con-name team0-port2 ifname eno2 master team0

(五)nmcli实现bonding

添加bonding接口
(1)nmcli con add type bond con-name mybond0 ifname mybond0 mode active-backup
(2)增添附属接口 nmcli con add type bond-slave ifname ens7 master mybond0 nmcli con add type bond-slave ifname ens3 master mybond0
注:如无为隶属接口提供连接名,则该名称是接口名称加类型构成 
(3)要运行绑定,则必需首先运转附属接口 nmcli con up bond-slave-eth0 nmcli con up bond-slave-eth1 
(4) 运维绑定 nmcli con up mybond0

4.陈设team0接口参数:"nmcli connection modify team0 ipv4.addresses "网段恐怕ip" ipv4.method manual connection.autoconnect yes"

 增添桥接互连网:

成立、命名连接,并做基本配置

本文由必威发布于必威-运维,转载请注明出处:"nmcli con 必威show" 是否存在team0接口,不懂技术的

TAG标签:
Ctrl+D 将本页面保存为书签,全面了解最新资讯,方便快捷。