精彩继续 1.Hyper

  • 时间:
  • 浏览:1

http://www.aidanfinn.com/?p=18813

New-NetIPAddress -InterfaceAlias “vEthernet (mgmt)” -IPAddress 400.0.0.2 -PrefixLength “24”

  clus  90.0.0.3

  Mgmt  400.0.0.2

  真实场景下我建议当.我歌词 歌词 配置为LACP模式的teaming,两张10GB,进出双网卡。

https://community.mellanox.com/docs/DOC-2904

New-NetIPAddress -InterfaceAlias “vEthernet (Clus)” -IPAddress 90.0.0.2 -PrefixLength “24”

#针对存储网络及迁移虚拟网络适配器启用RDMA

#确保网卡顺序如下,Mgmt作为首要出站网络DNS访问解析

  OK,上端基础打好了,下面.我歌词 歌词 随后结束了了今天的重头戏,融合网络,我先不解释太少,.我歌词 歌词 先随后结束了了进入二个 多 群集环境,.我歌词 歌词 在环境中慢慢看请它的真面目

  clus  90.0.0.2

http://www.tech-coffee.net/how-to-deploy-a-converged-network-with-windows-server-2016/

关于DefaultFlowMinimumBandwidthAbsolute与 MinimumBandwidthWeight参数用途及深入解释※

  当然微软最终也听从了广大群众的呼声,在2016上端,提供了新的技术Switch Embedded Teaming,创建出来的虚拟交换机,将支援融合网络中使用RDMA VRSS等技术

  关于服务器为什装,ISCSI,MPIO为什配置本文不做说明,.我歌词 歌词 直接进入Convered Network技术配置的场景中

Set-VMNetworkAdapter -ManagementOS -Name "Clus" -MinimumBandwidthWeight 10

     到这里.我歌词 歌词 是时需感觉很奇妙,其实最初老王猜想这会是和vmware端口组一样的技术那就酷了,虚拟机接到端口组,每个端口组可不让能用不同的网卡,还可不让能做故障转移容错,VLAN ID,QOS的设置,微软你这一,除了每块虚拟网络适配器非要做故障转移其它也都差太少嘛,但当做出来后实际看还是很糙区别,vmware esxi上端的端口组做完以前,虚拟机直接就可不让能接入到端口组中,相对来说效果更加直观,便于理解

http://www.davidmercer.co.uk/windows-2012-r2-hyper-v-converged-network-setup/

  今天的融合网络环境架构如下

Add-VMNetworkAdapter -ManagementOS -Name "Mgmt" -SwitchName  "vSwitch"

   一个劲很想写这篇博客,与.我歌词 歌词 探讨交流这项技术, Hyper-V Converged Network,中文我将它翻译为融合网络,随后老王又发现这项技术似乎没法群集一句话意义不大,所以再加了群集二字,以前很少看完国内村里人 写过这方面的博客,但会 在国外从2012随后结束了了以前有不少人对这项新技术进行了尝试,到Windows Server 2016,Converged Network模型更是支援了RDMA,但会 决定写这篇博客,希望要能让更多中国的微软ITpro们知道这项技术,为.我歌词 歌词 抛砖引玉,内容不对之处欢迎探讨指正

----------------------------------------------------------------------------

https://blogs.technet.microsoft.com/meamcs/2012/05/06/converged-fabric-in-windows-server-2012-hyper-v/

Set-VMSwitch "vSwitch" -DefaultFlowMinimumBandwidthWeight 20

  我这里是使用两张1GB,以前生产环境建议相当于四张1GB或两张10GB

https://charbelnemnom.com/2014/05/create-a-converged-network-fabric-in-vmm-2012-r2/

 2.群集内数据库同步流量

New-NetIPAddress -InterfaceAlias “vEthernet (VM)”   -IPAddress 400.0.0.2 -PrefixLength “24”

http://www.aidanfinn.com/?p=13947

  12DC :400.0.0.1 承担域控角色

----------------------------------------------------------------------------

   上述一种流量,其实都包括在.我歌词 歌词 已知的“心跳网络”中 ,不看告诉我,一看吓一跳,一个劲被.我歌词 歌词 忽略的心跳卡竟然也承担着没法多工作,但会 还很糙要,通过我的介绍相信.我歌词 歌词 以前有个基本的了解,对于群集网络规划时,一定要把你这一类型的群集通信网络单独出来,确保它可不让能获得最高的质量,解决被其它流量干扰,尤其是要和迁移流量隔失去,即是说相当于应该有一种群集网络。

  另外两块卡做ISCSI MPIO  400.0.0.3 400.0.0.4

    群集数据库主要所以我记录你这一数据,群集配置,群集成员配置,群集资源的再加,创建,启动,删除,停止,下线等状况变化,但会 与或多或少节点进行同步,速度单位使用何必 会很大,但一定要准确,每个节点之间的群集数据库一定要一致,这是最重要的要求,但会 ,群集之间各个节点时需实时的去同步群集数据库,确保每个节点的数据库内容一致,另二个 多 当有节点出現下线操作,其它节点才可不让能准确的承担他的工作,.我歌词 歌词 在群集中执行再加角色,删除角色,新增群集资源的以前时需触发数据库的同步操作,但会 一定要确保你这一同步操作是及时的,准确的到达各个节点,同样,你这一类型的流量对网络的质量要求也很高,它何必 时需多高的速度单位,但一定要保证网络质量。

    上端讲到当二个 多 节点下线时,群集会触发故障转移操作,其它节点检查自身的群集数据库,查看下线的节点,承载了哪些角色,但会 上线该角色,并挂载上该角色依赖的群集组,但会 客户端重新访问,这是群集最简单的二个 多 故障转移原理,.我歌词 歌词 之时需注意到上端有二个 多 群集数据库,你这一数据库和SQL的数据库,exchange的数据库都没关系,是群集用来存放各个节点的状况,以及各节点hosting角色状况的二个 多 数据库,该数据库主要指在于各群集节点一种的注册表上,以前有磁盘见证一句话没法磁盘见证上端也会存放一份,类式节点1当前在线,它上端运行了DHCP角色和文件服务器角色,当前状况是在线,或节点1上端承担了HyperV角色,现在上端跑了十台虚拟机,五台在线,五台离线。

  HV02

  另外两块卡做ISCSI MPIO  400.0.0.1 400.0.0.2

Set-VMNetworkAdapter -ManagementOS -Name "Mgmt" -MinimumBandwidthWeight 25

Set-VMNetworkAdapterTeamMapping –VMNetworkAdapterName Storage2 –ManagementOS –PhysicalNetAdapterName NIC2

   1.运行状况检测网络,群集当.我歌词 歌词 知道,所有节点时需访问同二个 多 共享存储,在群集创建群集角色或群集功能,角色产生的数据会指在共享存储,但会 群集之间会做运行状况检测,为哪些要做你这一检测呢,所以我为了知道其它节点现在活不活着,类式群集当前二个 多 节点,.我歌词 歌词 每隔一秒时需通过3343端口和对方执行一次实际的握手检测,每次发送二个 多 134 byte的包,除了确认对方在线,对方也会确认你在线,双方确认完成一次检测随后结束了了,当检测达到一定阈值,类式默认状况下同一子网内每隔一秒全网检测一次,以前二个 多 节点五次检测均没法提前大选则视为该节点下线,群集其它节点会检查自身群集注册表查看该节点承担角色功能,但会 进行迁移出来,跨子网默认也是每隔一秒全网检测一次,五次失效视为该节点下线。以前群集节点启用了Hyper-v角色,默认本地子网每隔一秒全网检测一次,十次失效视为该节点下线,跨子网每隔一秒全网检测一次,二十次次失效视为该节点下线。在2016上端新增了跨站点的检测模式,以前检测到群集设置了站点,则当跨站点,跨子网或不跨子网的状况下,跨站点的检测策略会优于跨子网的检测模式执行。

    但会 ,.我歌词 歌词 来到群集上端就可不让能看得清楚了,具体群集为什搭建的步骤,老王这里不做解释,相信当.我歌词 歌词 要的,在群集中.我歌词 歌词 可不让能看完再再加来的六个网络

https://social.technet.microsoft.com/Forums/windowsserver/en-US/1c23a379-e7d6-4d47-8e21-0963ad931484/iscsi-in-converged-network-scenario?forum=winserverhyperv

  HV01 

2016 Switch Embedded Teaming

https://www.starwindsoftware.com/blog/musings-on-windows-server-converged-networking-storage

#创建基于vTeam组合创建虚拟交换机,最小速度单位模式设置为通过权重决定,以前.我歌词 歌词 会单独创建管理用的虚拟网络适配器,这里.我歌词 歌词 先设置AllowManagementOS为False,如设置为True会产生虚拟网络适配器

Add-VMNetworkAdapter -ManagementOS -Name "Clus" -SwitchName  "vSwitch"

  ISCSI  400.0.0.99 400.0.0.400 承担ISCSI服务器角色

#基于单个虚拟交换机创建出mgmt,clus,vm二个 多 虚拟网络适配器

  另外,NIC teaming技术在2012时代所以我支援RDMA技术,以前你的融合群集底层是SOFS架构,没法你用了两块网卡做成teaming,也将失去RDMA的能力,以前是SMB架构,在2012时代老王建议单独出来两块10GB卡,不做teaming,充分利用SMB多通道和SMB RDMA技术。

#在设置所有虚拟网卡权重的以前上端可不让能再加 -Access -VlanId 参数,为每个虚拟网络适配器设立单独的Vlan,起到隔离作用

----------------------------------------------------------------------------

2016融合网络新命令示例:

3.CSV元数据更新

New-VMSwitch -Name vSwitch -NetAdapterName vTeam  -MinimumBandwidthMode Weight -AllowManagementOS $False

    但会 ,老王建议,做群集,相当于相当于应该分为一种网络,一块承担管理VM迁移存储等流量,一块用于承担群集通信网络的流量,请注意你这一运行状况检测是群集内的二个 多 全网检测,每个节点发送检测时需发给所有节点,确保群集每个节点与节点之间都要能知道对方的状况。

   CSV是个好东西,以前4008时代没法CSV,二个 多 hyper-v集群上端要迁移非要把绑定到群集硬盘的虚拟机一起迁移,随后有了CSV就方便多了,CSV不像传统群集磁盘那样,一次挂载在二个 多 节点,故障转移时时需离线,卸载NTFS保留,再上线,挂载,时间长,但会 还很不方便。有了CSV以前所有节点上端都可不让能访问到被创建好的CSV卷,按照CSV编排器的顺序进行访问就可不让能,当二个 多 节点断电关机,另外节点直接开机VM就可不让能上线,不时需再执行群集磁盘的卸载上线工作,以前CSV卷始终是挂载着的。所谓元数据更新,即是说,.我歌词 歌词 在单个节点上端对CSV卷上端内容进行增完整的以前,后台CSV会把.我歌词 歌词 增完整的操作进行同步,由东向西,或由北向南,同步的不让是具体的文件内容,所以我元数据,同样你这一类型的流量对于质量要求很高,何必 时需几个速度单位,一旦出現延迟,以前因为的状况所以我.我歌词 歌词 在CSV上端更新二个 多 文件执行起来太快了 了 才会进行同步,时需额外注意,2012中CSV严重依赖于SMB,以前您使用CSV功能,请一定何必 禁止SMB相关服务。

http://www.aidanfinn.com/?p=13891

   

https://community.spiceworks.com/topic/3149400-iscsi-in-hyper-v-2012-10gb-converged-fabric

  四块网卡,两快卡组成teaming,通过Convered Network技术分出三块卡

https://technet.microsoft.com/en-us/library/mt403349.aspx

  老王这里先简单介绍一下,简单来讲,Covered Network所以我在Hyper-v父分区中,基于单个网卡或teaming,创建出多个虚拟网络适配器,这是2012随后结束了了出現的一项新技术,另二个 多 .我歌词 歌词 一个劲以为一块网卡非要对于出二个 多 虚拟网络适配器,但其实在2012随后结束了了以前指在了改变,.我歌词 歌词 可不让能基于Convered Network技术在一块网卡或teaming之上建立出多个虚拟网络适配器

  首先,现在的场景下,每台宿主机上端可不让能看完六个网卡,其中四块是.我歌词 歌词 上端说好的,二个 多 teaming,交换机独立,地址哈希的,名字.我歌词 歌词 所有节点上叫vTeam

   在关于融合网络的架构中老王有二个 多 地方一个劲没法提到,为哪些ISCSI我想单独出来两快卡,为哪些不干脆都通过一组teaming虚拟出来,其实老王完整可不让能都倒进一组teaming上端,但会 我想给.我歌词 歌词 展示出最理想的的架构,经过翻阅国外的资料老王得知,ISCSI你这一存储技术是不支持NIC teaming的,以时需想获得ISCSI的MPIO能力,非要单独出来两块网卡,以前,二个 多 ISCSI网卡,分别对应二个 多 虚拟交换机,另二个 多 物理层可不让能使用MPIO技术,群集虚拟机也可不让能得到。

  这里老王想格外与.我歌词 歌词 进行探讨的是上端“心跳” 你这一群集网络,国内对于你这一类型的群集网络通常都叫它心跳网络,似乎你这一网络所以我用做心跳检测,其实何必 是另二个 多 ,严格来讲,你这一类型的网络应该叫做群集通信网络,国外时需人叫它CSV网络。

#创建支持RDMA与VRSS功能的Switch Embedded Teaming交换机

  2012R2时代时需国外的专家说过,可不让能把CSV元数据更新的流量从群集通信流量中分割出来,但老王目前还没看完成功的案例,所以目前姑且.我歌词 歌词 先认为群集通信流量包括运行状况检测,群集数据库更新,CSV元数据更新这一种流量。

延伸阅读

http://www.windows-infrastructure.de/hyper-v-converged-network/

https://social.technet.microsoft.com/Forums/windowsserver/en-US/7c265109-b703-4e400-aab0-b74008b32207f/defaultflowminimumbandwidthweight-setvmswitch-question?forum=winserverpowershell

   老王认为这在群集网络规划时是一种新的思维,假设服务器非要二个 多 或六个口,以前交换机端口有限,不允许.我歌词 歌词 六块卡八块卡的占用,没法.我歌词 歌词 完整就可不让能考虑通过你这一融合网络的分发来节约端口的成本,又要能通过QOS技术对虚拟出来的网络适配器进行合理的管控,一起.我歌词 歌词 底层是teaming,也可不让能获得teaming的容错性,对于上层的虚拟网络适配器,它只知道对应的是虚拟交换机,虚拟交换机只知道对应的是teaming,即是说但会 teaming没坏,整套架构就可不让能正常运作,一旦teaming上端单块网卡出現故障,何必 会因为整个架构的瘫痪,只时需再增加网卡进来即可,这对于上层的架构时需会有很大的感知。

HV02配置同上,不再赘述,配置完成后和HV01一样,可不让能看完基于两块网卡组成的teaming建立出来的三块虚拟网卡以及两块ISCSI网卡

  一起,可不让能针对每个创建出的虚拟网络适配器配置IP,QOS,VLAN,是时需很酷,一块物理网卡,创建出二个 多 虚拟交换机,但可不让能对应出多个可不让能配置IP的虚拟网络适配器,但会 可不让能配置每个虚拟网络适配器单独的QOS,IP,VLAN,这在以前是硬件厂商们的技术,微软在2012也在当事人的虚拟化平台上端进行了实现,话太少说,.我歌词 歌词 下面就随后结束了了实作

New-VMSwitch -Name CNSwitch -AllowManagementOS $True -NetAdapterName NIC01,NIC02 -EnableEmbeddedTeaming $Tru

----------------------------------------------------------------------------

----------------------------------------------------------------------------

https://www.starwindsoftware.com/blog/how-to-deploy-switch-embedded-teaming-set-using-scvmm-2016

Get-NetAdapterRDMA -Name *Storage* | Enable-NetAdapterRDMA

   文章进行到这里以前接近尾声了,回想一下.我歌词 歌词 做了哪些呢,.我歌词 歌词 底层使用了两张卡做成的teaming,但会 基于这组teaming建立虚拟交换机,再基于虚拟交换机创建出了三块虚拟网络适配器,并为其指定了单独的QOS策略,确保每个虚拟网络适配器在当事人速度单位权重内运作,不让干扰到其它网络,一起.我歌词 歌词 为每个虚拟网络配置了IP地址,并最终加入了群集网络,在群集的网络模式配合下.我歌词 歌词 实现了真正的流量分割,每块卡实现了各尽启用

通过SCVMM管理融合网络架构

Set-VMNetworkAdapterTeamMapping –VMNetworkAdapterName Storage1 –ManagementOS –PhysicalNetAdapterName NIC1

   群集通信网络其实承担着3种功能的流量,在2012以前随后结束了了指在了或多或少变化

  文章到这里,还和.我歌词 歌词 传统的群集没哪些两样,接下来重头戏来了,一个劲在说的Convered network到底是为什回事呢

http://www.aidanfinn.com/?p=144009

Set-VMNetworkAdapter -ManagementOS -Name "VM"   -MinimumBandwidthWeight 45

  VM    400.0.0.3

融合网络适用场景及示例

   如上所述,运行状况检测网络是群集上端很糙要的内容,通过检测结果来确认二个 多 节点是是不是存活,但会 对于该网络的质量要求极高,可不让能速度单位不高,但一定要确保质量,确保不让被其它流量干扰,确保不让出現丢包,但会 以前出現丢包以前流量干扰的状况就会因为群集的运行状况检测失去准确性,一种存活的节点却以前检测不准确而被下线。

#在vNIC和物理NIC之间设置关联

#设置每个虚拟网络适配器至多可不让能使用总速度单位的权重,其中VM(VM+Live Migration)最占用流量,.我歌词 歌词 将流量优先分配权重分配给它,其次权重分配给管理流量,相当于的权重分配给群集网络,MinimumBandwidthWeight值以相对权重计算,范围在0-400,建议虚拟网络适配器所有权重+默认流权重一共不超过400,超过400随后台也将重新平衡权重计算,建议设置所有虚拟网络适配器权重共计400或70,90,剩余的用400减去留给默认流。

Add-VMNetworkAdapter -ManagementOS -Name "VM"   -SwitchName  "vSwitch"

  VM    400.0.0.2

Get-NetAdapterRDMA -Name *Live-Migration* | Enable-NetAdapterRDMA   

    在介绍融合网络以前,我想先和.我歌词 歌词 探讨下Windows上端群集网络的规划,以前几年老王有幸参与过或多或少项目的实施,发现国内实施微软群集的工程师们似乎都何必 太在意群集网络方面的规划,或多或少小型的场景,甚至就放了一块网卡,承载群集的所有流量,有的有良心或多或少会放两快卡,或多或少大型企业实施的之时需把管理,VM,心跳,存储,一种分开,这似乎是国内大中型企业做群集以前的网络标配,土豪或多或少的会为每种类型的网络配置Teaming以前MPIO,多通道等技术

#设置虚拟交换机默认流最小速度单位权重为20,默认状况下虚拟网络适配器发送的任何流量连接到你这一虚拟交换机,但会 没法分配的最小速度单位将被过滤到你这一桶中,即默认以前没法匹配上其它最小速度单位权重的流量至多使用默认总速度单位百分之20权重的速度单位

  Mgmt  400.0.0.3

  所以国内用户以前比较常见的所以我你这一,管理,VM+迁移,心跳,存储的架构,有的公司以前一组LACP teaming 直接把管理,VM,迁移一种倒进一起,但会 ,心跳,存储,一共二个 多 群集网络,这也是一种国内常见的群集网络架构。

----------------------------------------------------------------------------

本文转自 老收藏家 51CTO博客,原文链接:http://blog.51cto.com/wzde2012/1947451

#按照预定义的配置为每个虚拟网络适配器分配IP地址,注意分配mgmt网卡的DNS为400.0.0.1,Clus网卡撤消netbios注册

----------------------------------------------------------------------------

    而微软的你这一融合网络创建出来的虚拟网络适配器,在单台机器上几乎看非要哪些很糙的效果,以前虚拟机还是接到vswitch你这一虚拟交换机,但会 迁移流量走那块卡,并告诉我,单台机器看不出哪些,.我歌词 歌词 非要看完,阿,.我歌词 歌词 可不让能基于两块网卡做成teaming,但会 做出虚拟交换机,基于你这一虚拟交换机.我歌词 歌词 又做出了多块虚拟网络适配器,每个虚拟网络适配器可不让能配置单独的QOS,IP,VLAN ,但会 具体为什切割网络流量的,到底用途在哪里,.我歌词 歌词 到现在为止还看非要显著的效果,网上所以文章时需做到这里就停了,搞得老王也是一头雾水,单台机器上端做另二个 多 的架构其实在我看来意义何必 大,所以我好看而已,做出来了以前实际上做出来了以前单机上端何必 会分割流量,除非配合VLAN,host文件等设定。

   经过调整以前如下图所示,这下子五块网卡就各尽启用了,CLU网卡首要用于群集通信,完成运行状况检测,群集数据库更新,CSV元数据更新,一旦CLU网卡不可用,群集会自动路由至其它mgmt或vm卡承担群集通信流量,ISCSI01 ISCSI02两块网卡为MPIO网络,不参与群集通信流量,管理流量,访问流量,设置VM网卡为实时迁移时使用网卡,实际上微软建议.我歌词 歌词 可不让能在这里设置多块,类式设置VM和MGMT,VM网络出現故障,还可不让能使用MGMT完成迁移,以前.我歌词 歌词 也可不让能通过powershell,群集会根据度量值和优先值选折 排名第二位的网络用于实时迁移,或.我歌词 歌词 可不让能再加多个网络,设置二个 多 网络接近的度量值,另二个 多 实时迁借喻会在两块卡直接负载均衡。

关于ISCSI与2012融合网络的讨论※

  四块网卡,两快卡组成teaming,通过Convered Network技术分出三块卡

   按照微软的最佳实践来讲,微软建议切割一种群集网络,管理,VM,迁移,心跳,存储,微软将迁移流量也建议单独隔离出来,实际上我是理解微软你这一考虑的,我猜想微软总部另二个 多 考虑,我说是考虑到大型场景下,以前是二个 多 私有云,以前托管所以虚拟机的虚拟化架构,之时需频繁进行大规模迁移的场景下,一起VM也面临着业务上端的大并发访问,这以前以前一组网络难以支撑,会因为或多或少场景下的性能下降,但其实根据老王的观察,目前国内使用Hyper-V的企业很少会达到微软你这一场景的设想,通常状况下一组LACP teaming 20GB的流量为什也hold住VM访问+迁移流量了,但会 国内很少看完单独独立出迁移网络的群集架构

   通常状况下你这一类型的群集通信网络对于网络速度单位要求很低很低,甚至10M 400M也可不让能满足,但时需或多或少很糙的场景,类式SQL,exchange群集,会一个劲时需跟踪application的变化,因为群集数据库会很频繁的更新,或多或少Hyper-V场景下,一个劲执行CSV创建,迁移操作,会因为CSV元数据流量频繁的进行更新,针对哪些场景,老王建议配置单块1GB卡足够了,以前2块1GB卡,做SMB多通道以前Teaming,10GB完整没必要,属于浪费了,有没法大的速度单位分给虚拟机迁移和存储多好,哈哈。