91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

探究Overlay網(wǎng)絡模型和Underlay網(wǎng)絡模型。

馬哥Linux運維 ? 來源:Kubernetes進階實戰(zhàn) ? 作者:馬永亮 ? 2021-06-04 16:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文分別介紹Overlay網(wǎng)絡模型和Underlay網(wǎng)絡模型。

(一) Overlay網(wǎng)絡模型

物理網(wǎng)絡模型中,連通多個物理網(wǎng)橋上的主機的一個簡單辦法是通過媒介直接連接這些網(wǎng)橋設備,各個主機處于同一個局域網(wǎng)(LAN)之中,管理員只需要確保各個網(wǎng)橋上每個主機的IP地址不相互沖突即可。

類似地,若能夠直接連接宿主機上的虛擬網(wǎng)橋形成一個大的局域網(wǎng),就能在數(shù)據(jù)鏈路層打通各宿主機上的內部網(wǎng)絡,讓容器可通過自有IP地址直接通信。為避免各容器間的IP地址沖突,一個常見的解決方案是將每個宿主機分配到同一網(wǎng)絡中的不同子網(wǎng),各主機基于自有子網(wǎng)向其容器分配IP地址。

顯然,主機間的網(wǎng)絡通信只能經由主機上可對外通信的網(wǎng)絡接口進行,跨主機在數(shù)據(jù)鏈路層直接連接虛擬網(wǎng)橋的需求必然難以實現(xiàn),除非借助宿主機間的通信網(wǎng)絡構建的通信“隧道”進行數(shù)據(jù)幀轉發(fā)。這種于某個通信網(wǎng)絡之上構建出的另一個邏輯通信網(wǎng)絡通常即10.1.2節(jié)提及的Overlay網(wǎng)絡或Underlay網(wǎng)絡。圖10-7為Overlay網(wǎng)絡功能示意圖。

09d9660a-c482-11eb-9e57-12bb97331649.png

圖10-7 Overlay網(wǎng)絡功能示意圖

隧道轉發(fā)的本質是將容器雙方的通信報文分別封裝成各自宿主機之間的報文,借助宿主機的網(wǎng)絡“隧道”完成數(shù)據(jù)交換。這種虛擬網(wǎng)絡的基本要求是各宿主機只需支持隧道協(xié)議即可,對于底層網(wǎng)絡沒有特殊要求。

VXLAN協(xié)議是目前最流行的Overlay網(wǎng)絡隧道協(xié)議之一,它也是由IETF定義的NVO3(Network Virtualization over Layer 3)標準技術之一,采用L2 over L4(MAC-in-UDP)的報文封裝模式,將二層報文用三層協(xié)議進行封裝,可實現(xiàn)二層網(wǎng)絡在三層范圍內進行擴展,將“二層域”突破規(guī)模限制形成“大二層域”。

那么,同一大二層域就類似于傳統(tǒng)網(wǎng)絡中VLAN(虛擬局域網(wǎng))的概念,只不過在VXLAN網(wǎng)絡中,它被稱作Bridge-Domain,以下簡稱為BD。類似于不同的VLAN需要通過VLAN ID進行區(qū)分,各BD要通過VNI加以標識。

但是,為了確保VXLAN機制通信過程的正確性,涉及VXLAN通信的IP報文一律不能分片,這就要求物理網(wǎng)絡的鏈路層實現(xiàn)中必須提供足夠大的MTU值,或修改其MTU值以保證VXLAN報文的順利傳輸。不過,降低默認MTU值,以及額外的頭部開銷,必然會影響到報文傳輸性能。

VXLAN的顯著的優(yōu)勢之一是對底層網(wǎng)絡沒有侵入性,管理員只需要在原有網(wǎng)絡之上添加一些額外設備即可構建出虛擬的邏輯網(wǎng)絡來。這個額外添加的設備稱為VTEP(VXLAN Tunnel Endpoints),它工作于VXLAN網(wǎng)絡的邊緣,負責相關協(xié)議報文的封包和解包等操作,從作用來說相當于VXLAN隧道的出入口設備。

VTEP代表著一類支持VXLAN協(xié)議的交換機,而支持VXLAN協(xié)議的操作系統(tǒng)也可將一臺主機模擬為VTEP,Linux內核自3.7版本開始通過vxlan內核模塊原生支持此協(xié)議。

于是,各主機上由虛擬網(wǎng)橋構建的LAN便可借助vxlan內核模塊模擬的VTEP設備與其他主機上的VTEP設備進行對接,形成隧道網(wǎng)絡。同一個二層域內的各VTEP之間都需要建立VXLAN隧道,因此跨主機的容器間直接進行二層通信的VXLAN隧道是各VTEP之間的點對點隧道,如圖10-8所示。

對于Flannel來說,這個VTEP設備就是各節(jié)點上生成flannel.1網(wǎng)絡接口,其中的“1”是VXLAN中的BD標識VNI,因而同一Kubernetes集群上所有節(jié)點的VTEP設備屬于VNI為1的同一個BD。

09e549ac-c482-11eb-9e57-12bb97331649.png

圖10-8 Linux VTEP

類似VLAN的工作機制,相同VXLAN VNI在不同VTEP之間的通信要借助二層網(wǎng)關來完成,而不同VXLAN之間,或者VXLAN同非VXLAN之間的通信則需經由三層網(wǎng)關實現(xiàn)。VXLAN支持使用集中式和分布式兩種形式的網(wǎng)關:前者支持流量的集中管理,配置和維護較為簡單,但轉發(fā)效率不高,且容易出現(xiàn)瓶頸和網(wǎng)關可用性問題;后者以各節(jié)點為二層或三層網(wǎng)關,消除了瓶頸。

然而,VXLAN網(wǎng)絡中的容器在首次通信之前,源VTEP又如何得知目標服務器在哪一個VTEP,并選擇正確的路徑傳輸通信報文呢?

常見的解決思路一般有兩種:多播和控制中心。

多播是指同一個BD內的各VTEP加入同一個多播域中,通過多播報文查詢目標容器所在的目標VTEP。

而控制中心則在某個共享的存儲服務上保存所有容器子網(wǎng)及相關VTEP的映射信息,各主機上運行著相關的守護進程,并通過與控制中心的通信獲取相關的映射信息。Flannel默認的VXLAN后端采用的是后一種方式,它把網(wǎng)絡配置信息存儲在etcd系統(tǒng)上。

Linux內核自3.7版本開始支持vxlan模塊,此前的內核版本可以使用UDP、IPIP或GRE隧道技術。事實上,考慮到當今公有云底層網(wǎng)絡的功能限制,Overlay網(wǎng)絡反倒是一種最為可行的容器網(wǎng)絡解決方案,僅那些更注重網(wǎng)絡性能的場景才會選擇Underlay網(wǎng)絡。

(二)Underlay網(wǎng)絡模型

Underlay網(wǎng)絡就是傳統(tǒng)IT基礎設施網(wǎng)絡,由交換機和路由器等設備組成,借助以太網(wǎng)協(xié)議、路由協(xié)議和VLAN協(xié)議等驅動,它還是Overlay網(wǎng)絡的底層網(wǎng)絡,為Overlay網(wǎng)絡提供數(shù)據(jù)通信服務。容器網(wǎng)絡中的Underlay網(wǎng)絡是指借助驅動程序將宿主機的底層網(wǎng)絡接口直接暴露給容器使用的一種網(wǎng)絡構建技術,較為常見的解決方案有MAC VLAN、IP VLAN和直接路由等。

1. MAC VLAN

MAC VLAN支持在同一個以太網(wǎng)接口上虛擬出多個網(wǎng)絡接口,每個虛擬接口都擁有唯一的MAC地址,并可按需配置IP地址。通常這類虛擬接口被網(wǎng)絡工程師稱作子接口,但在MAC VLAN中更常用上層或下層接口來表述。與Bridge模式相比,MAC VLAN不再依賴虛擬網(wǎng)橋、NAT和端口映射,它允許容器以虛擬接口方式直接連接物理接口。圖10-9給出了Bridge與MAC VLAN網(wǎng)絡對比示意圖。

09efdf52-c482-11eb-9e57-12bb97331649.png

圖10-9 Bridge與MAC VLAN網(wǎng)絡對比

MAC VLAN有Private、VEPA、Bridge和Passthru幾種工作模式,它們各自的工作特性如下。

Private:禁止構建在同一物理接口上的多個MAC VLAN實例(容器接口)彼此間的通信,即便外部的物理交換機支持“發(fā)夾模式”也不行。

VPEA:允許構建在同一物理接口上的多個MAC VLAN實例(容器接口)彼此間的通信,但需要外部交換機啟用發(fā)夾模式,或者存在報文轉發(fā)功能的路由器設備。

Bridge:將物理接口配置為網(wǎng)橋,從而允許同一物理接口上的多個MAC VLAN實例基于此網(wǎng)橋直接通信,而無須依賴外部的物理交換機來交換報文;此為最常用的模式,甚至還是Docker容器唯一支持的模式。

Passthru:允許其中一個MAC VLAN實例直接連接物理接口。

由上述工作模式可知,除了Passthru模式外的容器流量將被MAC VLAN過濾而無法與底層主機通信,從而將主機與其運行的容器完全隔離,其隔離級別甚至高于網(wǎng)橋式網(wǎng)絡模型,這對于有多租戶需求的場景尤為有用。

由于各實例都有專用的MAC地址,因此MAC VLAN允許傳輸廣播和多播流量,但它要求物理接口工作于混雜模式,考慮到很多公有云環(huán)境中并不允許使用混雜模式,這意味著MAC VLAN更適用于本地網(wǎng)絡環(huán)境。

需要注意的是,MAC VLAN為每個容器使用一個唯一的MAC地址,這可能會導致具有安全策略以防止MAC欺騙的交換機出現(xiàn)問題,因為這類交換機的每個接口只允許連接一個MAC地址。另外,有些物理網(wǎng)卡存在可支撐的MAC地址數(shù)量上限。

2. IP VLAN

IP VLAN類似于MAC VLAN,它同樣創(chuàng)建新的虛擬網(wǎng)絡接口并為每個接口分配唯一的IP地址,不同之處在于,每個虛擬接口將共享使用物理接口的MAC地址,從而不再違反防止MAC欺騙的交換機的安全策略,且不要求在物理接口上啟用混雜模式,如圖10-10所示。

0a23ee82-c482-11eb-9e57-12bb97331649.png

圖10-10 MAC VLAN對比IP VLAN

IP VLAN有L2和L3兩種模型,其中IP VLAN L2的工作模式類似于MAC VLAN Bridge模式,上層接口(物理接口)被用作網(wǎng)橋或交換機,負責為下層接口交換報文;

而IP VLAN L3模式中,上層接口扮演路由器的角色,負責為各下層接口路由報文,如圖10-11所示。

IP VLAN L2模型與MAC VLAN Bridge模型都支持ARP協(xié)議和廣播流量,它們擁有直接接入網(wǎng)橋設備的網(wǎng)絡接口,能夠通過802.1d數(shù)據(jù)包進行泛洪和MAC地址學習。但IP VLAN L3模式下,網(wǎng)絡棧在容器內處理,不支持多播或廣播流量,從這個意義上講,它的運行模式與路由器的報文處理機制相同。

雖然支持多種網(wǎng)絡模型,但MAC VLAN和IP VLAN不能同時在同一物理接口上使用。Linux內核文檔中強調,MAC VLAN和IP VLAN具有較高的相似度,因此,通常僅在必須使用IP VLAN的場景中才不使用MAC VLAN。一般說來,強依賴于IP VLAN的場景有如下幾個:

Linux主機連接到的外部交換機或路由器啟用了防止MAC地址欺騙的安全策略;

虛擬接口的需求數(shù)量超出物理接口能夠支撐的容量上限,并且將接口置于混雜模式會給性能帶來較大的負面影響;

將虛擬接口放入不受信任的網(wǎng)絡名稱空間中可能會導致惡意的濫用。

0a2f6a96-c482-11eb-9e57-12bb97331649.png

圖10-11 IP VLAN的L2和L3模型

需要注意的是,Linux內核自4.2版本后才支持IP VLAN網(wǎng)絡驅動,且在Linux主機上使用ip link命令創(chuàng)建的802.1q配置接口不具有持久性,因此需依賴管理員通過網(wǎng)絡啟動腳本保持配置。

3. 直接路由

“直接路由”模型放棄了跨主機容器在L2的連通性,而專注于通過路由協(xié)議提供容器在L3的通信方案。這種解決方案因為更易于集成到現(xiàn)在的數(shù)據(jù)中心的基礎設施之上,便捷地連接容器和主機,并在報文過濾和隔離方面有著更好的擴展能力及更精細的控制模型,因而成為容器化網(wǎng)絡較為流行的解決方案之一。

一個常用的直接路由解決方案如圖10-12所示,每個主機上的各容器在二層通過網(wǎng)橋連通,網(wǎng)關指向當前主機上的網(wǎng)橋接口地址??缰鳈C的容器間通信,需要依據(jù)主機上的路由表指示完成報文路由,因此每個主機的物理接口地址都有可能成為另一個主機路由報文中的“下一跳”,這就要求各主機的物理接口必須位于同一個L2網(wǎng)絡中。

于是,在較大規(guī)模的主機集群中,問題的關鍵便轉向如何更好地為每個主機維護路由表信息。常見的解決方案有:

①Flannel host-gw使用存儲總線etcd和工作在每個節(jié)點上的flanneld進程動態(tài)維護路由;

②Calico使用BGP(Border Gateway Protocol)協(xié)議在主機集群中自動分發(fā)和學習路由信息。與Flannel不同的是,Calico并不會為容器在主機上使用網(wǎng)橋,而是僅為每個容器生成一對veth設備,留在主機上的那一端會在主機上生成目標地址,作為當前容器的路由條目。

0a3a7e72-c482-11eb-9e57-12bb97331649.png

圖10-12直接路由虛擬網(wǎng)絡示意圖

顯然,較Overlay來說,無論是MAC VLAN、IP VLAN還是直接路由機制的Underlay網(wǎng)絡模型的實現(xiàn),它們因無須額外的報文開銷而通常有著更好的性能表現(xiàn),但對底層網(wǎng)絡有著更多的限制條件。

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)

    關注

    8

    文章

    7335

    瀏覽量

    94755
  • 主機
    +關注

    關注

    0

    文章

    1053

    瀏覽量

    36741
  • VLAN
    +關注

    關注

    1

    文章

    290

    瀏覽量

    37767
  • 網(wǎng)絡模型

    關注

    0

    文章

    44

    瀏覽量

    9680

原文標題:一文搞懂Kubernetes的網(wǎng)絡模型:Overlay和Underlay

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    面向嵌入式部署的神經網(wǎng)絡優(yōu)化:模型壓縮深度解析

    1.為什么需要神經網(wǎng)絡模型壓縮? 神經網(wǎng)絡已經成為解決復雜機器學習問題的強大工具。然而,這種能力往往伴隨著模型規(guī)模和計算復雜度的增加。當輸入維度較大(例如長時序窗口、高分辨率特征空間)
    的頭像 發(fā)表于 02-24 15:37 ?4602次閱讀
    面向嵌入式部署的神經<b class='flag-5'>網(wǎng)絡</b>優(yōu)化:<b class='flag-5'>模型</b>壓縮深度解析

    華為如何通過大模型技術打造智能IP網(wǎng)絡

    2025年非洲通信展在南非開普敦召開,華為數(shù)據(jù)通信產品線NCE數(shù)據(jù)通信領域總裁王輝受邀參加“Telecoms For Tomorrow”論壇,發(fā)表題為“擁抱AI時代,打造面向未來的智能IP網(wǎng)絡”的演講,分享華為如何通過大模型技術打造智能IP
    的頭像 發(fā)表于 11-14 16:39 ?1461次閱讀

    構建CNN網(wǎng)絡模型并優(yōu)化的一般化建議

    通過實踐,本文總結了構建CNN網(wǎng)絡模型并優(yōu)化的一般化建議,這些建議將會在構建高準確率輕量級CNN神經網(wǎng)絡模型方面提供幫助。 1)避免單層神經網(wǎng)絡
    發(fā)表于 10-28 08:02

    如何將訓練好的神經網(wǎng)絡模型部署到蜂鳥e203開發(fā)板上

    本帖欲分享如何將訓練好的神經網(wǎng)絡模型部署到蜂鳥e203開發(fā)板上。 1. 加載TFLite模型 std::unique_ptr interpreter(new tflite::Interpreter
    發(fā)表于 10-22 08:04

    在Ubuntu20.04系統(tǒng)中訓練神經網(wǎng)絡模型的一些經驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓練神經網(wǎng)絡模型的一些經驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓練框架,目標是訓練一個手寫數(shù)字識別的神經網(wǎng)絡
    發(fā)表于 10-22 07:03

    基于神經網(wǎng)絡的數(shù)字預失真模型解決方案

    在基于神經網(wǎng)絡的數(shù)字預失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3471次閱讀

    詳解SPICE器件模型的分類

    今天我們來聊聊工程師在仿真時比較關注的問題。眾多的器件模型,我在仿真的時候到底應該怎么選擇一個器件的模型?我使用的這個器件模型的精確度夠嗎?我自己能否做一個器件模型來支持我的電路仿真?
    的頭像 發(fā)表于 08-28 13:42 ?1462次閱讀
    詳解SPICE器件<b class='flag-5'>模型</b>的分類

    小白學大模型:國外主流大模型匯總

    )領域。論文的核心是提出了一種名為Transformer的全新模型架構,它完全舍棄了以往序列模型(如循環(huán)神經網(wǎng)絡RNNs和卷積神經網(wǎng)絡CNNs)中常用的循環(huán)和卷積結構
    的頭像 發(fā)表于 08-27 14:06 ?949次閱讀
    小白學大<b class='flag-5'>模型</b>:國外主流大<b class='flag-5'>模型</b>匯總

    模型推理顯存和計算量估計方法研究

    (如全連接層、卷積層等)確定所需的顯存大小; (3)將各層顯存大小相加,得到模型總的顯存需求。 基于神經網(wǎng)絡剪枝的顯存估計 神經網(wǎng)絡剪枝是一種減少模型參數(shù)數(shù)量的技術,可以降低顯存需求。
    發(fā)表于 07-03 19:43

    FA模型卡片和Stage模型卡片切換

    卡片切換 卡片切換主要包含如下三部分: 卡片頁面布局:FA模型卡片和Stage模型卡片的布局都采用類web范式開發(fā)可以直接復用。 卡片配置文件:FA模型的卡片配置在config.json中
    發(fā)表于 06-06 08:10

    從FA模型切換到Stage模型時:module的切換說明

    module的切換 從FA模型切換到Stage模型時,開發(fā)者需要將config.json文件module標簽下的配置遷移到module.json5配置文件module標簽下,具體差異
    發(fā)表于 06-05 08:16

    FA模型訪問Stage模型DataShareExtensionAbility說明

    FA模型訪問Stage模型DataShareExtensionAbility 概述 無論FA模型還是Stage模型,數(shù)據(jù)讀寫功能都包含客戶端和服務端兩部分。 FA
    發(fā)表于 06-04 07:53

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    FA模型與Stage模型介紹 KaihongOS操作系統(tǒng)中,F(xiàn)A模型(Feature Ability)和Stage模型是兩種不同的應用模型
    發(fā)表于 04-24 07:27

    如何基于Kahn處理網(wǎng)絡定義AI引擎圖形編程模型

    本白皮書探討了如何基于 Kahn 處理網(wǎng)絡( KPN )定義 AI 引擎圖形編程模型。KPN 模型有助于實現(xiàn)數(shù)據(jù)流并行化,進而提高系統(tǒng)的整體性能。
    的頭像 發(fā)表于 04-17 11:31 ?862次閱讀
    如何基于Kahn處理<b class='flag-5'>網(wǎng)絡</b>定義AI引擎圖形編程<b class='flag-5'>模型</b>

    使用OpenVINO?推理引擎進行推理時,如何更改模型布局?

    無法為一系列網(wǎng)絡準備輸入。 第一個模型的輸出在 CHW 布局中,但第二個模型的輸入在 NCHW 布局中。
    發(fā)表于 03-06 07:21