91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA FLARE開(kāi)發(fā)更具通用性的AI模型

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Holger Roth ? 2022-04-15 09:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

聯(lián)邦學(xué)習(xí)( FL )已成為許多實(shí)際應(yīng)用的現(xiàn)實(shí)。它使全球范圍內(nèi)的跨國(guó)合作能夠構(gòu)建更健壯、更通用的機(jī)器學(xué)習(xí)人工智能模型。

NVIDIA FLARE v2.0 是一款開(kāi)源的 FL SDK ,通過(guò)共享模型權(quán)重而非私有數(shù)據(jù),數(shù)據(jù)科學(xué)家可以更輕松地協(xié)作開(kāi)發(fā)更具通用性的健壯人工智能模型。

對(duì)于醫(yī)療保健應(yīng)用程序,這在數(shù)據(jù)受患者保護(hù)、某些患者類(lèi)型和疾病的數(shù)據(jù)可能稀少,或者數(shù)據(jù)在儀器類(lèi)型、性別和地理位置上缺乏多樣性的情況下尤其有益。

查看標(biāo)志

NVIDIA FLARE 代表 聯(lián)合學(xué)習(xí)應(yīng)用程序運(yùn)行時(shí)環(huán)境 。它是引擎的基礎(chǔ)NVIDIA Clara Train FL 軟件,它已經(jīng)被用于醫(yī)學(xué)成像、遺傳分析、腫瘤學(xué)和 COVID-19 研究中的人工智能應(yīng)用。 SDK 使研究人員和數(shù)據(jù)科學(xué)家能夠?qū)⑵洮F(xiàn)有的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)工作流調(diào)整為分布式范例,并使平臺(tái)開(kāi)發(fā)人員能夠?yàn)榉植际蕉喾絽f(xié)作構(gòu)建安全、隱私保護(hù)的產(chǎn)品。

NVIDIA FLARE 是一個(gè)輕量級(jí)、靈活且可擴(kuò)展的分布式學(xué)習(xí)框架,在 Python 中實(shí)現(xiàn),與您的基礎(chǔ)培訓(xùn)庫(kù)無(wú)關(guān)。您可以在 PyTorch , TensorFlow ,甚至只是 NumPy 中實(shí)現(xiàn)自己的數(shù)據(jù)科學(xué)工作流,并在聯(lián)邦設(shè)置中應(yīng)用它們。

也許您希望實(shí)現(xiàn)流行的 聯(lián)邦平均( FedAvg )算法 。從初始全局模型開(kāi)始,每個(gè) FL 客戶機(jī)在其本地?cái)?shù)據(jù)上訓(xùn)練模型一段時(shí)間,并將模型更新發(fā)送到服務(wù)器進(jìn)行聚合。然后,服務(wù)器使用聚合更新來(lái)更新下一輪培訓(xùn)的全局模型。此過(guò)程將反復(fù)多次,直到模型收斂。

NVIDIA FLARE 提供可定制的控制器工作流,以幫助您實(shí)施 FedAvg 和其他 FL 算法,例如, 循環(huán)重量轉(zhuǎn)移 。它安排不同的任務(wù),例如深度學(xué)習(xí)培訓(xùn),在參與的 FL 客戶機(jī)上執(zhí)行。工作流使您能夠從每個(gè)客戶端收集結(jié)果(例如模型更新),并將其聚合以更新全局模型,并將更新的全局模型發(fā)回以供繼續(xù)培訓(xùn)。圖 1 顯示了原理。

每個(gè) FL 客戶機(jī)充當(dāng)工人,請(qǐng)求執(zhí)行下一個(gè)任務(wù),例如模型培訓(xùn)??刂破魈峁┤蝿?wù)后,工作人員執(zhí)行任務(wù)并將結(jié)果返回給控制器。在每次通信中,可以有可選的過(guò)濾器來(lái)處理任務(wù)數(shù)據(jù)或結(jié)果,例如, homomorphic encryption 和解密或差異隱私。

pYYBAGJYzbmADPypAABc33uq4sk944.png

圖 1 。 NVIDIA FLARE 工作流

實(shí)現(xiàn) FedAvg 的任務(wù)可以是一個(gè)簡(jiǎn)單的 PyTorch 程序,它為 CIFAR-10 訓(xùn)練一個(gè)分類(lèi)模型。您當(dāng)?shù)氐呐嘤?xùn)師可能看起來(lái)像下面的代碼示例。為了簡(jiǎn)單起見(jiàn),我跳過(guò)了整個(gè)培訓(xùn)循環(huán)。

import torch
import torch.nn as nn
import torch.nn.functional as F from nvflare.apis.dxo import DXO, DataKind, MetaKey, from_shareable
from nvflare.apis.executor import Executor
from nvflare.apis.fl_constant import ReturnCode
from nvflare.apis.fl_context import FLContext
from nvflare.apis.shareable import Shareable, make_reply
from nvflare.apis.signal import Signal
from nvflare.app_common.app_constant import AppConstants class SimpleNetwork(nn.Module): def __init__(self): super(SimpleNetwork, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2, 2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16 * 5 * 5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(F.relu(self.conv1(x))) x = self.pool(F.relu(self.conv2(x))) x = torch.flatten(x, 1) # flatten all dimensions except batch x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x class SimpleTrainer(Executor): def __init__(self, train_task_name: str = AppConstants.TASK_TRAIN): super().__init__() self._train_task_name = train_task_name self.device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") self.model = SimpleNetwork() self.model.to(self.device) self.optimizer = torch.optim.SGD(self.model.parameters(), lr=0.001, momentum=0.9) self.criterion = nn.CrossEntropyLoss() def execute(self, task_name: str, shareable: Shareable, fl_ctx: FLContext, abort_signal: Signal) -> Shareable: """ This function is an extended function from the superclass. As a supervised learning-based trainer, the train function will run training based on model weights from `shareable`. After finishing training, a new `Shareable` object will be submitted to server for aggregation.""" if task_name == self._train_task_name: epoch_len = 1 # Get current global model weights dxo = from_shareable(shareable) # Ensure data kind is weights. if not dxo.data_kind == DataKind.WEIGHTS: self.log_exception(fl_ctx, f"data_kind expected WEIGHTS but got {dxo.data_kind} instead.") return make_reply(ReturnCode.EXECUTION_EXCEPTION) # creates an empty Shareable with the return code # Convert weights to tensor and run training torch_weights = {k: torch.as_tensor(v) for k, v in dxo.data.items()} self.local_train(fl_ctx, torch_weights, epoch_len, abort_signal) # compute the differences between torch_weights and the now locally trained model model_diff = ... # build the shareable using a Data Exchange Object (DXO) dxo = DXO(data_kind=DataKind.WEIGHT_DIFF, data=model_diff) dxo.set_meta_prop(MetaKey.NUM_STEPS_CURRENT_ROUND, epoch_len) self.log_info(fl_ctx, "Local training finished. Returning shareable") return dxo.to_shareable() else: return make_reply(ReturnCode.TASK_UNKNOWN) def local_train(self, fl_ctx, weights, epoch_len, abort_signal): # Your training routine should respect the abort_signal. ... # Your local training loop ... for e in range(epoch_len): ... if abort_signal.triggered: self._abort_execution() ... def _abort_execution(self, return_code=ReturnCode.ERROR) -> Shareable: return make_reply(return_code)

您可以看到您的任務(wù)實(shí)現(xiàn)可以執(zhí)行許多不同的任務(wù)。您可以計(jì)算每個(gè)客戶機(jī)上的摘要統(tǒng)計(jì)信息,并與服務(wù)器共享(記住隱私限制),執(zhí)行本地?cái)?shù)據(jù)的預(yù)處理,或者評(píng)估已經(jīng)訓(xùn)練過(guò)的模型。

在 FL 培訓(xùn)期間,您可以在每輪培訓(xùn)開(kāi)始時(shí)繪制全局模型的性能。對(duì)于本例,我們?cè)?CIFAR-10 的異構(gòu)數(shù)據(jù)拆分上運(yùn)行了八個(gè)客戶端。在下圖(圖 2 )中,我顯示了默認(rèn)情況下 NVIDIA FLARE 2.0 中可用的不同配置:

FedAvg

FedProx

FedOpt

使用同態(tài)加密進(jìn)行安全聚合的 FedAvg ( FedAvg HE )

poYBAGJYzcCADwrRAABs3gmM85Q462.png

圖 2 。訓(xùn)練期間不同 FL 算法全局模型的驗(yàn)證精度

雖然 FedAvg 、 FedAvg HE 和 FedProx 在這項(xiàng)任務(wù)中的性能相當(dāng),但您可以使用 FedOpt 設(shè)置觀察到改進(jìn)的收斂性,該設(shè)置使用 SGD with momentum 來(lái)更新服務(wù)器上的全局模型。

整個(gè) FL 系統(tǒng)可以使用管理 API 進(jìn)行控制,以自動(dòng)啟動(dòng)和操作不同配置的任務(wù)和工作流。 NVIDIA 還提供了一個(gè)全面的資源調(diào)配系統(tǒng),可在現(xiàn)實(shí)世界中輕松安全地部署 FL 應(yīng)用程序,同時(shí)還提供了運(yùn)行本地 FL 模擬的概念驗(yàn)證研究。

poYBAGJYzceAejT8AADeGNbDAM0088.png

圖 3 。 NVIDIA FLARE 供應(yīng)、啟動(dòng)、操作( PSO )組件及其 API

開(kāi)始

NVIDIA FLARE 使 FL 可用于更廣泛的應(yīng)用。潛在使用案例包括幫助能源公司分析地震和井筒數(shù)據(jù)、制造商優(yōu)化工廠運(yùn)營(yíng)以及金融公司改進(jìn)欺詐檢測(cè)模型。

關(guān)于作者

Holger Roth 是 NVIDIA 的高級(jí)應(yīng)用研究科學(xué)家,專(zhuān)注于醫(yī)學(xué)成像的深度學(xué)習(xí)。在過(guò)去幾年中,他一直與臨床醫(yī)生和學(xué)者密切合作,為放射應(yīng)用開(kāi)發(fā)基于深度學(xué)習(xí)的醫(yī)學(xué)圖像計(jì)算和計(jì)算機(jī)輔助檢測(cè)模型。他擁有博士學(xué)位。來(lái)自英國(guó)倫敦大學(xué)學(xué)院。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5608

    瀏覽量

    109861
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7812

    瀏覽量

    93264
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124456
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA Jetson模型賦能AI在邊緣端落地

    開(kāi)源生成式 AI 模型不再局限于數(shù)據(jù)中心,而是開(kāi)始深入到現(xiàn)實(shí)世界的各種機(jī)器中。從 Orin 到 Thor,NVIDIA Jetson 系列正在成為運(yùn)行 NVIDIA Nemotron、
    的頭像 發(fā)表于 03-16 16:27 ?215次閱讀
    <b class='flag-5'>NVIDIA</b> Jetson<b class='flag-5'>模型</b>賦能<b class='flag-5'>AI</b>在邊緣端落地

    邊緣AI算力臨界點(diǎn):深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價(jià)值

    。openEuler作為華為主導(dǎo)的服務(wù)器操作系統(tǒng),在ARM生態(tài)、內(nèi)核優(yōu)化和實(shí)時(shí)方面有深厚積累,這對(duì)于將AI Station作為服務(wù)器或工業(yè)控制器使用至關(guān)重要。 真實(shí)的開(kāi)發(fā)者案例:ACT模型
    發(fā)表于 03-10 14:19

    NVIDIA推出代理式AI藍(lán)圖與電信推理模型

    借助全新開(kāi)源大型電信模型NVIDIA Blueprint,電信運(yùn)營(yíng)商能夠利用自有數(shù)據(jù)訓(xùn)練 AI 智能體,構(gòu)建自主網(wǎng)絡(luò)。
    的頭像 發(fā)表于 03-06 17:37 ?2869次閱讀

    NVIDIA DGX Spark桌面級(jí)AI超級(jí)計(jì)算機(jī)助力開(kāi)發(fā)者構(gòu)建AI模型

    開(kāi)源 AI 正在加速各行各業(yè)的創(chuàng)新,NVIDIA DGX Spark 將幫助開(kāi)發(fā)者將創(chuàng)新轉(zhuǎn)化為影響力。
    的頭像 發(fā)表于 01-09 09:49 ?510次閱讀

    NVIDIA 推出 Alpamayo 系列開(kāi)源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車(chē)開(kāi)發(fā)

    的仿真工具和數(shù)據(jù)集。 l Alpamayo 1、AlpaSim 和物理 AI 開(kāi)放數(shù)據(jù)集可為開(kāi)發(fā)具備感知、推理與類(lèi)人決策能力的車(chē)輛提供支持,使開(kāi)發(fā)者能夠進(jìn)行模型調(diào)優(yōu)、蒸餾和測(cè)試,從而提
    的頭像 發(fā)表于 01-06 09:40 ?405次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Alpamayo 系列開(kāi)源 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>與工具,加速安全可靠的推理型輔助駕駛汽車(chē)<b class='flag-5'>開(kāi)發(fā)</b>

    NVIDIA推動(dòng)面向數(shù)字與物理AI的開(kāi)源模型發(fā)展

    NVIDIA 發(fā)布一系列涵蓋語(yǔ)音、安全與輔助駕駛領(lǐng)域的全新 AI 工具,其中包括面向移動(dòng)出行領(lǐng)域的行業(yè)級(jí)開(kāi)源視覺(jué)-語(yǔ)言-動(dòng)作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發(fā)表于 12-13 09:50 ?1376次閱讀

    利用NVIDIA Cosmos開(kāi)放世界基礎(chǔ)模型加速物理AI開(kāi)發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開(kāi)放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測(cè)試與驗(yàn)證數(shù)據(jù)生成。借助
    的頭像 發(fā)表于 12-01 09:25 ?1185次閱讀

    NVIDIA 利用全新開(kāi)源模型與仿真庫(kù)加速機(jī)器人研發(fā)進(jìn)程

    科研人員及開(kāi)發(fā)者打造功能更強(qiáng)大、適應(yīng)更強(qiáng)的機(jī)器人。 ? 全新的 NVIDIA Isaac GR00T 開(kāi)源基礎(chǔ)模型將為機(jī)器人賦予接近人類(lèi)的推理能力,使其能夠拆解復(fù)雜指令,并借助已有知
    的頭像 發(fā)表于 09-30 09:52 ?3092次閱讀
    <b class='flag-5'>NVIDIA</b> 利用全新開(kāi)源<b class='flag-5'>模型</b>與仿真庫(kù)加速機(jī)器人研發(fā)進(jìn)程

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face
    的頭像 發(fā)表于 09-23 15:19 ?1305次閱讀

    NVIDIA通過(guò)全新 Omniverse庫(kù)、Cosmos物理AI模型AI計(jì)算基礎(chǔ)設(shè)施,為機(jī)器人領(lǐng)域開(kāi)啟新篇章

    NVIDIA 通過(guò)全新 Omniverse 庫(kù)、Cosmos 物理 AI 模型AI 計(jì)算基礎(chǔ)設(shè)施,為機(jī)器人領(lǐng)域開(kāi)啟新篇章 ? ·?全新 NVID
    的頭像 發(fā)表于 08-12 11:29 ?1827次閱讀
    <b class='flag-5'>NVIDIA</b>通過(guò)全新 Omniverse庫(kù)、Cosmos物理<b class='flag-5'>AI</b><b class='flag-5'>模型</b>及<b class='flag-5'>AI</b>計(jì)算基礎(chǔ)設(shè)施,為機(jī)器人領(lǐng)域開(kāi)啟新篇章

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    AI的演進(jìn)正在逼近“終端智能涌現(xiàn)”的拐點(diǎn),從通用模型向場(chǎng)景落地遷移成為關(guān)鍵議題。聯(lián)發(fā)科以“AI隨芯,應(yīng)用無(wú)界”為主題召開(kāi)天璣開(kāi)發(fā)者大會(huì)202
    發(fā)表于 04-13 19:52

    使用NVIDIA RTX PRO Blackwell系列GPU加速AI開(kāi)發(fā)

    NVIDIA GTC 推出新一代專(zhuān)業(yè)級(jí) GPU 和 AI 賦能的開(kāi)發(fā)者工具—同時(shí),ChatRTX 更新現(xiàn)已支持 NVIDIA NIM,RTX Remix 正式結(jié)束測(cè)試階段,本月的
    的頭像 發(fā)表于 03-28 09:59 ?1325次閱讀

    英偉達(dá)GTC2025亮點(diǎn) NVIDIA推出Cosmos世界基礎(chǔ)模型和物理AI數(shù)據(jù)工具的重大更新

    、Figure AI、Skild AI 是最早采用該技術(shù)的公司。 NVIDIA 宣布推出全新 NVIDIA Cosmos 世界基礎(chǔ)模型 (W
    的頭像 發(fā)表于 03-20 19:01 ?1371次閱讀

    通用汽車(chē)和NVIDIA合作構(gòu)建定制化AI系統(tǒng)

    通用汽車(chē)和 NVIDIA 宣布正在借助 AI、仿真和加速計(jì)算技術(shù),合作打造下一代汽車(chē)、工廠和機(jī)器人。
    的頭像 發(fā)表于 03-20 14:40 ?1769次閱讀

    NVIDIA 推出開(kāi)放推理 AI 模型系列,助力開(kāi)發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺(tái)

    月 18 日 —— ?NVIDIA 今日發(fā)布具有推理功能的開(kāi)源 Llama Nemotron 模型系列,旨在為開(kāi)發(fā)者和企業(yè)提供業(yè)務(wù)就緒型基礎(chǔ),助力構(gòu)建能夠獨(dú)立工作或以團(tuán)隊(duì)形式完成復(fù)雜任務(wù)的高級(jí)
    發(fā)表于 03-19 09:31 ?402次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開(kāi)放推理 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>系列,助力<b class='flag-5'>開(kāi)發(fā)</b>者和企業(yè)構(gòu)建代理式 <b class='flag-5'>AI</b> 平臺(tái)