91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Saturn Cloud使得管理GPU基礎(chǔ)設(shè)施變得更加容易

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-20 15:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

GPU加速計算是數(shù)據(jù)從業(yè)者和企業(yè)的游戲規(guī)則改變者,但利用 GPU 對數(shù)據(jù)專業(yè)人士來說可能是一項挑戰(zhàn)。RAPIDS通過熟悉的界面抽象加速數(shù)據(jù)科學(xué)的復(fù)雜性,從而解決了這些挑戰(zhàn)。使用 RAPIDS 時,從業(yè)者可以快速加速 NVIDIA GPU 上的數(shù)據(jù)科學(xué)工作負(fù)載,將數(shù)據(jù)加載、處理和培訓(xùn)等操作從數(shù)小時減少到數(shù)秒。

管理大規(guī)模數(shù)據(jù)科學(xué)基礎(chǔ)設(shè)施帶來了重大挑戰(zhàn)。有了 Saturn 云,管理基于 GPU 的基礎(chǔ)設(shè)施變得更加容易,使從業(yè)者和企業(yè)能夠?qū)W⒂诮鉀Q其業(yè)務(wù)挑戰(zhàn)。

什么是 Saturn Cloud ?

Saturn Cloud 是一個端到端平臺,可通過云中的可擴(kuò)展計算資源訪問基于 Python 的數(shù)據(jù)科學(xué)。 Saturn Cloud 為移動到云提供了一條簡單的路徑,無需成本、設(shè)置或基礎(chǔ)設(shè)施工作。這包括使用預(yù)構(gòu)建的環(huán)境訪問配備 GPU 的計算資源,預(yù)構(gòu)建的環(huán)境包括 RAPIDS 、 PyTorch 和 TensorFlow 等工具。

用戶可以在托管的 JupyterLab 環(huán)境中編寫代碼,或者使用 SSH 連接自己的 IDE (集成開發(fā)環(huán)境)。隨著數(shù)據(jù)量的增加,用戶可以擴(kuò)展到支持 GPU 的Dask集群,以便在分布式計算機(jī)網(wǎng)絡(luò)上執(zhí)行代碼。開發(fā)數(shù)據(jù)管道、模型或儀表板后,用戶可以將其部署到持久位置,或創(chuàng)建作業(yè)以按計劃運(yùn)行它。

poYBAGJfuYSAIyP7AADM72Gc-yw364.png

圖 1 : Saturn Cloud 為大規(guī)模數(shù)據(jù)科學(xué)提供了一個基于 Python 的平臺。

除了 Saturn Cloud 的企業(yè)產(chǎn)品外, Saturn Cloud 還提供托管產(chǎn)品,任何人都可以免費(fèi)開始 GPU – 加速數(shù)據(jù)科學(xué)。托管免費(fèi)計劃每月包括 10 小時的 Jupyter 工作區(qū)和 3 小時的 Dask 集群。如果需要更多資源,可以升級到托管的 Pro plan 和現(xiàn)收現(xiàn)付。

pYYBAGJfuYWAWbS6AAEwELKlito087.png

圖 2 :用戶可以在 Saturn 云主機(jī)上訪問筆記本電腦、 GPU s 、集群和調(diào)度工具。

Saturn Cloud 為 GPU 加速數(shù)據(jù)科學(xué)應(yīng)用提供了一個易于使用的平臺。借助該平臺, GPU 成為日常數(shù)據(jù)科學(xué)堆棧的核心組件。

開始使用 Saturn Cloud 上的 RAPIDS

在 Saturn Cloud 上創(chuàng)建免費(fèi)帳戶后,您可以快速開始使用 RAPIDS 。在本節(jié)中,我們將展示如何使用 Saturn Cloud 在紐約出租車數(shù)據(jù)上使用 RAPIDS 訓(xùn)練機(jī)器學(xué)習(xí)模型。然后我們進(jìn)一步在 Dask 集群上運(yùn)行 RAPIDS 。通過結(jié)合 RAPIDS 和 Dask ,您可以使用多節(jié)點 GPU 系統(tǒng)網(wǎng)絡(luò)來訓(xùn)練模型,其速度遠(yuǎn)遠(yuǎn)快于使用單個 GPU 系統(tǒng)的速度。

在 Saturn Cloud 上創(chuàng)建免費(fèi)帳戶后,打開服務(wù)并轉(zhuǎn)到“資源”頁面。從那里,查看預(yù)制的資源模板,并單擊標(biāo)記為 RAPIDS 的模板。

pYYBAGJfuYaAZsQ1AACVfS4NqY4238.png

圖 3 : Saturn Cloud 預(yù)先配置了 RAPIDS 圖像,以便于使用 GPU s 。

您將被帶到新創(chuàng)建的資源。這里的一切都已設(shè)置好,您可以在 GPU 硬件上運(yùn)行代碼, Docker 映像安裝了所有必要的 Python 和 RAPIDS 軟件包。

pYYBAGJfuYaASFotAACT7WyKdNk742.png

圖 4 : Saturn Cloud 建立了一個裝備了 RAPIDS 的 Jupyter 服務(wù)器和 Dask 集群。

開箱即用的環(huán)境包括:

4 v CPU s ,帶 16 GB RAM

NVIDIA T4 GPU 16GB 的 GPU RAM

RAPIDS: including cuDF, cuML, XGBoost, 還有更多

NVDashboard JupyterLab 擴(kuò)展,用于實時 GPU 指標(biāo)

用于監(jiān)視集群的 Dask 和Dask JupyterLab 擴(kuò)展

常見的 PyData 包,如 NumPy 、 SciPy 、 pandas 和 scikit-learn

單擊“ Jupyter 服務(wù)器”和“ Dask 群集”卡上的播放按鈕啟動資源?,F(xiàn)在,您的集群已準(zhǔn)備就緒;繼續(xù)了解 GPU 如何顯著加快模型訓(xùn)練時間。

pYYBAGJfuYeAKbJSAAFGBOHVVgI321.png

圖 5 :具有單個和多個 GPU 后端的預(yù)構(gòu)建 RAPIDS 環(huán)境。

用 RAPIDS 訓(xùn)練隨機(jī)森林模型

對于本練習(xí),我們將使用紐約出租車數(shù)據(jù)集。我們將加載一個 CSV 文件,選擇我們的功能,然后訓(xùn)練一個隨機(jī)森林模型。為了說明在 GPU 上使用 RAPIDS 可以實現(xiàn)的運(yùn)行時加速,我們將首先使用傳統(tǒng)的基于 CPU 的 PyData 包,如 pandas 和 scikit learn 。

我們的機(jī)器學(xué)習(xí)模型回答了以下問題:

根據(jù)行程開始時已知的特征,該行程是否會導(dǎo)致高小費(fèi)?

這里的因變量是“小費(fèi)百分比”,即小費(fèi)的美元金額除以乘坐成本的美元金額。我們將使用取貨目的地、下車目的地和乘客數(shù)量作為自變量。

接下來,您可以將下面的代碼塊復(fù)制到 Saturn Cloud JupyterLab 界面中的新筆記本中?;蛘?,您可以下載整個筆記本都在這里。首先,我們將設(shè)置一個上下文管理器來計時代碼的不同部分:

 from time import time
 from contextlib import contextmanager
  
 times = {}
  
 @contextmanager
 def timing(description: str) -> None:
        start = time()
        yield
        elapsed = time() - start
        times[description] = elapsed
        print(f"{description}: {round(elapsed)} seconds") 

然后,我們將從紐約出租車 S3 存儲桶中取出一個 CSV 文件。注意,我們可以將文件直接從 S3 讀入數(shù)據(jù)幀。但是,我們希望將網(wǎng)絡(luò) IO 時間與 CPU 或 GPU 上的處理時間分開,如果我們希望在數(shù)十次修改后運(yùn)行此步驟,我們就不必多次承擔(dān)網(wǎng)絡(luò)成本。

!卷曲 https :// s3 。 Amazon aws 。 com / nyc tlc / trip + data / yellow _ tripdata _ 2019-01 。 csv 》 data 。 csv

在討論 GPU 部分之前,讓我們先看看傳統(tǒng)的 PyData 軟件包(如 pandas 和使用 CPU 進(jìn)行計算的 scikit )的情況。

 import pandas as pd
 from sklearn.ensemble import RandomForestClassifier as RFCPU
  
 with timing("CPU: CSV Load"):
        taxi_cpu = pd.read_csv(
        "data.csv",
        parse_dates=["tpep_pickup_datetime", "tpep_dropoff_datetime"],
        )
     
 X_cpu = (
        taxi_cpu[["PULocationID", "DOLocationID", "passenger_count"]]
        .fillna(-1)
 )
 y_cpu = (taxi_cpu["tip_amount"] > 1)
  
 rf_cpu = RFCPU(n_estimators=100, n_jobs=-1)
  
 with timing("CPU: Random Forest"):
        _ = rf_cpu.fit(X_cpu, y_cpu) 

CPU 代碼需要幾分鐘的時間,因此請繼續(xù)并為 GPU 代碼打開一個新的筆記本。您會注意到, GPU 代碼看起來幾乎與 CPU 代碼相同,只是我們將“ pandas ”替換為“ cuDF ”,將“ scikit learn ”替換為“ cuml ”。 RAPIDS 包有意地類似于典型的 PyData 包,使您的代碼盡可能容易地在 GPU 上運(yùn)行!

 import cudf
 from cuml.ensemble import RandomForestClassifier as RFGPU
  
 with timing("GPU: CSV Load"):
        taxi_gpu = cudf.read_csv(
        "data.csv",
        parse_dates=["tpep_pickup_datetime", "tpep_dropoff_datetime"],
        )
     
 X_gpu = (
        taxi_gpu[["PULocationID", "DOLocationID", "passenger_count"]]
        .astype("float32")
        .fillna(-1)
 )
 y_gpu = (taxi_gpu["tip_amount"] > 1).astype("int32")
  
 rf_gpu = RFGPU(n_estimators=100)
  
 with timing("GPU: Random Forest"):
        _ = rf_gpu.fit(X_gpu, y_gpu) 

You should have been able to copy this into a new notebook and execute the whole thing before the CPU version finished. Once that’s done, check out the difference in the runtimes of each.

使用 CPU , CSV 加載耗時 13 秒,而隨機(jī)森林訓(xùn)練耗時 364 秒( 6 分鐘)。使用 GPU , CSV 加載耗時 2 秒,而隨機(jī)森林訓(xùn)練耗時 18 秒。這就是快 7 倍 CSV 加載和快 20 倍隨機(jī)林訓(xùn)練。


圖 6 : RAPIDS + Saturn Cloud 幫助用戶解決他們的挑戰(zhàn),而不是等待進(jìn)程。

使用 RAPIDS + Dask 解決大數(shù)據(jù)問題

雖然單個 GPU 對于許多用例來說足夠強(qiáng)大,但現(xiàn)代數(shù)據(jù)科學(xué)用例通常受益于越來越大的數(shù)據(jù)集,以生成更準(zhǔn)確、更深刻的 i NSight s 。許多用例都需要由多個 GPU 或節(jié)點組成的橫向擴(kuò)展基礎(chǔ)架構(gòu),以便在工作負(fù)載中快速切換。 RAPIDS 與 Dask 很好地匹配,以支持橫向擴(kuò)展到大型 GPU 集群。

 from dask.distributed import Client, wait
 from dask_saturn import SaturnCluster
 import dask_cudf
 from cuml.dask.ensemble import RandomForestClassifier as RFDask
  
 cluster = SaturnCluster()
 client = Client(cluster)
  
 taxi_dask = dask_cudf.read_csv(
        "s3://nyc-tlc/trip data/yellow_tripdata_2019-*.csv",
        parse_dates=["tpep_pickup_datetime", "tpep_dropoff_datetime"],
        storage_options={"anon": True},
        assume_missing=True,
 )
  
 X_dask = (
        taxi_dask[["PULocationID", "DOLocationID", "passenger_count"]]
        .astype("float32")
        .fillna(-1)
 )
 y_dask = (taxi_dask["tip_amount"] > 1).astype("int32")
  
 X_dask, y_dask = client.persist([X_dask, y_dask])
 _ = wait(X_dask)
  
  
 rf_dask = RFDask(n_estimators=100)
 _ = rf_dask.fit(X_dask, y_dask) 

使用 RAPIDS 和 Saturn Cloud 簡化加速數(shù)據(jù)科學(xué)

此示例顯示了在 GPU 或 GPU Dask 集群上使用 RAPIDS 加速數(shù)據(jù)科學(xué)工作負(fù)載是多么容易。使用 RAPIDS 可以將訓(xùn)練時間增加一個數(shù)量級,這可以幫助您更快地迭代模型。有了 Saturn Cloud ,你可以在需要的時候啟動 Jupyter 筆記本電腦、 Dask 集群和其他云資源。

關(guān)于作者

Jacob Schmitt 是 NVIDIA 企業(yè)數(shù)據(jù)科學(xué)產(chǎn)品團(tuán)隊的產(chǎn)品營銷經(jīng)理,他幫助企業(yè)用戶連接到強(qiáng)大的數(shù)據(jù)科學(xué)解決方案。在加入 NVIDIA 之前,他是 Capital One 機(jī)器學(xué)習(xí)中心的產(chǎn)品經(jīng)理,推動了諸如 Dask 和 RAPIDS 等強(qiáng)大開源庫的采用和擴(kuò)展。

Jacqueline Nolis 博士是一位數(shù)據(jù)科學(xué)領(lǐng)導(dǎo)者,在 DSW 和 Airbnb 等公司管理數(shù)據(jù)科學(xué)團(tuán)隊和項目方面擁有超過 15 年的經(jīng)驗。她目前是 Saturn Cloud 的數(shù)據(jù)科學(xué)負(fù)責(zé)人,她幫助為數(shù)據(jù)科學(xué)家設(shè)計產(chǎn)品。杰奎琳有博士學(xué)位。在工業(yè)工程和合著本書建立在數(shù)據(jù)科學(xué)的職業(yè)生涯。

審核編輯:郭婷

使用 Saturn Cloud ,您可以從我們之前使用的同一項目連接到 GPU 供電的 Dask 集群。然后,要在 GPU 上使用 Dask ,您需要將cudf包替換為dask_cudf以加載數(shù)據(jù),并使用cuml.dask子模塊進(jìn)行機(jī)器學(xué)習(xí)?,F(xiàn)在請注意,我們在dask_cudf.read_csv中使用 glob 語法加載 2019 年的所有數(shù)據(jù),而不是像以前那樣加載一個月的數(shù)據(jù)。這與我們前面的示例一樣處理大約12x的數(shù)據(jù)量,但只使用 GPU 集群處理90 秒。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11295

    瀏覽量

    225362
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8558

    瀏覽量

    137059
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1238

    瀏覽量

    26223
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    愛立信與T-Mobile合作測試驗證Cloud RAN軟件可移植性

    愛立信與T-Mobile已在英偉達(dá)人工智能基礎(chǔ)設(shè)施上成功測試愛立信Cloud RAN軟件,該測試驗證了愛立信Cloud RAN軟件的可移植性,并提供了網(wǎng)絡(luò)自由選擇計算機(jī)解決方案的道路。
    的頭像 發(fā)表于 03-14 10:43 ?495次閱讀

    中科曙光scaleX萬卡超集群重塑超大規(guī)模算力基礎(chǔ)設(shè)施

    在“人工智能+”行動深入推進(jìn)的當(dāng)下,算力基礎(chǔ)設(shè)施已成為國家戰(zhàn)略競爭力的核心,而超大規(guī)模集群的運(yùn)維管控難題卻日益凸顯。中科曙光scaleX萬卡超集群打造的智能管理體系,正以“能管住-管得穩(wěn)-用得好”的進(jìn)階邏輯,重塑超大規(guī)模算力基礎(chǔ)設(shè)施
    的頭像 發(fā)表于 01-30 15:43 ?814次閱讀

    由Memfault賦能的Nordic-nRF Cloud云服務(wù)將硬核加持物聯(lián)網(wǎng)通信應(yīng)用

    的 nRF Cloud 將 Memfault 經(jīng)過驗證的可觀測性和無線 (OTA) 基礎(chǔ)設(shè)施直接引入 Nordic 成熟的云服務(wù)平臺 nRF Cloud。 今年早些時候,Nordic 收購了致力于大規(guī)模部署
    發(fā)表于 11-27 22:30

    由 Memfault 驅(qū)動的Nordic Semiconductor nRF Cloud榮獲移動突破獎所頒發(fā)之年度云計算創(chuàng)新獎

    Breakthrough Awards)中榮獲“年度云計算創(chuàng)新獎”(Cloud Computing Innovation of the Year)。由 Memfault 驅(qū)動的 nRF Cloud 將 Memfault 經(jīng)過驗證的可觀測性和無線 (OTA)
    的頭像 發(fā)表于 11-27 16:31 ?656次閱讀
    由 Memfault 驅(qū)動的Nordic Semiconductor nRF <b class='flag-5'>Cloud</b>榮獲移動突破獎所頒發(fā)之年度云計算創(chuàng)新獎

    華為入選2025年Gartner園區(qū)網(wǎng)絡(luò)基礎(chǔ)設(shè)施管理與運(yùn)營軟件市場指南

    近日,Gartner首次發(fā)布了2025年《Market Guide for Campus Infrastructure and Operations Software》(《園區(qū)網(wǎng)絡(luò)基礎(chǔ)設(shè)施管理與運(yùn)營
    的頭像 發(fā)表于 09-25 10:49 ?1169次閱讀

    1.93 - 1.995 GHz 基礎(chǔ)設(shè)施小型蜂窩功率放大器模塊 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()1.93 - 1.995 GHz 基礎(chǔ)設(shè)施小型蜂窩功率放大器模塊相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有1.93 - 1.995 GHz 基礎(chǔ)設(shè)施小型蜂窩功率放大器模塊的引腳圖、接線圖
    發(fā)表于 09-15 18:31
    1.93 - 1.995 GHz <b class='flag-5'>基礎(chǔ)設(shè)施</b>小型蜂窩功率放大器模塊 skyworksinc

    銳捷入選2025年Gartner園區(qū)網(wǎng)絡(luò)基礎(chǔ)設(shè)施管理與運(yùn)營軟件市場指南

    日前,Gartner發(fā)布了2025年《Market Guide for Campus Infrastructure and Operations Software》(《園區(qū)網(wǎng)絡(luò)基礎(chǔ)設(shè)施管理與運(yùn)營軟件
    的頭像 發(fā)表于 09-11 17:26 ?832次閱讀

    Zettabyte任命Sam Lawn為全球首席財務(wù)官

    專注于GPU基礎(chǔ)設(shè)施、AIDC優(yōu)化軟件與Neo-Cloud計算的全棧AI解決方案提供商Zettabyte已任命Sam Lawn為全球首席財務(wù)官,該任命即刻生效。
    的頭像 發(fā)表于 08-30 15:12 ?1211次閱讀

    IBM HashiCorp實現(xiàn)大規(guī)模基礎(chǔ)設(shè)施自動化

    隨著智能化的普及,企業(yè)應(yīng)用越來越多,管理基礎(chǔ)設(shè)施逐漸成為企業(yè)面臨的一項艱巨任務(wù)。今天的企業(yè),就像一個超大型的 “積木城”,里面布滿網(wǎng)絡(luò)、服務(wù)器、數(shù)據(jù)庫這些不同的 “積木塊”。如果想擴(kuò)建或調(diào)整,傳統(tǒng)
    的頭像 發(fā)表于 07-29 09:29 ?933次閱讀

    國民技術(shù)安全芯片筑牢關(guān)鍵信息基礎(chǔ)設(shè)施安全防線

    在數(shù)字浪潮席卷全球的當(dāng)下,關(guān)鍵信息基礎(chǔ)設(shè)施宛如國家經(jīng)濟(jì)社會運(yùn)行的中樞神經(jīng),其安全與否,直接關(guān)乎國計民生與國家安全。近期,《關(guān)鍵信息基礎(chǔ)設(shè)施商用密碼使用管理規(guī)定》正式發(fā)布,這一規(guī)定猶如為關(guān)鍵信息
    的頭像 發(fā)表于 07-07 11:28 ?1529次閱讀
    國民技術(shù)安全芯片筑牢關(guān)鍵信息<b class='flag-5'>基礎(chǔ)設(shè)施</b>安全防線

    卡特彼勒亮相第十六屆國際基礎(chǔ)設(shè)施投資與建設(shè)高峰論壇

    第十六屆 國際基礎(chǔ)設(shè)施投資與建設(shè)高峰論壇于今日在澳門隆重啟幕,本屆論壇以“更好互聯(lián)互通,更多合作共贏”為主題,旨在交流全球基礎(chǔ)設(shè)施互聯(lián)互通的熱點和前沿話題,探討綠色化、數(shù)字化、智能化技術(shù)在基礎(chǔ)設(shè)施互聯(lián)互通中的最新應(yīng)用和實踐。
    的頭像 發(fā)表于 06-13 11:50 ?1021次閱讀

    艾默生 SolaHD 通過 \"從地板到云端?\"解決方案和在線產(chǎn)品配置器推進(jìn)電能質(zhì)量管理

    ?\"(Floor to Cloud?)創(chuàng)新理念和全新升級的在線產(chǎn)品配置器推動行業(yè)變革。這些創(chuàng)新技術(shù)幫助企業(yè)實現(xiàn)從生產(chǎn)現(xiàn)場到云端的全鏈路電力基礎(chǔ)設(shè)施優(yōu)化,將可靠的電能解決方案與便捷的數(shù)字化接入完美
    發(fā)表于 06-10 14:50

    NVIDIA推出AI平臺DGX Cloud Lepton

    CoreWeave、Crusoe、Firmus、Foxconn、GMI Cloud、Lambda、Nebius、Nscale、SoftBank Corp. 和 Yotta Data Services 為 DGX Cloud Lepton Marketplace 提供數(shù)以萬
    的頭像 發(fā)表于 05-22 09:42 ?1033次閱讀

    NVIDIA虛擬GPU 18.0版本的亮點

    NVIDIA 虛擬 GPU(vGPU)技術(shù)可在虛擬桌面基礎(chǔ)設(shè)施(VDI)中解鎖 AI 功能,使其比以往更加強(qiáng)大、用途更加廣泛。vGPU 通過為各種虛擬化環(huán)境中的 AI 驅(qū)動工作負(fù)載提供
    的頭像 發(fā)表于 04-07 11:28 ?1484次閱讀

    PoE交換機(jī)如何助力智慧城市基礎(chǔ)設(shè)施建設(shè)?

    簡化部署流程,降低基礎(chǔ)設(shè)施成本。借助PoE交換機(jī),城市規(guī)劃者和網(wǎng)絡(luò)管理員可以在高效位置部署設(shè)備,而無需受到電源插座可用性的限制。 PoE 交換機(jī)在智慧城市基礎(chǔ)設(shè)施中的作用 簡化安裝并降低成本
    發(fā)表于 03-25 10:20