91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Stable Diffusion:一種新型的深度學(xué)習(xí)AIGC模型

GPU視覺(jué)識(shí)別 ? 來(lái)源:GPU視覺(jué)識(shí)別 ? 作者:GPU視覺(jué)識(shí)別 ? 2023-04-07 10:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

潛在擴(kuò)散模型 | AIGC|Diffusion Model

圖片感知壓縮 | GAN |Stable Diffusion

隨著生成型AI技術(shù)的能力提升,越來(lái)越多的注意力放在了通過(guò)AI模型提升研發(fā)效率上。業(yè)內(nèi)比較火的AI模型有很多,比如畫(huà)圖神器Midjourney、用途多樣的Stable Diffusion,以及OpenAI此前剛剛迭代的DALL-E 2。

對(duì)于研發(fā)團(tuán)隊(duì)而言,盡管Midjourney功能強(qiáng)大且不需要本地安裝,但它對(duì)于硬件性能的要求較高,甚至同一個(gè)指令每次得到的結(jié)果都不盡相同。相對(duì)而言,Stable Diffusion因具備功能多、開(kāi)源、運(yùn)行速度快,且能耗低內(nèi)存占用小成為更理想的選擇。

AIGC和ChatGPT4技術(shù)的爆燃和狂飆,讓文字生成、音頻生成、圖像生成、視頻生成、策略生成、GAMEAI、虛擬人等生成領(lǐng)域得到了極大的提升。不僅可以提高創(chuàng)作質(zhì)量,還能降低成本,增加效率。同時(shí),對(duì)GPU和算力的需求也越來(lái)越高,因此GPU服務(wù)器廠商開(kāi)始涌向該賽道,為這一領(lǐng)域提供更好的支持。

本文將重點(diǎn)從Stable Diffusion如何安裝、Stable Diffusion工作原理及Diffusion model與GAN相比的優(yōu)劣勢(shì)為大家展開(kāi)詳細(xì)介紹。

poYBAGQvf2mANN5RAAKygy4tSfw736.png

Stable Diffusion如何安裝

Stable Diffusion是一個(gè)非常有用的工具,可以幫助用戶快速、準(zhǔn)確地生成想要的場(chǎng)景及圖片。它的安裝也非常簡(jiǎn)單,只需要按照上述步驟進(jìn)行即可。如果您需要快速生成圖片及場(chǎng)景,Stable Diffusion是一個(gè)值得嘗試的工具。

一、環(huán)境準(zhǔn)備

1、硬件方面

1)顯存

4G起步,4G顯存支持生成512*512大小圖片,超過(guò)這個(gè)大小將卡爆失敗。這里小編建議使用RTX 3090。

2)硬盤

10G起步,模型基本都在5G以上,有個(gè)30G硬盤不為過(guò)吧?現(xiàn)在硬盤容量應(yīng)該不是個(gè)問(wèn)題。

pYYBAGQvf2qASAfyAAJ6OXX-d7s415.png

2、軟件方面

1)Git

https://git-scm.com/download/win

下載最新版即可,對(duì)版本沒(méi)有要求。

2)Python

https://www.python.org/downloads/

3)Nvidia CUDA

https://developer.download.nvidia.cn/compute/cuda/11.7.1/local_installers/cuda_11.7.1_516.94_windows.exe

版本11.7.1,搭配Nvidia驅(qū)動(dòng)516.94,可使用最新版。

4)stable-diffusion-webui

https://github.com/AUTOMATIC1111/stable-diffusion-webui

核心部件當(dāng)然用最新版本~~但注意上面三個(gè)的版本的兼容性。

5)中文語(yǔ)言包

https://github.com/VinsonLaro/stable-diffusion-webui-chinese

下載chinese-all-0306.json 和 chinese-english-0306.json文件

6)擴(kuò)展(可選)

https://github.com/Mikubill/sd-webui-controlnet

下載整個(gè)sd-webui-controlnet壓縮包

https://huggingface.co/Hetaneko/Controlnet-models/tree/main/controlnet_safetensors

https://huggingface.co/lllyasviel/ControlNet/tree/main/models

https://huggingface.co/TencentARC/T2I-Adapter/tree/main

試用時(shí)先下載第一個(gè)鏈接中的control_openpose.safetensors 或 第二個(gè)鏈接中的control_sd15_openpose.pth文件

7)模型

https://huggingface.co/models

https://civitai.com

可以網(wǎng)上去找推薦的一些模型,一般后綴名為ckpt、pt、pth、safetensors ,有時(shí)也會(huì)附帶VAE(.vae.pt)或配置文件(.yaml)。

poYBAGQvf2qAeKpXAAJRKB35jio288.png

二、安裝流程

1)安裝Git

就正常安裝,無(wú)問(wèn)題。

2)安裝Python

建議安裝在非program files、非C盤目錄,以防出現(xiàn)目錄權(quán)限問(wèn)題。

注意安裝時(shí)勾選Add Python to PATH,這樣可以在安裝時(shí)自動(dòng)加入windows環(huán)境變量PATH所需的Python路徑。

3)安裝Nvidia CUDA

正常安裝,無(wú)問(wèn)題。

4)安裝stable-diffusion-webui

國(guó)內(nèi)需要用到代理和鏡像,請(qǐng)按照下面的步驟操作:

a) 編輯根目錄下launch.py文件

將https://github.com替換為https://ghproxy.com/https://github.com,即使用Ghproxy代理,加速國(guó)內(nèi)Git。

b) 執(zhí)行根目錄下webui.bat文件

根目錄下將生成tmp和venv目錄。

c) 編輯venv目錄下pyvenv.cfg文件

將include-system-site-packages = false改為include-system-site-packages = true。

d) 配置python庫(kù)管理器pip

方便起見(jiàn),在venvScripts下打開(kāi)cmd后執(zhí)行如下命令:

pYYBAGQvf2uAXpMCAAEozLzwfu4571.png

xformer會(huì)安裝到venvLibsite-packages中,安裝失敗可以用pip install -U xformers命試試。

e) 安裝語(yǔ)言包

將文件chinese-all-0306.json 和 chinese-english-0306.json放到目錄localizations目錄中。運(yùn)行webui后進(jìn)行配置,操作方法見(jiàn)下。

f) 安裝擴(kuò)展(可選)

將sd-webui-controlnet解壓縮到extensions目錄中。將control_sd15_openpose.pth文件復(fù)制到/extensions/sd-webui-controlnet/models目錄中。不同的擴(kuò)展可能還需要安裝對(duì)應(yīng)的系統(tǒng),比如controlnet要正常使用則還需要安裝ffmpeg等。

g) 安裝模型

下載的各種模型放在modelsStable-diffusion目錄中即可。

h) 再次執(zhí)行根目錄下webui.bat文件

用瀏覽器打開(kāi)webui.bat所提供的網(wǎng)址即可運(yùn)行。

poYBAGQvf2uAH8XSAAFcmzzZiKs351.png

其中提供了網(wǎng)址:http://127.0.0.1:7860。

打開(kāi)該網(wǎng)址后在Settings -> User interface -> Localization (requires restart)設(shè)置語(yǔ)言,在菜單中選擇chinese-all-0220(前提是已經(jīng)在目錄中放入了對(duì)應(yīng)語(yǔ)言包,見(jiàn)上),點(diǎn)擊Apply Settings確定,并且點(diǎn)擊Reload UI重啟界面后即可。

pYYBAGQvf2yADwZfAAFOVg0-juI116.png

Stable Diffusion背后的原理

Latent Diffusion Models(潛在擴(kuò)散模型)的整體框架如下圖所示。首先需要訓(xùn)練一個(gè)自編碼模型,這樣就可以利用編碼器對(duì)圖片進(jìn)行壓縮,然后在潛在表示空間上進(jìn)行擴(kuò)散操作,最后再用解碼器恢復(fù)到原始像素空間。這種方法被稱為感知壓縮(Perceptual Compression)。個(gè)人認(rèn)為這種將高維特征壓縮到低維,然后在低維空間上進(jìn)行操作的方法具有普適性,可以很容易地推廣到文本、音頻、視頻等領(lǐng)域。

poYBAGQvf22AVDLaAAOxI5iUflk235.png

在潛在表示空間上進(jìn)行diffusion操作的主要過(guò)程和標(biāo)準(zhǔn)的擴(kuò)散模型沒(méi)有太大的區(qū)別,所使用的擴(kuò)散模型的具體實(shí)現(xiàn)為time-conditional UNet。但是,論文為擴(kuò)散操作引入了條件機(jī)制(Conditioning Mechanisms),通過(guò)cross-attention的方式來(lái)實(shí)現(xiàn)多模態(tài)訓(xùn)練,使得條件圖片生成任務(wù)也可以實(shí)現(xiàn)。

下面我們針對(duì)感知壓縮、擴(kuò)散模型、條件機(jī)制的具體細(xì)節(jié)進(jìn)行展開(kāi)。

一、圖片感知壓縮(Perceptual Image Compression)

感知壓縮本質(zhì)上是一個(gè)tradeoff。之前的許多擴(kuò)散模型沒(méi)有使用這種技術(shù)也可以進(jìn)行,但是原有的非感知壓縮的擴(kuò)散模型存在一個(gè)很大的問(wèn)題,即在像素空間上訓(xùn)練模型時(shí),如果希望生成高分辨率的圖像,則訓(xùn)練空間也是高維的。感知壓縮通過(guò)使用自編碼模型,忽略高頻信息,只保留重要的基礎(chǔ)特征,從而大幅降低訓(xùn)練和采樣階段的計(jì)算復(fù)雜度,使文圖生成等任務(wù)能夠在消費(fèi)級(jí)GPU上在10秒內(nèi)生成圖片,降低了落地門檻。

感知壓縮利用預(yù)訓(xùn)練的自編碼模型,學(xué)習(xí)到一個(gè)在感知上等同于圖像空間的潛在表示空間。這種方法的優(yōu)勢(shì)在于,只需要訓(xùn)練一個(gè)通用的自編碼模型,就可以用于不同的擴(kuò)散模型的訓(xùn)練,在不同的任務(wù)上使用。

因此,基于感知壓縮的擴(kuò)散模型的訓(xùn)練本質(zhì)上是一個(gè)兩階段訓(xùn)練的過(guò)程,第一階段需要訓(xùn)練一個(gè)自編碼器,第二階段才需要訓(xùn)練擴(kuò)散模型本身。在第一階段訓(xùn)練自編碼器時(shí),為了避免潛在表示空間出現(xiàn)高度的異化,作者使用了兩種正則化方法,一種是KL-reg,另一種是VQ-reg,因此在官方發(fā)布的一階段預(yù)訓(xùn)練模型中,會(huì)看到KL和VQ兩種實(shí)現(xiàn)。在Stable Diffusion中主要采用AutoencoderKL這種實(shí)現(xiàn)。

二、潛在擴(kuò)散模型(Latent Diffusion Models)

首先簡(jiǎn)要介紹一下普通的擴(kuò)散模型(DM),擴(kuò)散模型可以解釋為一個(gè)時(shí)序去噪自編碼器(equally weighted sequence of denoising autoencoders)

pYYBAGQvf26AEckrAAAI6RARqN8001.png

,其目標(biāo)是根據(jù)輸入

pYYBAGQvf26AEXp8AAABtQWZCfI901.png

去預(yù)測(cè)一個(gè)對(duì)應(yīng)去噪后的變體,或者說(shuō)預(yù)測(cè)噪音,其中

poYBAGQvf2-AIBrCAAACwCInpvc903.png

是輸入

pYYBAGQvf2-AZZ0AAAAB_ckNkUM772.png

的噪音版本。相應(yīng)的目標(biāo)函數(shù)可以寫(xiě)成如下形式:

poYBAGQvf3CAJ3m-AAAcRXbSB8M233.png

。其中

pYYBAGQvf3CAAK8pAAABnfa_Tg0176.png

poYBAGQvf3CAFKxXAAAGqN4ft6k460.png

中均勻采樣獲得。

而在潛在擴(kuò)散模型中,引入了預(yù)訓(xùn)練的感知壓縮模型,它包括一個(gè)編碼器

poYBAGQvf3GAe893AAACMhiUYBk993.png

和一個(gè)解碼器

pYYBAGQvf3GAdMlzAAACqWl9Yno365.png

。這樣就可以利用在訓(xùn)練時(shí)就可以利用編碼器得到

poYBAGQvf3KAQ-PVAAACS_ObOO8811.png

,從而讓模型在潛在表示空間中學(xué)習(xí),相應(yīng)的目標(biāo)函數(shù)可以寫(xiě)成如下形式:

pYYBAGQvf3KAd6E3AAAgmkntseU278.png

三、條件機(jī)制

除了無(wú)條件圖片生成外,我們也可以進(jìn)行條件圖片生成,這主要是通過(guò)拓展得到一個(gè)條件時(shí)序去噪自編碼器(conditional denoising autoencoder)

poYBAGQvf3OAbYe9AAAJqWBQ19w014.png

來(lái)實(shí)現(xiàn)的,這樣一來(lái)我們就可通過(guò)

pYYBAGQvf3OAc0ryAAACVHlS5cU813.png

來(lái)控制圖片合成的過(guò)程。具體來(lái)說(shuō),論文通過(guò)在UNet主干網(wǎng)絡(luò)上增加cross-attention機(jī)制來(lái)實(shí)現(xiàn)

poYBAGQvf3SAQb5oAAAKG_yPUVE095.png

。為了能夠從多個(gè)不同的模態(tài)預(yù)處理

pYYBAGQvf3SAWAShAAACKkvUyaA175.png

,論文引入了一個(gè)領(lǐng)域?qū)S镁幋a器(domain specific encoder)

poYBAGQvf3SAIfRCAAACeecR5E0206.png

,它用來(lái)將

pYYBAGQvf3WAblvsAAACIRRYCT0537.png

映射為一個(gè)中間表示

poYBAGQvf3WAbMidAAAN0yS_4gw498.png

,這樣我們就可以很方便的引入各種形態(tài)的條件(文本、類別、layout等等)。最終模型就可以通過(guò)一個(gè)cross-attention層映射將控制信息融入到UNet的中間層,cross-attention層的實(shí)現(xiàn)如下:

pYYBAGQvf3aASuFjAABYEOjF1ug790.png

其中

poYBAGQvf3aAKTYKAAAOPjGAYiM812.png

是UNet的一個(gè)中間表征。相應(yīng)的目標(biāo)函數(shù)可以寫(xiě)成如下形式:

pYYBAGQvf3eAfNUVAAAmP23x98E635.png

四、效率與效果的權(quán)衡

分析不同下采樣因子f∈{1,2,4,8,16,32}(簡(jiǎn)稱LDM-f,其中LDM-1對(duì)應(yīng)基于像素的DMs)的效果。為了獲得可比較的測(cè)試結(jié)果,固定在一個(gè)NVIDIA A100上進(jìn)行了實(shí)驗(yàn),并使用相同數(shù)量的步驟和參數(shù)訓(xùn)練模型。實(shí)驗(yàn)結(jié)果表明,LDM-{1,2}這樣的小下采樣因子訓(xùn)練緩慢,因?yàn)樗鼘⒋蟛糠指兄獕嚎s留給擴(kuò)散模型。而f值過(guò)大,則導(dǎo)致在相對(duì)較少的訓(xùn)練步驟后保真度停滯不前,原因在于第一階段壓縮過(guò)多,導(dǎo)致信息丟失,從而限制了可達(dá)到的質(zhì)量。LDM-{4-16}在效率和感知結(jié)果之間取得了較好的平衡。與基于像素的LDM-1相比,LDM-{4-8}實(shí)現(xiàn)了更低的FID得分,同時(shí)顯著提高了樣本吞吐量。對(duì)于像ImageNet這樣的復(fù)雜數(shù)據(jù)集,需要降低壓縮率以避免降低質(zhì)量??傊?,LDM-4和-8提供了較高質(zhì)量的合成結(jié)果。

Diffusion model與GAN相比的優(yōu)劣勢(shì)

一、優(yōu)點(diǎn)

Diffusion Model相比于GAN,明顯的優(yōu)點(diǎn)是避免了麻煩的對(duì)抗學(xué)習(xí)。此外,還有幾個(gè)不太明顯的好處:首先,Diffusion Model可以“完美”用latent去表示圖片,因?yàn)槲覀兛梢杂靡粋€(gè)ODE從latent變到圖片,同一個(gè)ODE反過(guò)來(lái)就可以從圖片變到latent。而GAN很難找到真實(shí)圖片對(duì)應(yīng)什么latent,所以可能會(huì)不太好修改非GAN生成的圖片。其次,Diffusion Model可以用來(lái)做“基于色塊的編輯”(SDEdit),而GAN沒(méi)有這樣的性質(zhì),所以效果會(huì)差很多。再次,由于Diffusion Model和score之間的聯(lián)系,它可以用來(lái)做inverse problem solver的learned prior,例如我有一個(gè)清晰圖片的生成模型,看到一個(gè)模糊圖片,可以用生成模型作為先驗(yàn)讓圖片更清晰。最后,Diffusion Model可以求model likelihood,而這個(gè)GAN就很難辦。Diffusion Model最近的流行一部分也可能是因?yàn)镚AN卷不太動(dòng)了。雖然嚴(yán)格意義上說(shuō),Diffusion Model最早出自Jascha Sohl-Dickstein在ICML 2015就發(fā)表的文章,和GAN的NeurIPS 2014也差不了多少;不過(guò)DCGAN/WGAN這種讓GAN沃克的工作在2015-17就出了,而Diffusion Model在大家眼中做沃克基本上在NeurIPS 2020,所以最近看上去更火也正常。

二、不足之處

Diffusion model相比于GAN也存在一些缺陷。首先,無(wú)法直接修改潛在空間的維度,這意味著無(wú)法像StyleGAN中使用AdaIN對(duì)圖像風(fēng)格進(jìn)行操作。其次,由于沒(méi)有判別器,如果監(jiān)督條件是“我想要網(wǎng)絡(luò)輸出的東西看起來(lái)像某個(gè)物體,但我不確定具體是什么”,就會(huì)比較困難。而GAN可以輕松地實(shí)現(xiàn)這一點(diǎn),例如生成長(zhǎng)頸鹿的圖像。此外,由于需要迭代,生成速度比較慢,但在單純的圖像生成方面已經(jīng)得到了解決。目前在條件圖像生成方面的研究還不夠充分,但可以嘗試將Diffusion model應(yīng)用于這一領(lǐng)域。

poYBAGQvf3iAI7zHAABVmeksc3c377.jpg

審核編輯黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301440
  • ChatGPT
  • AIGC
    +關(guān)注

    關(guān)注

    1

    文章

    391

    瀏覽量

    3227
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    一種讓機(jī)器通過(guò)“試錯(cuò)”學(xué)會(huì)決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會(huì)把每
    的頭像 發(fā)表于 01-31 09:34 ?646次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    從炫技到量產(chǎn),具身智能要突破哪些瓶頸?

    LingBot-VLA 開(kāi)源,具身智能的 Stable Diffusion 來(lái)了?
    的頭像 發(fā)表于 01-28 17:12 ?8965次閱讀
    從炫技到量產(chǎn),具身智能要突破哪些瓶頸?

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在些我們需要時(shí)
    的頭像 發(fā)表于 01-07 15:37 ?192次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    本地部署Stable Diffusion實(shí)現(xiàn)AI文字生成高質(zhì)量矢量圖片應(yīng)用于電子商務(wù)

    本地部署Stable Diffusion
    的頭像 發(fā)表于 11-28 07:19 ?745次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    、Transformer 模型的后繼者 二、用創(chuàng)新方法實(shí)現(xiàn)深度學(xué)習(xí)AI芯片 1、基于開(kāi)源RISC-V的AI加速器 RISC-V是一種開(kāi)源、模塊化的指令集架構(gòu)(ISA)。優(yōu)勢(shì)如下: ①模
    發(fā)表于 09-12 17:30

    【Sipeed MaixCAM Pro開(kāi)發(fā)板試用體驗(yàn)】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    1. 項(xiàng)目概述 本項(xiàng)目旨在開(kāi)發(fā)并部署個(gè)高精度的深度學(xué)習(xí)模型,用于自動(dòng)鑒別張圖片是由AI生成(如Sta
    發(fā)表于 08-21 13:59

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)
    的頭像 發(fā)表于 08-13 09:15 ?4185次閱讀
    自動(dòng)駕駛中Transformer大<b class='flag-5'>模型</b>會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來(lái)了挑戰(zhàn)。為了解決這
    發(fā)表于 07-03 19:43

    寬調(diào)速范圍低轉(zhuǎn)矩脈動(dòng)的一種新型內(nèi)置式永磁同步電機(jī)的設(shè)計(jì)與分析

    摘要:寬調(diào)速范圍與低轉(zhuǎn)矩脈動(dòng)直是設(shè)計(jì)電動(dòng)汽車用內(nèi)置式永礎(chǔ)同步電機(jī)時(shí)所追求的重要目標(biāo)。設(shè)計(jì)了一種轉(zhuǎn)子結(jié)構(gòu)為胃的新型內(nèi)置式永礎(chǔ)同步電機(jī),并進(jìn)行了繞組結(jié)構(gòu)優(yōu)化與性能分析。利用有限元分析法,將所設(shè)計(jì)的電機(jī)
    發(fā)表于 06-06 14:13

    一種新型寬帶鞭狀套筒天線

    電子發(fā)燒友網(wǎng)站提供《一種新型寬帶鞭狀套筒天線.pdf》資料免費(fèi)下載
    發(fā)表于 05-28 14:05 ?0次下載

    如何使用Docker部署大模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了個(gè)重要的挑戰(zhàn)。Docker 作為一種
    的頭像 發(fā)表于 05-24 16:39 ?1114次閱讀

    云知聲斬獲中國(guó)AIGC產(chǎn)業(yè)雙項(xiàng)大獎(jiǎng)

    企業(yè)」與「2025年值得關(guān)注的AIGC產(chǎn)品」雙項(xiàng)大獎(jiǎng)。 2025年,生成式人工智能(AIGC)正邁入大規(guī)模應(yīng)用的新階段。從大模型的技術(shù)突破到多模態(tài)的融合創(chuàng)新,AIGC已從實(shí)驗(yàn)室走向?qū)嶋H
    的頭像 發(fā)表于 04-21 14:13 ?870次閱讀

    一種新型直流電機(jī)控制器

    以前控制直流電機(jī)多由單片機(jī)完成。該方式缺點(diǎn)是接口繁瑣、速度慢,且不易在高溫、高壓等惡劣環(huán)境下工作[1]。采用一種新型直流電機(jī)控制器——DSP 控制器解決了單片機(jī)控制的缺點(diǎn),其具備很多優(yōu)點(diǎn),該控制器
    發(fā)表于 03-25 15:25

    ?Diffusion生成式動(dòng)作引擎技術(shù)解析

    Diffusion生成式動(dòng)作引擎 Diffusion生成式動(dòng)作引擎是一種基于擴(kuò)散模型Diffusion Models)的生成式人工智能技術(shù)
    的頭像 發(fā)表于 03-17 15:14 ?3058次閱讀

    使用OpenVINO GenAI和LoRA適配器進(jìn)行圖像生成

    借助生成式 AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無(wú)奇的文本提示詞轉(zhuǎn)換為令人驚艷的視覺(jué)效果。
    的頭像 發(fā)表于 03-12 13:49 ?1886次閱讀
    使用OpenVINO GenAI和LoRA適配器進(jìn)行圖像生成