AI無(wú)處不在。你在部署AI,你的競(jìng)爭(zhēng)對(duì)手也在部署AI,幾乎所有人都在做AI。然而,AI并不簡(jiǎn)單,不僅在生成有效模型上復(fù)雜,在部署上同樣充滿挑戰(zhàn)。
2025-10-17 10:00:18
2561 
瑞薩電子的e-AI技術(shù)是在本公司生產(chǎn)的MCU或MPU上生成AI算法,運(yùn)用算法在嵌入式設(shè)備上進(jìn)行操控,從而使嵌入式設(shè)備進(jìn)行AI操控。
2018-04-28 09:40:57
8960 
人工智能應(yīng)用的開(kāi)發(fā)過(guò)程中,AI 模型的泛化能力是一個(gè)非常重要的考量因素,理想情況下,基于訓(xùn)練數(shù)據(jù)集優(yōu)化得到的 AI 模型,不存在過(guò)擬合或欠擬合問(wèn)題,可以直接遷移到新數(shù)據(jù)上用于推斷。
2023-11-13 10:58:54
1756 
之前文章已介紹了一些AI算法Demo的應(yīng)用 ,我們提供從模型訓(xùn)練到RZ/V系列嵌入式端推理應(yīng)用的完整流程。整體流程如下圖所示。
2023-12-20 12:21:53
1916 
AI算法開(kāi)發(fā)流程由需求分析到準(zhǔn)備數(shù)據(jù),然后到選取模型,訓(xùn)練模型,接著模型轉(zhuǎn)換后進(jìn)行模型部署
2025-04-18 14:03:57
2171 
電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)當(dāng)前,全球眾多科技企業(yè)都在積極研究AI大模型,然而因?yàn)閰?shù)規(guī)模太大,要想實(shí)現(xiàn)AI大模型在邊/端側(cè)部署,需要用到模型壓縮技術(shù)。當(dāng)前谷歌、微軟、騰訊等廠商在該領(lǐng)域均有布局
2023-04-24 01:26:00
3664 大模型在端側(cè)的部署也成了業(yè)界關(guān)注的焦點(diǎn)。 ? 如何把AI 模型在邊緣端部署 ? 首先得軟硬件適配,硬件方面,適配的AI芯片越多越好,這樣對(duì)于工程師來(lái)說(shuō),就降低了端側(cè)模型適配遷移的難度,即使換一個(gè)設(shè)備也可以輕松部署上去;軟件方面,主要
2023-07-04 00:11:00
4291 
大模型,包括在醫(yī)療領(lǐng)域。 ? 眾多企業(yè)宣布推出醫(yī)療大模型 ? 日前,京東發(fā)布了京東言犀大模型、言犀AI開(kāi)發(fā)計(jì)算平臺(tái),同時(shí)基于京東言犀通用大模型,京東健康發(fā)布了“京醫(yī)千詢”醫(yī)療大模型,可快速完成在醫(yī)療健康領(lǐng)域各個(gè)場(chǎng)景的遷移和學(xué)
2023-07-25 00:12:00
2782
STM32可以跑AI,這個(gè)AI模型怎么搞,知識(shí)盲區(qū)
2025-10-14 07:14:27
和計(jì)算成本。
對(duì)于某些應(yīng)用,可以通過(guò)剪枝實(shí)現(xiàn)更高的效率,尤其是在硬件加速器上。
挑戰(zhàn):
剪枝可能會(huì)導(dǎo)致模型性能下降,因此需要仔細(xì)選擇剪枝策略并進(jìn)行適當(dāng)?shù)脑儆?xùn)練。
高度非線性的問(wèn)題中,簡(jiǎn)單地剪枝可能會(huì)造成
2024-12-06 17:20:41
1 個(gè) AI 模型 = 5 輛汽車終身碳排量,AI 為何如此耗能?
2021-01-22 06:35:03
任務(wù)十四:從您孰悉的出發(fā)任務(wù)十五:認(rèn)識(shí)AI術(shù)語(yǔ)-- 權(quán)重(Weight)任務(wù)十六:簡(jiǎn)單的權(quán)重運(yùn)算-- 兩兩相乘&求和任務(wù)十七:訓(xùn)練(機(jī)器學(xué)習(xí))-- AI開(kāi)始任務(wù)十八:創(chuàng)作您的AI模型,展開(kāi)機(jī)器學(xué)習(xí)任務(wù)十九:AI的特質(zhì)與魅力從那里來(lái)?任務(wù)二十:如何站在巨人的肩膀上(遷移學(xué)習(xí)) ?
2020-12-02 14:12:54
AI算法中比較常用的模型都有什么
2022-08-27 09:19:06
STM32CubeMx.AI的使用歡迎使用Markdown編輯器在STM32論壇中看到這樣一個(gè)視頻:在視頻中,在STM32上驗(yàn)證神經(jīng)網(wǎng)絡(luò)模型(HAR人體活動(dòng)識(shí)別),一般需要STM32-F3/F4/L4/F7/L7系列高性能單片機(jī),運(yùn)行網(wǎng)絡(luò)模型一般需要3MB以上的閃存空間,單片機(jī)顯然不支持這...
2021-08-03 06:59:41
本文檔描述在 STM32MP1 系列 MPU 上配置 DDR 子系統(tǒng)(DDRSS)所需的流程和步驟。通過(guò)設(shè)定 DDR 控制器(DDRCTRL)、PHY 接口(DDRPHYC)和 SDRAM 模式
2023-09-07 07:52:24
你好, 我試圖在 X-CUBE-AI.7.1.0 中導(dǎo)入由在線 AI 平臺(tái)生成的 .h5 模型,收到錯(cuò)誤:E010(InvalidModelError): Model saved with Keras 2.7.0 but
2022-12-27 06:10:35
嘗試在 i.MX93 EVKCM 上的 EthosU NPU 上推斷 AI 模型時(shí)遇到錯(cuò)誤。
使用的 BSP:Linux imx93evk 6.1.1+g29549c7073bf
首先,我從
2023-06-05 11:36:22
PDA、Source-Free DA上的應(yīng)用。六、遷移學(xué)習(xí)前沿應(yīng)用遷移學(xué)習(xí)在語(yǔ)義分割中的應(yīng)用遷移學(xué)習(xí)在目標(biāo)檢測(cè)中的應(yīng)用遷移學(xué)習(xí)在行人重識(shí)別中的應(yīng)用圖片與視頻風(fēng)格遷移章節(jié)目標(biāo):掌握深度遷移學(xué)習(xí)在語(yǔ)義分割
2022-04-21 15:15:11
Workspace上。這一過(guò)程會(huì)通過(guò)專用的庫(kù)遷移器界面來(lái)自動(dòng)分析所選擇的本地庫(kù)并將它們遷移到您登錄的工作區(qū),實(shí)現(xiàn)一鍵式解決方案。庫(kù)遷移器是一種專用解決方案,用于快速構(gòu)建您的Workspace元件庫(kù),您可以獲得如下
2022-06-24 14:24:56
的System – General 頁(yè)面獲得。在僅遷移模型的模式下,遷移器的分析過(guò)程將檢測(cè)源庫(kù)(IntLib、SchLib、PcbLib 等)中可用的所有符號(hào)、封裝和仿真模型,然后使用系統(tǒng)的默認(rèn)位置,命名方案
2022-07-15 11:12:19
2.概述一個(gè)簡(jiǎn)單的AI開(kāi)發(fā)sampleGithub開(kāi)源的數(shù)字手勢(shì)識(shí)別CNN模型,識(shí)別數(shù)字0-10十一種手勢(shì)類LeNet-5,兩個(gè)卷積層,兩個(gè)池化層,一個(gè)全連接層,一個(gè)Softmax輸出層3.RKNN
2022-04-02 15:22:11
是指將數(shù)據(jù)處理任務(wù)從云端遷移到離數(shù)據(jù)源更近的設(shè)備上,以實(shí)現(xiàn)更快的響應(yīng)時(shí)間和更低的延遲。神經(jīng)網(wǎng)絡(luò)壓縮技術(shù)則通過(guò)減少模型參數(shù)和計(jì)算量來(lái)降低設(shè)備的計(jì)算需求,使其能夠在有限的資源下運(yùn)行復(fù)雜的人工智能算法。低功耗
2024-03-12 08:09:00
遷移和多端協(xié)同
Stage模型實(shí)現(xiàn)了應(yīng)用組件與UI解耦:
在跨端遷移場(chǎng)景下,系統(tǒng)在多設(shè)備的應(yīng)用組件之間遷移數(shù)據(jù)/狀態(tài)后,UI便可利用ArkUI的聲明式特點(diǎn),通過(guò)應(yīng)用組件中保存的數(shù)據(jù)/狀態(tài)恢復(fù)用戶界面
2023-09-26 16:48:41
使用 STM32Cube.AI 取得了巨大的成功。它使我們能夠實(shí)現(xiàn)在低成本MCU上運(yùn)行的高性能AI應(yīng)用程序。今天,我們很高興看到該產(chǎn)品通過(guò)提供在線界面進(jìn)一步發(fā)展。這將使我們能夠評(píng)估AI模型的性能,并在流程的早期選擇合適的硬件
2023-02-02 09:52:43
使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx
```
Neural Network Tools for STM32AI v1.7.0 (STM.ai v8.0.0-19389)
INTERNAL ERROR: list index out of range
```
2024-05-27 07:15:58
續(xù)上一篇,實(shí)現(xiàn)非填充模式顯示數(shù)值的目的是在顯示屏上顯示MPU6050的數(shù)值,方便后面做調(diào)試,這一篇是記錄使用MPU6050的一些過(guò)程。所需材料一些修改效果所需材料stm32f103c8t6核心板
2022-02-10 07:11:52
AI簡(jiǎn)介:AI 模板(Template)就像點(diǎn)菜單,讓您自己可以思考自己的應(yīng)用問(wèn)題,在 Excel 上修改模板,把訓(xùn)練資料填進(jìn)去。這些模版背后的 Python 程序代碼也都是開(kāi)源共享的,鼓勵(lì)會(huì)寫程序者
2020-11-05 17:55:48
AI簡(jiǎn)介:AI 模板(Template)就像點(diǎn)菜單,讓您自己可以思考自己的應(yīng)用問(wèn)題,在 Excel 上修改模板,把訓(xùn)練資料填進(jìn)去。這些模版背后的 Python 程序代碼也都是開(kāi)源共享的,鼓勵(lì)會(huì)寫程序者
2020-11-26 11:57:36
推斷開(kāi)發(fā)平臺(tái),它可以幫助開(kāi)發(fā)者在賽靈思的 FPGA 和自適應(yīng) SoC 上實(shí)現(xiàn)高效的 AI 應(yīng)用部署。它是一個(gè)強(qiáng)大而靈活的 AI 開(kāi)發(fā)平臺(tái),它可以讓您充分利用賽靈思硬件平臺(tái)的優(yōu)勢(shì),實(shí)現(xiàn)高性能、低功耗
2023-10-14 15:34:26
【Vitis AI】 Vitis AI 通過(guò)遷移學(xué)習(xí)訓(xùn)練自定義模型
測(cè)評(píng)計(jì)劃:
一、開(kāi)箱報(bào)告,KV260通過(guò)網(wǎng)線共享PC網(wǎng)絡(luò)
二、Zynq超強(qiáng)輔助-PYNQ配置,并使用XVC(Xilinx
2023-10-16 15:03:16
、浪費(fèi)資源與破壞環(huán)境
二、用小模型代替大模型
1、強(qiáng)化學(xué)習(xí)
2、指令調(diào)整
3、合成數(shù)據(jù)
三、終身學(xué)習(xí)與遷移學(xué)習(xí)
1、終身學(xué)習(xí)
終身學(xué)習(xí)是一種模仿人類行為的AI算法,旨在構(gòu)建一種能不斷適應(yīng)新環(huán)境、在不斷接收
2025-09-14 14:04:51
靈感的過(guò)程中發(fā)揮關(guān)鍵作用。五、用AI實(shí)現(xiàn)諾貝爾獎(jiǎng)級(jí)別的科學(xué)發(fā)現(xiàn)
這想法這能夠大膽的。
1、AI科學(xué)家的構(gòu)建
全自主科學(xué)實(shí)驗(yàn)室需要哪些部分:
①自動(dòng)實(shí)驗(yàn)設(shè)備
②流程管理系統(tǒng)
③數(shù)據(jù)處理和分析系統(tǒng)
④微
2025-09-17 11:45:31
大模型落地的重要方向,也是AI技術(shù)的下一個(gè)風(fēng)口。
因此該書適于對(duì)AI感興趣的讀者,尤其是Agent的學(xué)習(xí)者與開(kāi)發(fā)者,如想要提升工作效率的職場(chǎng)人、推動(dòng)企業(yè)AI深化應(yīng)用的管理者、希望在AI領(lǐng)域有所
2025-04-22 11:51:51
`上一次試用將DPU成功移植在了FZ3開(kāi)發(fā)板上,并將DNNDK開(kāi)發(fā)套件安裝在了自定義的AI系統(tǒng)上,并通過(guò)相關(guān)指令驗(yàn)證了已經(jīng)安裝成功,現(xiàn)在根據(jù)xilinx官方提供的模型跑深度學(xué)習(xí)推理模型。本次驗(yàn)證
2020-12-19 11:23:36
在使用CubeIde導(dǎo)入ai模型進(jìn)行模型分析的時(shí)候報(bào)錯(cuò)[AI:persondetection] ModuleNotFoundError: No module named \'_socket\',但是安裝的python里面有這個(gè)模塊,請(qǐng)問(wèn)有知道為什么的嗎
2024-05-21 06:44:50
介紹在STM32cubeIDE上部署AI模型的系列教程,開(kāi)發(fā)板型號(hào)STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開(kāi)發(fā)】篇四|部署篇:STM32cubeIDE上部署神經(jīng)網(wǎng)絡(luò)之模型部署
2021-12-14 09:05:03
使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx
```
Neural Network Tools for STM32AI v1.7.0 (STM.ai v8.0.0-19389)
INTERNAL ERROR: list index out of range
```
2024-03-14 07:09:26
在即將開(kāi)展的“中國(guó)移動(dòng)全球合作伙伴大會(huì)”上,華為將發(fā)布一款面向運(yùn)營(yíng)商電信領(lǐng)域的一站式AI開(kāi)發(fā)平臺(tái)——SoftCOM AI平臺(tái),幫助電信領(lǐng)域開(kāi)發(fā)者解決AI開(kāi)發(fā)在數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、模型發(fā)布以及部署驗(yàn)證
2021-02-25 06:53:41
`1.前言 在本文里,我提出了<兩段式>移植策略。在AI領(lǐng)域里,第一階段的移植,就是把AI模型移植到非常普及的Android手機(jī)里,放在<AI模型超市(或
2020-12-14 11:03:48
保駕護(hù)航。下面讓我們來(lái)了解如何不借助手動(dòng)工具或手動(dòng)編程來(lái)選擇模型、隨時(shí)隨地訓(xùn)練模型并將其無(wú)縫部署到TI處理器上,從而實(shí)現(xiàn)硬件加速推理。圖1: 邊緣AI應(yīng)用的開(kāi)發(fā)流程第1步:選擇模型邊緣AI系統(tǒng)開(kāi)發(fā)
2022-11-03 06:53:28
AI芯片產(chǎn)品的設(shè)計(jì)和開(kāi)發(fā);技巧提升:課程剖析AI芯片開(kāi)發(fā)流程及技巧,學(xué)員可熟悉AI芯片架構(gòu)設(shè)計(jì)的各種處理技巧、芯片架構(gòu)在FPGA上執(zhí)行的方法,掌握AI芯片的工程應(yīng)用和部署;配套開(kāi)發(fā)板:配備與課程配套
2019-07-19 11:54:01
擬設(shè)計(jì)遷移流程和臺(tái)積公司的增強(qiáng)型工藝設(shè)計(jì)套件(PDKs),我們能夠實(shí)現(xiàn)設(shè)計(jì)方案的復(fù)用,高效地在業(yè)界廣泛采用的工藝技術(shù)上進(jìn)行遷移,并受益于全新工藝技術(shù)在性能、功耗及面積方面的優(yōu)化?!盜BM研究中心全球半導(dǎo)體
2023-04-03 16:03:26
具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來(lái)了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個(gè)行業(yè)的企業(yè)和組織。深度學(xué)習(xí)模型可以幫助實(shí)現(xiàn)工業(yè)流程自動(dòng)化,進(jìn)行實(shí)時(shí)分析以做出決策,甚至可以預(yù)測(cè)預(yù)警。這些AI
2021-10-27 06:34:15
將AI推向邊緣的影響通過(guò)在邊緣運(yùn)行ML模型可以使哪些具體的AI項(xiàng)目更容易運(yùn)行?
2021-02-23 06:21:10
訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過(guò)大,有無(wú)解決方案?
2023-08-04 09:16:28
RT-AK 是 RT-Thread 團(tuán)隊(duì)為 RT-Thread 實(shí)時(shí)操作系統(tǒng)所開(kāi)發(fā)的 AI 套件,能夠一鍵將 AI 模型部署到 RT-Thread 項(xiàng)目中,讓用戶可以 在統(tǒng)一的 API 之上
2022-09-02 15:06:14
在設(shè)計(jì)防止AI大模型被黑客病毒入侵時(shí),需要考慮到復(fù)雜的加密和解密算法以及模型的實(shí)現(xiàn)細(xì)節(jié),首先需要了解模型的結(jié)構(gòu)和實(shí)現(xiàn)細(xì)節(jié)。
以下是我使用Python和TensorFlow 2.x實(shí)現(xiàn)深度學(xué)習(xí)模型
2024-03-19 11:18:16
。
端側(cè)AI應(yīng)用開(kāi)發(fā)往往需要調(diào)用各種各樣的大模型能力,需要更豐富、類型更多的模型適配。為此,Gen-AI Model Hub全面擴(kuò)容,模型數(shù)量在原有基礎(chǔ)上激增了3.3倍,并支持DeepSeek-R1蒸餾
2025-04-13 19:52:44
作業(yè)遷移是實(shí)現(xiàn)網(wǎng)格作業(yè)服務(wù)質(zhì)量保證和系統(tǒng)高效能的重要方法。該文在分析傳統(tǒng)進(jìn)程遷移技術(shù)的基礎(chǔ)上,根據(jù)網(wǎng)格系統(tǒng)的特點(diǎn),提出一種全局作業(yè)與局部進(jìn)程相結(jié)合的網(wǎng)格作業(yè)自
2009-04-20 08:58:34
14 結(jié)合對(duì)象存儲(chǔ)的特點(diǎn),提出基于QoS 的存儲(chǔ)系統(tǒng)模型。該模型將遷移任務(wù)劃分為細(xì)粒度的遷移請(qǐng)求,使對(duì)象存儲(chǔ)設(shè)備在實(shí)現(xiàn)數(shù)據(jù)遷移的同時(shí)能響應(yīng)I/O 請(qǐng)求。元數(shù)據(jù)服務(wù)器按相同的
2009-10-07 11:56:59
9 AI工人操作行為流程規(guī)范識(shí)別系統(tǒng)利用高清監(jiān)控?cái)z像頭覆蓋現(xiàn)場(chǎng)作業(yè)區(qū)域,AI工人操作行為流程規(guī)范識(shí)別系統(tǒng)通過(guò)圖像識(shí)別和深度學(xué)習(xí)技術(shù)對(duì)作業(yè)人員的操作行為進(jìn)行實(shí)時(shí)分析。AI工人操作行為流程規(guī)范識(shí)別系統(tǒng)能夠
2024-08-30 19:06:37
在協(xié)同設(shè)計(jì)流程中,以WfMC(國(guó)際工作流程管理參考模型)工作流程參考模型為基礎(chǔ),分為設(shè)計(jì)流程定義、設(shè)計(jì)流程運(yùn)行與設(shè)計(jì)流程監(jiān)控等3種機(jī)制。文中利用此模塊化流程模型定義方法,
2012-05-08 15:25:48
29 logits層進(jìn)行不確切監(jiān)督學(xué)習(xí),使其特征分布向新數(shù)據(jù)集特征分布方向遷移;最后,將遷移模型導(dǎo)出,在對(duì)應(yīng)的測(cè)試集上進(jìn)行測(cè)試。實(shí)驗(yàn)結(jié)果表明,在STANFORD DOGS、CUB -200 -2011、OXFORD FLOWER-102細(xì)粒度圖像數(shù)據(jù)集上,DMT分類方法的分類準(zhǔn)確率分別達(dá)到72.2
2019-01-18 17:01:50
5 把我們當(dāng)前要處理的NLP任務(wù)叫做T(T稱為目標(biāo)任務(wù)),遷移學(xué)習(xí)技術(shù)做的事是利用另一個(gè)任務(wù)S(S稱為源任務(wù))來(lái)提升任務(wù)T的效果,也即把S的信息遷移到T中。至于怎么遷移信息就有很多方法了,可以直接利用S的數(shù)據(jù),也可以利用在S上訓(xùn)練好的模型,等等。
2019-07-18 11:29:47
8597 
設(shè)計(jì)域分類損失函數(shù)指定表情域條件,使單個(gè)生成器學(xué)習(xí)多個(gè)表情域之間的映射,同時(shí)利用模型生成器和判別器之間的條件約束與零和博弈,在僅訓(xùn)練一個(gè)生成器的情況下同時(shí)實(shí)現(xiàn)7種面部表情遷移。實(shí)驗(yàn)結(jié)果表明,該模型能夠有效進(jìn)行
2021-05-13 15:31:19
6 基于WordNet模型的遷移學(xué)習(xí)文本特征對(duì)齊算法
2021-06-27 16:14:43
8 傳統(tǒng)認(rèn)知中,人工智能(AI)相關(guān)的深度學(xué)習(xí)應(yīng)用,只有算力充沛的MPU或者是PC才能玩得轉(zhuǎn)。可你是否想過(guò),在一顆通用MCU上也能暢玩深度學(xué)習(xí)?這不是天方夜譚,NXP的工程師就在一個(gè)用例中,...
2021-11-01 16:25:15
11 續(xù)上一篇,實(shí)現(xiàn)非填充模式顯示數(shù)值的目的是在顯示屏上顯示MPU6050的數(shù)值,方便后面做調(diào)試,這一篇是記錄使用MPU6050的一些過(guò)程。所需材料一些修改效果所需材料stm32f103c8t6核心板
2021-12-06 13:21:12
10 使用 NVIDIA Clara 構(gòu)建的醫(yī)療成像 AI 模型現(xiàn)在可以在云計(jì)算的 MD.ai 上本地運(yùn)行,從而使用現(xiàn)代 web 瀏覽器實(shí)現(xiàn)協(xié)作模型驗(yàn)證和快速注釋項(xiàng)目。這些 NVIDIA Clara 模型可免費(fèi)用于任何 MD.ai 合作研究項(xiàng)目,如器官或腫瘤分割。
2022-04-15 09:54:51
3806 
,通過(guò)適應(yīng)和優(yōu)化,在短時(shí)間內(nèi)達(dá)到最先進(jìn)的精度和生產(chǎn)級(jí)吞吐量。 在 NVIDIA GTC23 上,NVIDIA 發(fā)布了 NVIDIA TAO 套件 5.0 ,帶來(lái)了 AI 模型開(kāi)發(fā)方面的突破性功能提升
2023-03-29 03:40:04
1753 。與云環(huán)境不同,嵌入式設(shè)備在實(shí)現(xiàn)人工智能方面有很多困難,比如要考慮HW性能、成本和功率限制。通過(guò)使用RZ/V系列AI-MPU和瑞薩的低功耗AI加速器DRP-AI,可以解決大部分HW實(shí)施的挑戰(zhàn)。 當(dāng)客戶在我們的AI-MPU上實(shí)現(xiàn)AI模型時(shí),他們使用DRP-AI翻譯器,將A
2023-05-11 20:16:35
1261 
《在 AI 愛(ài)克斯開(kāi)發(fā)板上用 OpenVINO 加速 YOLOv8 分類模型》介紹了在 AI 愛(ài)克斯開(kāi)發(fā)板上使用 OpenVINO 開(kāi)發(fā)套件部署并測(cè)評(píng) YOLOv8 的分類模型,本文將介紹在 AI 愛(ài)克斯開(kāi)發(fā)板上使用 OpenVINO 加速 YOLOv8 目標(biāo)檢測(cè)模型。
2023-05-12 09:08:12
2289 
benchmark_app是OpenVINOTM工具套件自帶的AI模型推理計(jì)算性能測(cè)試工具,可以指定在不同的計(jì)算設(shè)備上,在同步或異步模式下,測(cè)試出不帶前后處理的純AI模型推理計(jì)算性能。
2023-05-24 11:19:55
1326 
《在AI愛(ài)克斯開(kāi)發(fā)板上用OpenVINO加速YOLOv8分類模型》介紹了在AI愛(ài)克斯開(kāi)發(fā)板上使用OpenVINO 開(kāi)發(fā)套件部署并測(cè)評(píng)YOLOv8的分類模型,本文將介紹在AI愛(ài)克斯開(kāi)發(fā)板上使用OpenVINO加速YOLOv8目標(biāo)檢測(cè)模型。
2023-05-26 11:03:18
2309 
《在 AI 愛(ài)克斯開(kāi)發(fā)板上用 OpenVINO 加速 YOLOv8 目標(biāo)檢測(cè)模型》介紹了在 AI 愛(ài)克斯開(kāi)發(fā)板上使用 OpenVINO 開(kāi)發(fā)套件部署并測(cè)評(píng) YOLOv8 的目標(biāo)檢測(cè)模型,本文將介紹在 AI 愛(ài)克斯開(kāi)發(fā)板上使用 OpenVINO 加速 YOLOv8-seg 實(shí)例分割模型。
2023-06-05 11:52:15
1849 
遷移學(xué)習(xí)徹底改變了自然語(yǔ)言處理(NLP)領(lǐng)域,允許從業(yè)者利用預(yù)先訓(xùn)練的模型來(lái)完成自己的任務(wù),從而大大減少了訓(xùn)練時(shí)間和計(jì)算資源。在本文中,我們將討論遷移學(xué)習(xí)的概念,探索一些流行的預(yù)訓(xùn)練模型,并通過(guò)實(shí)際示例演示如何使用這些模型進(jìn)行文本分類。我們將使用擁抱面轉(zhuǎn)換器庫(kù)來(lái)實(shí)現(xiàn)。
2023-06-14 09:30:14
682 《在 AI 愛(ài)克斯開(kāi)發(fā)板上用 OpenVINO 加速 YOLOv8 目標(biāo)檢測(cè)模型》介紹了在 AI 愛(ài)克斯開(kāi)發(fā)板上使用 OpenVINO 開(kāi)發(fā)套件部署并測(cè)評(píng) YOLOv8 的目標(biāo)檢測(cè)模型,本文將介紹在 AI 愛(ài)克斯開(kāi)發(fā)板上使用 OpenVINO 加速 YOLOv8-seg 實(shí)例分割模型。
2023-06-30 10:43:54
2626 
內(nèi)容提要 1 輕松實(shí)現(xiàn)節(jié)點(diǎn)到節(jié)點(diǎn)的設(shè)計(jì)和 layout 遷移 2 將定制/模擬設(shè)計(jì)遷移速度提升 2 倍 3 Cadence Virtuoso Studio 針對(duì)所有 Samsung Foundry
2023-07-04 10:10:01
1516 OceanStor A310深度學(xué)習(xí)數(shù)據(jù)湖存儲(chǔ),面向基礎(chǔ)/行業(yè)大模型數(shù)據(jù)湖場(chǎng)景,實(shí)現(xiàn)從數(shù)據(jù)歸集、預(yù)處理到模型訓(xùn)練、推理應(yīng)用的AI全流程海量數(shù)據(jù)管理。
2023-07-21 14:51:46
919 NVIDIA TAO 工具套件 提供了一個(gè)低代碼 AI 框架,無(wú)論是新手還是數(shù)據(jù)科學(xué)專家都可以使用這個(gè)平臺(tái)加速視覺(jué) AI 模型開(kāi)發(fā)。有了 TAO 工具套件,開(kāi)發(fā)人員可以進(jìn)行遷移學(xué)習(xí),通過(guò)適應(yīng)和優(yōu)化
2023-07-31 20:45:01
3363 
非常重要。本文將詳細(xì)探討AI算法和模型的區(qū)別,并解釋它們在AI應(yīng)用中的作用。 AI算法 人工智能算法是一組定義和實(shí)現(xiàn)任務(wù)的計(jì)算機(jī)指令。例如,許多AI算法用于分類和預(yù)測(cè)。這些算法可以從數(shù)據(jù)中提取有用的信息,并根據(jù)其他變量預(yù)測(cè)結(jié)果。AI算法適用于處
2023-08-08 17:35:39
5775 引導(dǎo)(TOAST),這是一種新的遷移學(xué)習(xí)算法,它可以凍結(jié)預(yù)先訓(xùn)練的骨干模型,選擇與任務(wù)相關(guān)的特征輸出,并將這些特征反饋到模型中,以引導(dǎo)注意力關(guān)注特定任務(wù)的特征。僅通過(guò)重新聚焦注意力,TOAST在多個(gè)遷移
2023-08-11 16:56:17
7738 
適配。測(cè)試結(jié)果顯示,曦云C500在智譜AI的升級(jí)版大模型上充分兼容、高效穩(wěn)定運(yùn)行。 沐曦旗艦產(chǎn)品曦云C500基于自主研發(fā)的高性能GPU IP,特別適合千億參數(shù)AI大模型的訓(xùn)練和推理;基于全自研 GPU 指令集打造的MXMACA軟件棧,全面兼容主流GPU生態(tài),實(shí)現(xiàn)用戶零成本遷移;
2023-08-23 10:38:47
9275 電子發(fā)燒友網(wǎng)站提供《波束成形在AI引擎上的實(shí)現(xiàn).pdf》資料免費(fèi)下載
2023-09-13 14:37:30
0 ● AI 驅(qū)動(dòng)的 Cadence Virtuoso Studio 助力 IC 設(shè)計(jì)在 TSMC 的制程技術(shù)之間實(shí)現(xiàn)遷移時(shí)自動(dòng)優(yōu)化電路 ●? 新的生成式設(shè)計(jì)技術(shù)可將設(shè)計(jì)遷移時(shí)間縮短 3 倍
2023-09-27 10:10:04
1634 瑞薩基于RZ/V2L AI MPU開(kāi)發(fā)了大量可拿來(lái)即用的AI應(yīng)用程序,并提供源代碼、預(yù)編譯應(yīng)用程序二進(jìn)制文件和預(yù)訓(xùn)練的人工智能模型對(duì)象。您可以從各種用例中選擇感興趣的應(yīng)用程序,并立即在RZ/V2L評(píng)估板上運(yùn)行。
2023-12-15 13:49:39
1714 前面我們說(shuō)到RA8可以很好地支撐AI模型在MCU上的運(yùn)行。AI是一個(gè)很好的工具,可以解決各個(gè)應(yīng)用領(lǐng)域不同場(chǎng)景下的問(wèn)題。在新能源中,現(xiàn)在大家關(guān)注點(diǎn)比較高的就是基于AI的拉弧檢測(cè)。
2023-12-18 12:31:44
1793 
RHEL AI依托InstructLab開(kāi)源項(xiàng)目,結(jié)合IBM Research的開(kāi)源授權(quán)Granite大型語(yǔ)言模型與InstructLab模型對(duì)齊工具,采用LAB(Large-scale Alignment for chatBots)方法創(chuàng)建可引導(dǎo)的RHEL鏡像,從而簡(jiǎn)化服務(wù)器部署流程。
2024-05-08 15:01:52
1066 近日,是德科技、新思科技和Ansys攜手,共同推出了一個(gè)革命性的集成射頻(RF)設(shè)計(jì)遷移流程。這一流程旨在助力臺(tái)積電從N16制程無(wú)縫升級(jí)到N6RF+技術(shù),以滿足當(dāng)前無(wú)線集成電路在功耗、性能和面積(PPA)上的嚴(yán)苛挑戰(zhàn)。
2024-05-11 10:42:17
788 Transformer)在新加坡面向全球用戶重磅發(fā)布,并全面開(kāi)啟產(chǎn)業(yè)落地應(yīng)用。 TPT是由中控技術(shù)自主研發(fā)基于生成式的AI算法框架,及不同行業(yè)海量生產(chǎn)運(yùn)行、工藝、設(shè)備及質(zhì)量數(shù)據(jù)等融合訓(xùn)練而成。TPT大模型能夠大幅提升建模效率、統(tǒng)一工業(yè)應(yīng)用,具備跨工況、跨裝置適配能力,實(shí)現(xiàn)高精度、高可靠性的閉環(huán)應(yīng)用,
2024-06-07 14:23:41
1355 
在人工智能(AI)的廣闊領(lǐng)域中,模型作為算法與數(shù)據(jù)之間的橋梁,扮演著至關(guān)重要的角色。根據(jù)模型的大小和復(fù)雜度,我們可以將其大致分為AI大模型和小模型。這兩種模型在定義、優(yōu)缺點(diǎn)及應(yīng)用場(chǎng)景上存在著顯著的差異。本文將從多個(gè)維度深入探討AI大模型與小模型的特點(diǎn),并分析其各自的優(yōu)缺點(diǎn)及區(qū)別。
2024-07-10 10:39:44
11268 機(jī)遇。將AI模型集成到MCU中,不僅提升了設(shè)備的智能化水平,還使得設(shè)備能夠執(zhí)行更復(fù)雜的任務(wù),實(shí)現(xiàn)自主決策和實(shí)時(shí)響應(yīng)。本文將從AI模型在MCU中的應(yīng)用場(chǎng)景、技術(shù)挑戰(zhàn)、實(shí)現(xiàn)方法、優(yōu)化策略以及未來(lái)趨勢(shì)等方面進(jìn)行深入探討。
2024-07-12 10:24:18
2596 電子發(fā)燒友網(wǎng)站提供《在AM6xA MPU上為自動(dòng)零售掃描儀構(gòu)建邊緣AI應(yīng)用.pdf》資料免費(fèi)下載
2024-08-26 09:22:46
0 電子發(fā)燒友網(wǎng)站提供《在Sitara MPU上啟用Matter.pdf》資料免費(fèi)下載
2024-08-27 09:41:29
0 AI模型托管是指將訓(xùn)練好的AI模型部署在云端或邊緣服務(wù)器上,由第三方平臺(tái)提供模型運(yùn)行、管理和優(yōu)化等服務(wù)。以下,AI部落小編將對(duì)AI模型托管的原理進(jìn)行詳細(xì)分析。
2024-11-07 09:33:50
1258 使用 TFLite 運(yùn)行時(shí)的設(shè)備上實(shí)現(xiàn)高性能的 PyTorch 模型推理。
AI Edge Torch 生成式 API 使開(kāi)發(fā)者能夠在設(shè)備上引入強(qiáng)大的新功能,例如摘要生成、內(nèi)容生成等。我們之前已經(jīng)通過(guò)
2024-11-14 10:23:23
1897 
本文介紹了一次 MySQL 數(shù)據(jù)遷移的流程,通過(guò)方案選型、業(yè)務(wù)改造、雙寫遷移最終實(shí)現(xiàn)了億級(jí)數(shù)據(jù)的遷移。 一、背景 預(yù)約業(yè)務(wù)是 vivo 游戲中心的重要業(yè)務(wù)之一。由于歷史原因,預(yù)約業(yè)務(wù)數(shù)據(jù)表與其他業(yè)務(wù)
2024-11-25 09:20:16
1063 
AI開(kāi)發(fā)平臺(tái)極大地簡(jiǎn)化了AI應(yīng)用的開(kāi)發(fā)流程,從環(huán)境搭建、模型訓(xùn)練到部署集成,每一步都提供了豐富的工具和資源。那么,AI開(kāi)發(fā)平臺(tái)模型怎么用呢?下面,AI部落小編帶您了解。
2025-02-11 09:53:05
672 AI模型托管的核心在于將訓(xùn)練好的AI模型部署在云端或邊緣服務(wù)器上,由第三方平臺(tái)提供模型運(yùn)行、管理和優(yōu)化等服務(wù)。下面,AI部落小編帶您了解AI模型托管的原理。
2025-02-26 10:31:41
986 AI模型的訓(xùn)練與部署需要強(qiáng)大的算力支持、穩(wěn)定的網(wǎng)絡(luò)環(huán)境和專業(yè)的技術(shù)管理。RAKsmart作為全球領(lǐng)先的服務(wù)器托管與云計(jì)算服務(wù)提供商,已成為企業(yè)部署AI模型的理想選擇。那么,如何在RAKsmart服務(wù)器上實(shí)現(xiàn)企業(yè)AI模型的部署呢?
2025-03-27 09:46:28
829 AI算法開(kāi)發(fā)流程由需求分析到準(zhǔn)備數(shù)據(jù),然后到選取模型,訓(xùn)練模型,接著模型轉(zhuǎn)換后進(jìn)行模型部署
2025-04-18 10:47:29
962 
邊緣AI的實(shí)現(xiàn)原理是將人工智能算法和模型部署到靠近數(shù)據(jù)源的邊緣設(shè)備上,使這些設(shè)備能夠在本地進(jìn)行數(shù)據(jù)處理、分析和決策,而無(wú)需將數(shù)據(jù)傳輸?shù)竭h(yuǎn)程的云端服務(wù)器。邊緣AI的實(shí)現(xiàn)旨在將人工智能能力下沉到邊緣設(shè)備
2025-06-19 12:19:51
1183 
新思科技與是德科技宣布聯(lián)合推出人工智能(AI)驅(qū)動(dòng)的射頻設(shè)計(jì)遷移流程,旨在加速?gòu)呐_(tái)積公司N6RF+向N4P工藝的遷移,以滿足當(dāng)今要求嚴(yán)苛的無(wú)線集成電路應(yīng)用對(duì)性能的需求。全新的射頻設(shè)計(jì)遷移工作流程以臺(tái)
2025-06-27 17:36:15
1349 谷歌AlphaEarth和維智時(shí)空AI大模型在應(yīng)用場(chǎng)景和技術(shù)實(shí)現(xiàn)上各有側(cè)重,但兩者在底層技術(shù)理念上存在顯著共性。
2025-10-22 14:48:53
783
評(píng)論