91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文秒懂貝葉斯優(yōu)化/Bayesian Optimization

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:AI部落聯(lián)盟 ? 作者:AI部落聯(lián)盟 ? 2021-04-09 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天想談的問(wèn)題是:什么是貝葉斯優(yōu)化/Bayesian Optimization,基本用法是什么?

本文的定位是:幫助未接觸、僅聽(tīng)說(shuō)過(guò)、初次接觸貝葉斯優(yōu)化的小白們一文看懂什么是貝葉斯優(yōu)化和基本用法,大神/貝葉斯優(yōu)化專家們求輕噴,覺(jué)得不錯(cuò)的記得幫點(diǎn)贊/在看/轉(zhuǎn)發(fā)幫擴(kuò)散哦!謝謝。

梳理這個(gè)問(wèn)題有這么兩個(gè)原因:

1、在工業(yè)界,最近我看到不少同學(xué)在探索并使用貝葉斯優(yōu)化的方法尋找更好的超參,找到performance更好的模型,漲點(diǎn)漲分;

2、家里另一位在學(xué)習(xí)和研究“Safety”強(qiáng)化學(xué)習(xí)的時(shí)候,發(fā)現(xiàn)一個(gè)“牛牛“的代碼是基于貝葉斯優(yōu)化的,為了提高家庭地位不得不看一看啦哈哈哈。

于是之前僅僅只聽(tīng)說(shuō)過(guò)貝葉斯優(yōu)化的我,趕緊知乎治學(xué),面向Github編程,面向谷歌解決問(wèn)題,一通搜索學(xué)習(xí)了解入門之后基本有個(gè)框架和概念了,遂記錄在此,望茫?;ヂ?lián)網(wǎng)看到這個(gè)文章的小白們也可以快速入門貝葉斯優(yōu)化/Bayesian Optimization!

貝葉斯優(yōu)化應(yīng)用場(chǎng)景

如果你要 解決的問(wèn)題/面對(duì)的場(chǎng)景,假設(shè)輸入為x,輸出為f(x),有如下特點(diǎn),那不妨試一下貝葉斯優(yōu)化吧。

這個(gè)函數(shù)f(x)特點(diǎn)是計(jì)算量特別大,每次計(jì)算都特別耗時(shí)、耗資源;

甚至f(x)可能都沒(méi)有解析式表達(dá)式。

無(wú)法知道函數(shù)f(x)對(duì)于x的梯度應(yīng)該如何計(jì)算。

需要找到函數(shù)f(x)在x自變量上的全局最優(yōu)解(最低點(diǎn)對(duì)應(yīng)的取值)

舉例:

我們有一個(gè)參數(shù)量巨大的推薦系統(tǒng)模型(或者是某個(gè)NLP模型),每次訓(xùn)練很消耗資源和時(shí)間,但我們?nèi)匀黄诖业礁玫哪P统瑓?shù)讓這個(gè)推薦系統(tǒng)的效果更好,而人工參數(shù)搜索太費(fèi)神、Grid Search太消耗資源和時(shí)間,想找一個(gè)不那么費(fèi)神同時(shí)資源消耗和時(shí)間消耗也比Grid Search稍微小一點(diǎn)的辦法。

這個(gè)場(chǎng)景基本滿足以上特點(diǎn):一是計(jì)算量大、二是模型對(duì)于超參數(shù)(比如learning rate學(xué)習(xí)率,batch size)的梯度無(wú)從知曉;所以可以考慮用貝葉斯優(yōu)化來(lái)尋找最合適的一組超參。對(duì)此實(shí)際應(yīng)用感興趣的同學(xué)可以進(jìn)一步閱讀:Facebook efficient-tuning-of-online-systems-using-bayesian-optimization。

但這兒還是要給想用貝葉斯優(yōu)化尋找超參的同學(xué)稍微潑以下冷水:由于實(shí)際系統(tǒng)的復(fù)雜性、計(jì)算量超級(jí)巨大(或者說(shuō)資源的限制),可能連貝葉斯優(yōu)化所需要的超參組合都無(wú)法滿足,導(dǎo)致最后超參搜索的結(jié)果不如一開(kāi)始拍腦袋(根據(jù)經(jīng)驗(yàn)的調(diào)參)效果好哦。所以這是一個(gè)辦法,但最好不是唯一辦法哦。

一個(gè)關(guān)于Safe RL的例子:強(qiáng)化學(xué)習(xí)中的一個(gè)環(huán)境里有Agent A(比如一個(gè)小學(xué)生學(xué)如何騎自行車)在學(xué)習(xí)如何根據(jù)環(huán)境做出action,同時(shí)又有一個(gè)Agent B在幫助Agent A進(jìn)行學(xué)習(xí)(比如有個(gè)老師擔(dān)心寶貝學(xué)生摔倒,要教學(xué)生騎車)。Agent B需要從多種策略(每個(gè)策略還有一些參數(shù))里找到一個(gè)最優(yōu)的策略組合幫助Agent A進(jìn)行學(xué)習(xí)(比如學(xué)自行車的時(shí)候自行車旁邊放個(gè)2輪子、帶個(gè)頭盔,或者直接用手扶著,或者直接推著推著突然放手)。那么Agent B的如何選擇最優(yōu)輔助策略組合以及對(duì)應(yīng)策略的參數(shù)也可以使用貝葉斯優(yōu)化。感興趣的同學(xué)可以閱讀NeurIPS 2020的Spotlight presentation文章:Safe Reinforcement Learning via Curriculum Induction。

15eddb62-98d4-11eb-8b86-12bb97331649.png

圖1 Safe RL中例子

有了使用場(chǎng)景,我們就會(huì)問(wèn)什么是貝葉斯優(yōu)化啦。

什么是貝葉斯優(yōu)化

貝葉斯優(yōu)化定義的一種形象描述。

分享Medium上這個(gè)不錯(cuò)的例子。

比如我們有一個(gè)目標(biāo)函數(shù)c(x),代表輸入為x下的代價(jià)為c(x)。優(yōu)化器是無(wú)法知道這個(gè)c(x)的真實(shí)曲線如何的,只能通過(guò)部分(有限)的樣本x和對(duì)應(yīng)的c(x)值。假設(shè)這個(gè)c(x)如圖2所示。

pIYBAGBvy3eAUH4RAADgUmbVEAk173.png

圖2 優(yōu)化函數(shù)舉例

貝葉斯優(yōu)化器為了得到c(x)的全局最優(yōu)解,首先要采樣一些點(diǎn)x來(lái)觀察c(x)長(zhǎng)什么樣子,這個(gè)過(guò)程又可以叫surrogate optimization(替代優(yōu)化),由于無(wú)法窺見(jiàn)c(x)的全貌,只能通過(guò)采樣點(diǎn)來(lái)找到一個(gè)模擬c(x)的替代曲線,如圖3所示:

o4YBAGBvy5mAQCUjAAFkiifqMVk941.png

圖3 采樣的點(diǎn)與替代的曲線

得到這個(gè)模擬的/替代的曲線之后,我們就能找到兩個(gè)還算不錯(cuò)的最小值對(duì)應(yīng)的點(diǎn)了(圖3中標(biāo)注的是promising minima),于是根據(jù)當(dāng)前觀察到的這兩個(gè)最小點(diǎn),再采樣更多的點(diǎn),用更多的點(diǎn)模擬出一個(gè)更逼真的c(x)再找最小點(diǎn)的位置,如圖4所示。

pIYBAGBvy7SAXX9LAAF49m85y4k384.png

圖4 繼續(xù)采樣 空心的圈為第2次采樣的點(diǎn)

然后我們重復(fù)上面這個(gè)過(guò)程,每次重復(fù)的時(shí)候我們干以下幾件事情:先找到可擬合當(dāng)前點(diǎn)的一個(gè)替代函數(shù),然后根據(jù)替代函數(shù)的最小值所在的位置去采樣更多的 ,再更新替代函數(shù),如此往復(fù)。

函數(shù)替代的例子: 給定x的取之范圍,那么一個(gè)復(fù)雜的函數(shù)y = arcsin(( 1- cos(x) * cos(x)) / sinx) 則可以用y=x來(lái)替代。

如果我們的c(x)不是特別奇怪的話,一般來(lái)說(shuō)經(jīng)過(guò)幾次迭代之后,我們就能找到c(x)的最優(yōu)解啦。當(dāng)然如果c(x)特別奇怪,那可能是數(shù)據(jù)的問(wèn)題而不是。。。c(x)的問(wèn)題。再回頭來(lái)看上面這個(gè)過(guò)程,貝葉斯優(yōu)化的厲害的地方:a 幾乎沒(méi)有對(duì)函數(shù)c(x)做任何的假設(shè)限定,也不需要知道c(x)的梯度,也不需要知道c(x)到底是個(gè)什么解析表達(dá)式,就直接得出了c(x)的全局最優(yōu)。

以上例子中有兩個(gè)重要的點(diǎn):

1、用什么函數(shù)作為替代函數(shù)(選擇函數(shù)進(jìn)行curve-fiting的過(guò)程),對(duì)應(yīng)Gaussian Processes;

2、如何根據(jù)當(dāng)前信息和替代函數(shù)的局部最優(yōu)點(diǎn)繼續(xù)采樣x,對(duì)應(yīng)acquisition function。

為什么可以用Gaussian Processes對(duì)曲線進(jìn)行擬合呢?

176378e4-98d4-11eb-8b86-12bb97331649.png

圖5 總共4個(gè)黑色的點(diǎn),代表4個(gè)數(shù)據(jù)點(diǎn)。左邊是Gaussian process產(chǎn)生的多個(gè)函數(shù)曲線(紅、藍(lán)、黃等曲線);右邊的圖顯示的是左圖的那些函數(shù)都會(huì)經(jīng)過(guò)黑點(diǎn),以及函數(shù)值的波動(dòng)范圍(灰色部分)。

Gaussian Processes的一個(gè)非常大的優(yōu)點(diǎn):“先驗(yàn)知識(shí)”可以根據(jù)新觀測(cè)量更新,而Gaussian Processes又可以根據(jù)這個(gè)更新后的“先驗(yàn)知識(shí)”得到新的function的分布,從而更好的擬合數(shù)據(jù)點(diǎn)。也就是:如果我們觀測(cè)了3個(gè)函數(shù)值,那么有一種高斯分布和這三個(gè)觀測(cè)的數(shù)據(jù)點(diǎn)對(duì)應(yīng),而如果我們觀測(cè)了4個(gè)點(diǎn),又可以新計(jì)算一個(gè)對(duì)應(yīng)的高斯分布。

這里我們簡(jiǎn)單以圖6為例描述一下:Gaussian Process是如何根據(jù)擬合數(shù)據(jù),然后對(duì)新的數(shù)據(jù)做預(yù)測(cè)?

如圖6所示,假設(shè)現(xiàn)已觀測(cè)到3個(gè)點(diǎn)(左邊黑色的3個(gè)圈),假設(shè)這計(jì)算得到3個(gè)函數(shù)值分布是 ,Gaussian Process的理論告訴我們(具體理論先略了)給定一個(gè)新的 輸入 (左圖藍(lán)色 ),我們可以按照?qǐng)D6左下角的方式計(jì)算出與藍(lán)色 對(duì)應(yīng)的 的均值和方差,也就是輸出的范圍。

pIYBAGBvzAmASlz6AAIRHZhuPnM867.png

圖6 更新過(guò)程示意圖

acquisition function在決定如何選取新的采樣點(diǎn)是面臨兩個(gè)經(jīng)典問(wèn)題:exploitation和exploration,我稱之為深度和廣度。以圖5的例子來(lái)看,

exploitation意味著盡可能順著當(dāng)前已知的信息,比如順著黑色點(diǎn)的地方來(lái)采樣更多的點(diǎn),也就是深度。當(dāng)已知信息利用到一定程度,這種exploitation方向的采樣會(huì)很少有信息增益。

exploration顧名思義就是更趨向探索性質(zhì),比如順著圖5右邊的灰色區(qū)域較大的地方探索,也就是廣度,探索更多未知的地方。

假設(shè)我們把a(bǔ)cquisition functin簡(jiǎn)寫為aq(x),整個(gè)貝葉斯優(yōu)化可以概括為:

基于Gaussian Process,初始化替代函數(shù)的先驗(yàn)分布;

根據(jù)當(dāng)前替代函數(shù)的先驗(yàn)分布和aq(x),采樣若干個(gè)數(shù)據(jù)點(diǎn)。

根據(jù)采樣的x得到目標(biāo)函數(shù)c(x)的新值。

根據(jù)新的數(shù)據(jù),更新替代函數(shù)的先驗(yàn)分布。

并開(kāi)始重復(fù)迭代2-4步。

迭代之后,根據(jù)當(dāng)前的Gaussian Process找到全局最優(yōu)解。

也就是說(shuō)貝葉適優(yōu)化實(shí)際上是:由于目標(biāo)函數(shù)無(wú)法/不太好 優(yōu)化,那我們找一個(gè)替代函數(shù)來(lái)優(yōu)化,為了找到當(dāng)前目標(biāo)函數(shù)的合適替代函數(shù),賦予了替代函數(shù)概率分布,然后根據(jù)當(dāng)前已有的先驗(yàn)知識(shí),使用acquisition function來(lái)評(píng)估如何選擇新的采樣點(diǎn)(trade-off between exploration and exploitation),獲得新的采樣點(diǎn)之后更新先驗(yàn)知識(shí),然后繼續(xù)迭代找到最合適的替代函數(shù),最終求得全局最優(yōu)解。

貝葉斯優(yōu)化偏公式的定義,個(gè)人還是更喜歡公式定義的。

Bayesian Optimization(BO)是對(duì)black-box函數(shù)全局最優(yōu)求解的一種strategy。具體的 是一個(gè)定義在 上L-Lipschitz連續(xù)的函數(shù),我們想要找到 的全局最優(yōu)解:

這里我們假設(shè)函數(shù) 是一個(gè)black-box,對(duì)于這個(gè)black-box,我們只能觀測(cè)到有噪聲的函數(shù)值: 其中 ,也就是零均值高斯分布。于是整個(gè)優(yōu)化目標(biāo)可以變成:找到一系列的 使得 最?。?/p>

要讓 被快速優(yōu)化到最小,由于 對(duì)應(yīng)了函數(shù) 這個(gè)最小點(diǎn),所以越靠近 開(kāi)始采樣,那么采樣得到的一系列 越快結(jié)束 的優(yōu)化,也就結(jié)束了 全局最優(yōu)解的優(yōu)化。

這一序列 具體是如何得到的呢?假設(shè)我們?cè)诘?次iteration里采樣到了 ,我們將新觀測(cè)到的數(shù)據(jù)加入到已有的觀測(cè)數(shù)據(jù) 里,然后通過(guò)優(yōu)化一個(gè)叫actuisition function 的函數(shù)得到下一個(gè)時(shí)刻要采樣的 ,也就是 。

那么這個(gè) 要如何設(shè)計(jì)呢?歸根結(jié)底是如何根據(jù)已有的觀測(cè)量選擇 ,于是設(shè)計(jì)過(guò)程中就遇到了經(jīng)典的exploration和exploitation問(wèn)題,也就是是繼續(xù)沿著已有的信息深挖,還是擴(kuò)大信息的覆蓋廣度?

我們已有的觀測(cè)量是 ,假設(shè)這些觀測(cè)量服從高斯分布 ,其中 分別是均值和方差,也對(duì)應(yīng)著exploitation和exploration(方差通常也指不確定性)。那我們就根據(jù)expatiation和exploration來(lái)設(shè)計(jì) 吧,這里只介紹一鐘叫Gaussian Process-Upper Confidence Bound (GP-UCB)的設(shè)計(jì):

很容易看出, a 其實(shí)就是均值和方差加權(quán)和,也就起到了調(diào)和exploitation和exploration的作用啦。至于其他幾種acquisition function,Expected Improvement (EI),(Predictive) Entropy Search,Thompson Sampling(TS)等本文就不再一一描述啦。

有了 就能確定新的采樣點(diǎn)了,Gaussian Process也就能跟著更新了,最終替代函數(shù)的擬合也就越來(lái)越貼近真實(shí)函數(shù)了,最終找到全局最優(yōu)點(diǎn)。

結(jié)合上面的形象描述和公式定義描述,總結(jié)以下貝葉斯優(yōu)化的兩個(gè)重點(diǎn):

1. 定義一種關(guān)于要優(yōu)化的函數(shù)/替代函數(shù)的概率分布,這種分布可以根據(jù)新獲得的數(shù)據(jù)進(jìn)行不斷更新。我們常用的是Gaussian Process。

2. 定義一種acquisition function。這個(gè)函數(shù)幫助我們根據(jù)當(dāng)前信息決定如何進(jìn)行新的采樣才能獲得最大的信息增益,并最終找到全局最優(yōu)。

貝葉斯優(yōu)化的應(yīng)用

紙上得來(lái)終覺(jué)淺,絕知此事要躬行。

我們就用python來(lái)跑幾個(gè)例子看看吧。以下例子需要安裝Gpy和GpyOpt這兩個(gè)python庫(kù)。

假設(shè)我們的目標(biāo)函數(shù)是:

這個(gè)函數(shù)定義在[-1,1]之間,通常也叫domain。這個(gè)函數(shù)的在定義區(qū)間的最優(yōu)點(diǎn)是:x 。于是代碼為:

import GPyOptdef myf(x): return x ** 2bounds = [{‘name’: ‘var_1’, ‘type’: ‘continuous’, ‘domain’: (-1,1)}]# 變量名字,連續(xù)變量,定義區(qū)間是-1到1max_iter = 15# 最大迭代次數(shù)myProblem = GPyOpt.methods.BayesianOptimization(myf,bounds)#用貝葉適優(yōu)化來(lái)求解這個(gè)函數(shù),函數(shù)的約束條件是boundsmyProblem.run_optimization(max_iter)#開(kāi)始求解print(myProblem.x_opt)#打印最優(yōu)解對(duì)應(yīng)的x為-0.00103print(myProblem.fx_opt)#打印最優(yōu)解對(duì)應(yīng)d的函數(shù)值為0.0004

總結(jié)

本文主要有以下內(nèi)容:

寫貝葉適優(yōu)化的出發(fā)點(diǎn)。

貝葉適優(yōu)化的適用場(chǎng)景。

貝葉適優(yōu)化是什么?(包括一個(gè)形象和一個(gè)公式化的解釋)。

貝葉適優(yōu)化的應(yīng)用例子。

那么問(wèn)一問(wèn)自己,看懂了嗎?

參考文獻(xiàn):

https://zhuanlan.zhihu.com/p/76269142

https://radiant-brushlands-42789.herokuapp.com/towardsdatascience.com/the-beauty-of-bayesian-optimization-explained-in-simple-terms-81f3ee13b10f

https://www.youtube.com/watch?v=4vGiHC35j9s

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 工業(yè)
    +關(guān)注

    關(guān)注

    3

    文章

    2363

    瀏覽量

    49199
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4417

    瀏覽量

    67521
  • 貝葉斯
    +關(guān)注

    關(guān)注

    0

    文章

    77

    瀏覽量

    12919

原文標(biāo)題:【機(jī)器學(xué)習(xí)】一文看懂貝葉斯優(yōu)化/Bayesian Optimization

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    請(qǐng)問(wèn)Keil的優(yōu)化等級(jí)到底該如何選擇?

    做任何優(yōu)化。代碼的執(zhí)行順序與源代碼完全致,變量始終存儲(chǔ)在內(nèi)存中(不進(jìn)行寄存器優(yōu)化),函數(shù)調(diào)用棧幀清晰。 -O1 (有限優(yōu)化 / Optimiza
    發(fā)表于 11-20 07:51

    XTX SD NAND

    )內(nèi)部核心存儲(chǔ)的首選方案。本文將帶您全面了解SD NAND的基礎(chǔ)知識(shí)、關(guān)鍵性能指標(biāo)及典型應(yīng)用,助力您在產(chǎn)品設(shè)計(jì)和選型時(shí)游刃有余。 、什么是SD NAND? 定義:專為SD卡(包括SD、SDHC、SDXC等規(guī)格)內(nèi)部存儲(chǔ)設(shè)計(jì)的NAND型閃存芯片,集存儲(chǔ)單元、控制器、固件于
    的頭像 發(fā)表于 10-30 08:38 ?811次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>秒</b><b class='flag-5'>懂</b>XTX SD NAND

    各位大佬給指點(diǎn)下,感激不盡,前級(jí)DI效果器上的插件元件

    我是新人 各位見(jiàn)笑了 各位大佬給看看這是什么原件這個(gè)個(gè)前級(jí)DI效果器上的個(gè)插試原件兩排插針上面也沒(méi)有絲印型號(hào)不知道如何測(cè)量與購(gòu)買請(qǐng)各位指點(diǎn)
    發(fā)表于 09-04 20:14

    詳解高速模數(shù)轉(zhuǎn)換器的奈奎特規(guī)則

    本期,為大家?guī)?lái)的是《在高速轉(zhuǎn)換器的奈奎特孔附近進(jìn)行采樣》,將介紹適用于超級(jí)奈奎特采樣的高速模數(shù)轉(zhuǎn)換器 (ADC) 奈奎特規(guī)則,如何使用抽取來(lái)協(xié)助頻率規(guī)劃,以及如何在設(shè)計(jì)和開(kāi)發(fā)階段設(shè)置保護(hù)頻帶,防止落入“頻率空洞”。
    的頭像 發(fā)表于 08-04 09:54 ?2264次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>詳解高速模數(shù)轉(zhuǎn)換器的奈奎<b class='flag-5'>斯</b>特規(guī)則

    有哪些芯片工程師才的梗?

    今天聊點(diǎn)有意思的,就是芯片行業(yè)那些梗。下面這些“?!保挥性贔ab、EDA、IP、SoC、驗(yàn)證、后端、封測(cè)等各個(gè)細(xì)分崗位上摸爬滾打過(guò)的人,才能,外行聽(tīng)了恐怕只會(huì)臉黑人問(wèn)號(hào)。1.DFT不是離散
    的頭像 發(fā)表于 07-25 10:03 ?831次閱讀
    有哪些芯片工程師才<b class='flag-5'>懂</b>的梗?

    AI+能源數(shù)字化破局者故事5:謝 x IBM 咨詢之 “全球化經(jīng)營(yíng)與本地化適配”

    謝與 IBM 的合作建立在技術(shù)專長(zhǎng)、交付能力及本地化支持的基礎(chǔ)上,IBM 的強(qiáng)大技術(shù)實(shí)力和本地經(jīng)驗(yàn),使其成為謝推動(dòng)數(shù)字化轉(zhuǎn)型的重要合作伙伴
    的頭像 發(fā)表于 07-17 19:02 ?1402次閱讀

    SPEA行走進(jìn)西郊利物浦太倉(cāng)芯片學(xué)院開(kāi)展產(chǎn)學(xué)研交流

    近日,SPEA首席企業(yè)發(fā)展官FabrizioRimondotto攜亞(蘇州)總經(jīng)理孫媛麗、副總經(jīng)理?xiàng)?b class='flag-5'>葉行,拜訪了西郊利物浦大學(xué)(以下簡(jiǎn)稱“西浦”)太倉(cāng)校區(qū),與芯片學(xué)院陳院長(zhǎng)及助
    的頭像 發(fā)表于 06-27 17:27 ?1009次閱讀
    SPEA<b class='flag-5'>一</b>行走進(jìn)西郊利物浦太倉(cāng)芯片學(xué)院開(kāi)展產(chǎn)學(xué)研交流

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選ICML 2025

    會(huì)議。會(huì)議涵蓋了機(jī)器學(xué)習(xí)的各個(gè)前沿方向,包括但不限于深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、方法及優(yōu)化算法等。
    的頭像 發(fā)表于 06-16 09:23 ?1486次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選ICML 2025

    讓醫(yī)療設(shè)備「人心」:CCLink IE轉(zhuǎn)DeviceNet觸控方案全攻略

    ,讓醫(yī)護(hù)人員專注于救治而非與設(shè)備\"較勁\"。這解決方案,讓醫(yī)療設(shè)備真正做到\"人心\"!
    發(fā)表于 06-10 14:48

    VirtualLab:光柵的優(yōu)化與分析

    的算法: TEA和FMM(也稱為RCWA)。比較了不同周期的兩種類型的光柵(正弦和閃耀)結(jié)果。 傾斜光柵的參數(shù)優(yōu)化及公差分析 以傅里模態(tài)法(FMM)作為參數(shù)優(yōu)化的核心,設(shè)計(jì)了個(gè)傾
    發(fā)表于 05-23 08:49

    VirtualLab 應(yīng)用:傾斜光柵的參數(shù)優(yōu)化及公差分析

    摘要 對(duì)于背光系統(tǒng)、光內(nèi)連器和近眼顯示器等許多應(yīng)用來(lái)說(shuō),將光高效地耦合到引導(dǎo)結(jié)構(gòu)中是個(gè)重要的問(wèn)題。對(duì)于這種應(yīng)用,傾斜光柵以能夠高效地耦合單色光而聞名。在本例中,提出了利用嚴(yán)格傅里模態(tài)方法(FMM
    發(fā)表于 05-22 08:52

    DC-DC轉(zhuǎn)化器的工作原理,!

    DC - DC 轉(zhuǎn)換器(直流 - 直流轉(zhuǎn)換器)屬于電力電子裝置,能把輸入的直流電壓高效轉(zhuǎn)變?yōu)椴煌娖降闹绷鬏敵鲭妷海云鹾想娮釉O(shè)備對(duì)電源多樣化的需求
    的頭像 發(fā)表于 04-18 10:26 ?3018次閱讀
    DC-DC轉(zhuǎn)化器的工作原理,<b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>秒</b><b class='flag-5'>懂</b>!

    高速 PCB 設(shè)計(jì)如何保證信號(hào)完整性?看這,7個(gè)技巧總結(jié),

    、速度電信號(hào)也有速度限制-光速,光速非?????紤]到1GHz 信號(hào)的周期為 1ns(1 納),光的傳播速度約為 0.3 m/ns,即 30 cm/ns,意味著在 30 cm 長(zhǎng)的導(dǎo)體上,當(dāng)下個(gè)時(shí)鐘脈沖
    發(fā)表于 03-28 13:39

    新能源:以科技創(chuàng)新為驅(qū)動(dòng)力 助推鋰電池行業(yè)高質(zhì)量發(fā)展

    新能源位于惠州市仲愷高新技術(shù)開(kāi)發(fā)區(qū),廣東新能源科技股份有限公司(以下簡(jiǎn)稱“新能源”)
    的頭像 發(fā)表于 03-17 11:21 ?1411次閱讀

    VirtualLab Fusion應(yīng)用:非近軸衍射分束器的設(shè)計(jì)與優(yōu)化

    )的結(jié)構(gòu)設(shè)計(jì)生成系列分束器的初始設(shè)計(jì),然后通過(guò)傅里模態(tài)法或嚴(yán)格耦合波分析(FMM/RCWA)進(jìn)優(yōu)化。為了給最后個(gè)
    發(fā)表于 03-10 08:56