91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于多視圖協(xié)作學(xué)習(xí)的人崗匹配研究論文提要

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2020-11-05 09:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,第29屆國際計(jì)算機(jī)學(xué)會(huì)信息與知識(shí)管理大會(huì)(CIKM 2020)在線上召開,CIKM是CCF推薦的B類國際學(xué)術(shù)會(huì)議,是信息檢索和數(shù)據(jù)挖掘領(lǐng)域頂級(jí)學(xué)術(shù)會(huì)議之一。

本屆CIKM會(huì)議共收到920篇論文投稿,其中錄用論文193篇,錄取率約為21%。 而在眾多論文當(dāng)中,一篇BOSS直聘和中國人民大學(xué)聯(lián)合發(fā)表的基于多視圖協(xié)作學(xué)習(xí)的人崗匹配研究吸引了我們的注意力。

論文題目:《Learning to Match Jobs with Resumes from Sparse Interaction Data using Multi-View Co-Teaching Network》。 論文鏈接:https://arxiv.org/abs/2009.13299 本論文針對(duì)求職者和招聘方的交互行為數(shù)據(jù)稀疏且?guī)в性肼曔@一場(chǎng)景,基于多視圖協(xié)作學(xué)習(xí),提出了一個(gè)新型匹配模型。 新型模型相比以往模型,增加了基于關(guān)系的匹配模塊,且將兩個(gè)匹配模塊融合進(jìn)行協(xié)作訓(xùn)練,優(yōu)化了該場(chǎng)景下的人崗匹配效率。 CIKM大會(huì)評(píng)審反饋,該論文提出的多視圖協(xié)作學(xué)習(xí)網(wǎng)絡(luò)能夠解決人崗匹配系統(tǒng)的負(fù)樣本噪聲問題。同時(shí),融合文本匹配模塊和關(guān)系匹配模塊進(jìn)行的聯(lián)合表示學(xué)習(xí)有助于解決雙邊交互行為數(shù)據(jù)稀疏問題,突破了以往匹配模型需要大量有效樣本數(shù)據(jù)的限定條件。而該思路對(duì)于互聯(lián)網(wǎng)求職招聘場(chǎng)景以外領(lǐng)域的推薦系統(tǒng)研究也有一定指導(dǎo)意義。

1

背景介紹

近年來,隨著以BOSS直聘為代表的移動(dòng)互聯(lián)網(wǎng)求職招聘平臺(tái)的興起,人崗匹配任務(wù)越來越受到學(xué)術(shù)界的關(guān)注。 針對(duì)該問題,常見的方法是將其轉(zhuǎn)化為一個(gè)有監(jiān)督的文本匹配任務(wù)來解決,當(dāng)標(biāo)記樣本足夠充分時(shí),此類方法往往能取得較好的效果。 然而,在真實(shí)的互聯(lián)網(wǎng)求職招聘平臺(tái)上,求職者和招聘方的交互行為數(shù)據(jù)往往是稀疏且?guī)в性肼暤模@嚴(yán)重影響著匹配算法的性能。 因此,本文提出了一種基于稀疏交互數(shù)據(jù)的多視圖協(xié)作學(xué)習(xí)模型,并將其應(yīng)用于人崗匹配任務(wù),取得了較好的效果。 該方法的思路如下: 我們?cè)O(shè)計(jì)了一種全新的匹配模型,包含基于文本的匹配模塊和基于關(guān)系的匹配模塊兩部分,這兩部分能捕獲不同視角下的語義信息,并相互補(bǔ)充。 此外,為了解決交互行為數(shù)據(jù)稀疏的問題,我們?cè)O(shè)計(jì)了兩種特定訓(xùn)練策略來更好地融合這兩個(gè)匹配模塊: 一方面,兩個(gè)模塊共享學(xué)習(xí)參數(shù)和表示,可以增強(qiáng)每個(gè)模塊初始的表示; 另一方面,我們采用了一種協(xié)作學(xué)習(xí)的機(jī)制來減少噪聲數(shù)據(jù)對(duì)訓(xùn)練的影響。核心思想是讓這兩個(gè)模塊通過選擇更置信的訓(xùn)練實(shí)例來互相指導(dǎo)訓(xùn)練。 這兩種策略可以更好地用于表示的增強(qiáng)和數(shù)據(jù)的增強(qiáng)。 與單純基于文本的匹配模型相比,我們所提出的方法能夠從有限甚至稀疏的交互數(shù)據(jù)中更好地學(xué)習(xí)數(shù)據(jù)的表示,在帶有噪聲的訓(xùn)練數(shù)據(jù)上該方法也更具魯棒性。

2

問題定義

對(duì)于人崗匹配任務(wù),給定職位文本數(shù)據(jù)集合

和簡歷文本數(shù)據(jù)集合

,以及匹配結(jié)果集合

。 其中,每一個(gè)職位j或簡歷r均由多句描述職位或簡歷的文本構(gòu)成,代表簡歷和職位是否匹配。根據(jù)上述定義,我們的任務(wù)是學(xué)習(xí)一個(gè)預(yù)測(cè)函數(shù)

來預(yù)測(cè)未知的職位簡歷對(duì)的匹配結(jié)果。

3

方法描述

多視圖協(xié)作學(xué)習(xí)的人崗匹配模型圖 為了解決在線求職招聘場(chǎng)景下由于交互數(shù)據(jù)稀疏和采樣負(fù)例而帶來的噪聲問題,我們提出了一種基于多視圖協(xié)作學(xué)習(xí)的人崗匹配模型。

基于文本的匹配模塊近年來,基于預(yù)訓(xùn)練語言模型的方法在各種自然語言處理任務(wù)上均取得了不錯(cuò)的效果。 鑒于此,這里采用BERT編碼簡歷和職位的每一個(gè)句子表示,然后使用Transformer編碼表示整篇文檔表示。

j和r分別代表職位和簡歷文檔,和分別代表第層的輸入簡歷和職位的向量。

最后將職位表示和簡歷表示拼接后再接一個(gè)Sigmoid層輸出得到的作為候選簡歷和職位的匹配分。

基于關(guān)系的匹配模塊前文所述的匹配模塊主要關(guān)注文本語義上的匹配,但由于顯式交互數(shù)據(jù)是相對(duì)稀疏的,因此挖掘潛在的隱式關(guān)聯(lián)將有助于抽取出更多額外信息作為補(bǔ)充。 為此我們?cè)O(shè)計(jì)了基于關(guān)系的匹配模塊,該模塊包含構(gòu)造職位-簡歷關(guān)系圖和學(xué)習(xí)職位簡歷的表示兩部分。構(gòu)造職位-簡歷關(guān)系圖首先定義職位-簡歷關(guān)系圖

。其中,

代表職位和簡歷兩類節(jié)點(diǎn),

代表關(guān)系集合。 由于有職位和簡歷兩類節(jié)點(diǎn),所以共包含三種連接類型,即職位-職位,職位-簡歷和簡歷-簡歷。同時(shí),采用如下兩種數(shù)據(jù)信號(hào)來刻畫節(jié)點(diǎn)間的連接關(guān)系:第一類是相同領(lǐng)域標(biāo)簽的職位或者簡歷之間構(gòu)建連接關(guān)系;第二類是根據(jù)職位描述或簡歷文本中抽取出的關(guān)鍵詞,職位或者簡歷之間出現(xiàn)了同樣的關(guān)鍵詞構(gòu)建連接關(guān)系。職位簡歷的表示學(xué)習(xí)基于職位-簡歷關(guān)系圖,可以進(jìn)一步捕捉圖上潛在的語義信息來學(xué)習(xí)節(jié)點(diǎn)上的特征表示(即職位和簡歷)。 圖神經(jīng)網(wǎng)絡(luò)近年來已經(jīng)成為學(xué)習(xí)圖節(jié)點(diǎn)特征表示的最流行的方法,由于在職位-簡歷關(guān)系圖中存在大量不同類別的關(guān)系連接,為了更好刻畫在這類帶有豐富關(guān)系的圖結(jié)構(gòu),這里采用關(guān)系圖卷積網(wǎng)絡(luò)(Relational Graph Convolutional Network)來刻畫不同關(guān)系和節(jié)點(diǎn)的表示。 第l層的節(jié)點(diǎn)學(xué)習(xí)到的表示的公式如下:

代表了第l層節(jié)點(diǎn)的表示,?代表節(jié)點(diǎn)的鄰接節(jié)點(diǎn)集合。由于每一種關(guān)系t對(duì)應(yīng)一個(gè)特定的參數(shù)矩陣,所以能夠基于關(guān)系的語義信息學(xué)習(xí)到節(jié)點(diǎn)的表示。 通過在圖上學(xué)習(xí)的節(jié)點(diǎn)表示,最終得到簡歷和職位的表示,與之前的方法類似,通過拼接簡歷表示和職位表示計(jì)算最終匹配分。

多視圖的協(xié)作學(xué)習(xí)網(wǎng)絡(luò)接下來將介紹所設(shè)計(jì)的多視圖協(xié)作學(xué)習(xí)網(wǎng)絡(luò),以及如何將基于文本和基于關(guān)系的匹配模塊集成到統(tǒng)一的訓(xùn)練方法中。 首先,網(wǎng)絡(luò)會(huì)共享學(xué)習(xí)到的信息和參數(shù),以增強(qiáng)每個(gè)模塊的原始表示;其次,針對(duì)如何減少訓(xùn)練數(shù)據(jù)對(duì)噪聲的影響,我們借鑒了機(jī)器學(xué)習(xí)中協(xié)同學(xué)習(xí)的思想,通過選擇更可靠的訓(xùn)練實(shí)例來讓這兩個(gè)組件相互幫助。接下來,介紹這兩種策略的細(xì)節(jié)。表示增強(qiáng)由于在匹配過程中包含文本表示和關(guān)系表示兩類表示方法,為了在初始表示學(xué)習(xí)的過程中互相增強(qiáng),在初始學(xué)習(xí)文本模塊的表示時(shí)會(huì)拼接關(guān)系圖上節(jié)點(diǎn)的表示。

類似地,為了增強(qiáng)圖關(guān)系上節(jié)點(diǎn)的表示,會(huì)采用文本模塊學(xué)習(xí)到的表示作為關(guān)系圖訓(xùn)練時(shí)的初始表示。

利用協(xié)作學(xué)習(xí)的數(shù)據(jù)增強(qiáng)這里的基本假設(shè)是,真實(shí)樣本通常在不同的模型視角下會(huì)得到相似的預(yù)測(cè)結(jié)果,而噪聲數(shù)據(jù)則會(huì)在不同視角下表現(xiàn)得不穩(wěn)定。 在協(xié)作學(xué)習(xí)網(wǎng)絡(luò)中,文本匹配模塊和關(guān)系匹配模塊可以視為兩個(gè)對(duì)等的learner。用于訓(xùn)練一個(gè)learner的樣本首先由另一個(gè)learner進(jìn)行檢查,并且僅將標(biāo)記為高置信度的實(shí)例保留在訓(xùn)練過程中。 由于這兩個(gè)learner從不同視角對(duì)數(shù)據(jù)建模,學(xué)習(xí)的策略有所不同,因此他們可以互相幫助選擇高置信度的訓(xùn)練樣本,從而提升模型效果。 具體訓(xùn)練方法如下圖所示:

提出的co-teaching的算法流程圖 這里具體提出了兩種實(shí)現(xiàn)策略。(1)實(shí)例的重加權(quán)給定一個(gè)模型,其對(duì)等模型目的是在不同視角下,增加高置信度樣本的權(quán)重并降低不可靠樣本的權(quán)重。例如,對(duì)于模型B,假設(shè)在訓(xùn)練過程中的一個(gè)batch中有K個(gè)實(shí)例。

讓其對(duì)等模型A為這個(gè)K個(gè)實(shí)例分配權(quán)重。其核心想法是根據(jù)樣本真實(shí)標(biāo)簽信息與A的預(yù)測(cè)之間的一致程度對(duì)實(shí)例賦予權(quán)重:

這里的權(quán)重越高代表了該實(shí)例越可信。同時(shí)將這些權(quán)重結(jié)果傳遞給模型B并讓其進(jìn)行模型參數(shù)的更新。(2)實(shí)例的篩選過濾除了對(duì)不同樣本重新加權(quán)外,還可以直接篩除相對(duì)較差的實(shí)例。直觀地,如果實(shí)例對(duì)應(yīng)的損失較小,則它離決策邊界很遠(yuǎn),更有可能是可靠的樣本??梢酝ㄟ^以下公式建模:

實(shí)例重加權(quán)和篩選過濾方法都旨在為模型學(xué)習(xí)選擇更可靠的樣本。他們用不同的方法達(dá)到這個(gè)目的。 實(shí)例重新加權(quán)是一種相對(duì)“軟”的方法,其所有實(shí)例均保留,只不過不同實(shí)例具有不同的重要程度。而實(shí)例篩選過濾是一種相對(duì)“硬”的方法,會(huì)直接丟棄一些樣本。還有一種思路是通過在對(duì)樣本重新加權(quán)之前對(duì)樣本進(jìn)行過濾來將這兩種方法結(jié)合起來。

4

實(shí)驗(yàn)結(jié)果

數(shù)據(jù)集介紹本文基于在線招聘平臺(tái)BOSS直聘的數(shù)據(jù)集進(jìn)行相關(guān)實(shí)驗(yàn)。該數(shù)據(jù)集包括三個(gè)領(lǐng)域類別,便于測(cè)試我們的模型在不同領(lǐng)域下的穩(wěn)定性。 表1總結(jié)了處理后的數(shù)據(jù)統(tǒng)計(jì)信息,可以看到:(1)所有數(shù)據(jù)集都很稀疏,無論是達(dá)成匹配或拒絕;(2)不同領(lǐng)域下的數(shù)據(jù)稀疏程度有所不同。例如,技術(shù)類規(guī)模較大但較稀疏,而銷售相對(duì)稠密;(3)對(duì)于每個(gè)領(lǐng)域類別,發(fā)生顯示拒絕(即不匹配)的數(shù)量要比達(dá)成匹配的數(shù)量少得多。

表1:數(shù)據(jù)集的統(tǒng)計(jì)信息

實(shí)驗(yàn)結(jié)果對(duì)比方法1、DSSM [1]提出的深度結(jié)構(gòu)語義匹配模型。 2、BPJFNN [2]提出的基于循環(huán)神經(jīng)網(wǎng)絡(luò)的匹配模型。 3、PJFNN [3]提出的基于卷積神經(jīng)網(wǎng)絡(luò)的匹配模型。 4、APJFNN [2]提出的基于層級(jí)注意力機(jī)制的匹配模型。 5、DGMN [4]提出的基于全局句子粒度交互的匹配模型。 6、JRMPM [5]提出的引入歷史交互作為記憶模塊的匹配模型。 7、UBD [6]用來解決噪聲數(shù)據(jù)帶來的影響,采用分歧的思想對(duì)分類器雙方產(chǎn)生不同結(jié)果的數(shù)據(jù)進(jìn)行參數(shù)更新。 8、NFM [7]使用神經(jīng)因子分解機(jī)來學(xué)習(xí)高階交互,使用文本和ID特征作為輸入。

表2:主實(shí)驗(yàn)的結(jié)果 根據(jù)表2中的實(shí)驗(yàn)結(jié)果,結(jié)論如下:1、首先,NFM很難在我們的任務(wù)上取得良好的效果。原因是該任務(wù)比傳統(tǒng)推薦場(chǎng)景數(shù)據(jù)更加稀疏;同時(shí),DSSM在大多數(shù)情況下表現(xiàn)不佳,因?yàn)樗鼰o法捕獲文本信息中的時(shí)序信息;BPJFNN、PJFNN、APJFNN、JRMPM和DGMN之間的性能差異很小,并且針對(duì)不同指標(biāo)或不同領(lǐng)域會(huì)有微小差別;此外,UBD是唯一訓(xùn)練時(shí)解決噪聲問題的baseline,與其他baseline方法相比,該方法的效果有顯著提升,這也側(cè)面證實(shí)了該任務(wù)下處理噪聲數(shù)據(jù)的必要性。2、我們提出的模型在不同數(shù)據(jù)集的所有指標(biāo)上均獲得了最佳性能。與其他方法相比,模型中的協(xié)作學(xué)習(xí)機(jī)制能夠識(shí)別更多信息量豐富且更可靠的樣本來學(xué)習(xí)參數(shù),也更容易削弱噪聲數(shù)據(jù)帶來的影響,因此優(yōu)于其他baseline方法。3、對(duì)比篩選過濾和重加權(quán)這兩種策略,我們發(fā)現(xiàn)后者在大多數(shù)情況下更優(yōu)異。可能因?yàn)橹匦录訖?quán)策略采用了“軟”降噪的方法,該方法在處理噪聲數(shù)據(jù)時(shí)會(huì)更魯棒。 除了上述主實(shí)驗(yàn)結(jié)果分析外,我們也同時(shí)分析了不同模塊組件對(duì)最終效果的影響。 如表3所示,這里T代表文本匹配模塊、R代表關(guān)系匹配模塊、C代表協(xié)作學(xué)習(xí)網(wǎng)絡(luò)。 結(jié)果表明,所有這三個(gè)組件對(duì)提高人崗匹配的性能都有正向作用。尤其是文本匹配模塊和協(xié)作學(xué)習(xí)網(wǎng)絡(luò)給模型帶來的提升較大。 此外,一個(gè)有趣的觀察是,簡單地融合多視圖的數(shù)據(jù)可能不會(huì)導(dǎo)致良好的性能(即TR

表3:消融實(shí)驗(yàn)結(jié)果

5

總結(jié)

本文提出了一種基于多視圖協(xié)同教學(xué)網(wǎng)絡(luò),該網(wǎng)絡(luò)能夠在交互行為數(shù)據(jù)稀疏且?guī)в性肼曔@一場(chǎng)景下進(jìn)行學(xué)習(xí),以進(jìn)行人崗匹配。我們考慮融合文本匹配模塊和關(guān)系匹配模塊進(jìn)行的聯(lián)合表示學(xué)習(xí),該方法能夠結(jié)合各自模塊的優(yōu)勢(shì)來更好的學(xué)習(xí)匹配表示。同時(shí)我們?cè)O(shè)計(jì)了兩種特定訓(xùn)練策略來更好地融合這兩個(gè)匹配模塊,即表示增強(qiáng)和數(shù)據(jù)增強(qiáng)。一方面,兩個(gè)模塊共享學(xué)習(xí)參數(shù)和表示,可以增強(qiáng)每個(gè)模塊初始的表示; 另一方面,我們采用了一種協(xié)作學(xué)習(xí)的機(jī)制來減少噪聲數(shù)據(jù)對(duì)訓(xùn)練的影響。大量實(shí)驗(yàn)表明,與以往的方法對(duì)比,該方法能夠從數(shù)據(jù)稀疏且?guī)в性肼暤慕换?shù)據(jù)中獲得更好的匹配效果。在本文中,我們聚焦于宏觀的交互行為,例如接受或拒絕面試邀請(qǐng)這樣的行為。然而一些微觀交互也會(huì)對(duì)匹配產(chǎn)生一定的影響,例如單擊或停留時(shí)間。未來我還將考慮將此類信息融入進(jìn)來以設(shè)計(jì)一個(gè)更加全面的匹配模型。此外,我們還將考慮將我們的方法應(yīng)用于更多的領(lǐng)域類別,研究不同類別之間的領(lǐng)域自適應(yīng)問題。

參考文獻(xiàn)

[1]Po-Sen Huang, Xiaodong He, Jianfeng Gao, Li Deng, Alex Acero, and Larry Heck. 2013. Learning deep structured semantic models for web search using clickthrough data. In Proceedings of the 22nd ACM international conference on Conference on information and knowledge management, pages 2333–2338. ACM.

[2]Chuan Qin, Hengshu Zhu, Tong Xu, Chen Zhu, Liang Jiang, Enhong Chen, and Hui Xiong. 2018. Enhancing person-job fit for talent recruitment: An ability-aware neural network approach. In In Proceedings of the 41st International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR-2018) , Ann Arbor, Michigan, USA. [3]Chen Zhu, Hengshu Zhu, Hui Xiong, Chao Ma, Fang Xie, Pengliang Ding, and Pan Li. 2018. Person-job fit: Adapting the right talent for the right job with joint representation learning. ACM Transactions on Management Information Systems ACM TMIS. [4]Shuqing Bian, Wayne Xin Zhao, Yang Song, Tao Zhang, and Ji-Rong Wen. 2019. Domain Adaptation for Person-Job Fit with Transferable Deep Global Match Network. In EMNLP-IJCNLP 2019. 4809–4819. [5]Rui Yan, Ran Le, Yang Song, Tao Zhang, Xiangliang Zhang, and Dongyan Zhao. 2019. Interview Choice Reveals Your Preference on the Market: To Improve Job-Resume Matching through Profiling Memories. In KDD 2019. 914–922. [6]Eran Malach and Shai Shalev-Shwartz. 2017. Decoupling "when to update" from "how to update". In NeurIPS 2017. 960–970. [7]XiangnanHe and Tat-SengChua. 2017.Neural Factorization Machines for Sparse Predictive Analytics. In SIGIR 2017. 355–364.

責(zé)任編輯:xj

原文標(biāo)題:【CIKM 2020】基于多視圖協(xié)作學(xué)習(xí)的人崗匹配研究

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【CIKM 2020】基于多視圖協(xié)作學(xué)習(xí)的人崗匹配研究

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    你的專屬“數(shù)字員工”已到!迅為RK3588系列適配OpenClaw

    你的專屬“數(shù)字員工”已到!迅為RK3588系列適配OpenClaw
    的頭像 發(fā)表于 02-27 15:33 ?322次閱讀
    你的專屬“數(shù)字員工”已到<b class='flag-5'>崗</b>!迅為RK3588系列適配OpenClaw

    西井科技攜手同濟(jì)大學(xué) 三篇AI研究成果入選頂會(huì)ICLR 2026

    科技攜手同濟(jì)大學(xué)長聘教授、上海創(chuàng)智學(xué)院全時(shí)導(dǎo)師陳廣,共有3篇人工智能研究成果被大會(huì)正式錄用。作為全球人工智能領(lǐng)域最具影響力的學(xué)術(shù)會(huì)議之一,ICLR 致力于推動(dòng)深度學(xué)習(xí)與表征學(xué)習(xí)的前沿突破。此次三篇
    的頭像 發(fā)表于 02-12 17:42 ?1w次閱讀
    西井科技攜手同濟(jì)大學(xué) 三篇AI<b class='flag-5'>研究</b>成果入選頂會(huì)ICLR 2026

    小鵬汽車與北京大學(xué)研究論文成功入選AAAI 2026

    近日,AAAI 2026公布了論文錄用結(jié)果,該會(huì)議是人工智能領(lǐng)域的國際頂級(jí)會(huì)議之一。據(jù)悉,AAAI 2026共收到23,680份論文投稿,其中4,167篇論文被錄用,錄用率僅為17.6%。
    的頭像 發(fā)表于 01-04 11:22 ?615次閱讀
    小鵬汽車與北京大學(xué)<b class='flag-5'>研究</b><b class='flag-5'>論文</b>成功入選AAAI 2026

    庫拉日雪山:讀懂美的AI版圖

    “科技月”三十年,美的用AI筑起庫拉日雪山
    的頭像 發(fā)表于 11-03 19:52 ?9523次閱讀
    庫拉<b class='flag-5'>崗</b>日雪山:讀懂美的AI版圖

    基于級(jí)聯(lián)分類器的人臉檢測(cè)基本原理

    本次分享的內(nèi)容是基于級(jí)聯(lián)分類器的人臉檢測(cè)基本原理 1) 人臉檢測(cè)概述 關(guān)于人臉檢測(cè)算法,目前主流方法分為兩類,一類是基于知識(shí),主要方法包括模板匹配,人臉特征,形狀和邊緣,紋理特征,顏色特征
    發(fā)表于 10-30 06:14

    應(yīng)用光譜數(shù)字圖像區(qū)分苗期作物與雜草的研究進(jìn)展

    處理與機(jī)器學(xué)習(xí)算法,為自動(dòng)化、智能化的雜草管理提供了新思路。本文綜述該技術(shù)的研究現(xiàn)狀、核心方法、挑戰(zhàn)及未來發(fā)展方向。 技術(shù)原理與方法 1. 光譜成像技術(shù) 光譜成像(Multispe
    的頭像 發(fā)表于 10-21 15:25 ?356次閱讀

    華為、中國科學(xué)院計(jì)算技術(shù)研究所聯(lián)合開發(fā)論文獲USENIX收錄

    的CCF-A類會(huì)議,本屆ATC共收到634篇論文投稿,僅100篇成功入選,中稿率低至15.8%。其中,華為數(shù)據(jù)中心網(wǎng)絡(luò)技術(shù)實(shí)驗(yàn)室與中國科學(xué)院計(jì)算技術(shù)研究所合作完成的論文——基于Compute
    的頭像 發(fā)表于 10-12 11:00 ?1851次閱讀
    華為、中國科學(xué)院計(jì)算技術(shù)<b class='flag-5'>研究</b>所聯(lián)合開發(fā)<b class='flag-5'>論文</b>獲USENIX收錄

    太陽光模擬器光譜匹配技術(shù)丨從傳統(tǒng)單光源到源協(xié)同的發(fā)展與演進(jìn)

    太陽光模擬器作為模擬太陽光的關(guān)鍵設(shè)備,在眾多領(lǐng)域發(fā)揮著不可替代的作用。其核心技術(shù)——光譜匹配技術(shù),直接決定了模擬太陽光的質(zhì)量,進(jìn)而影響相關(guān)研究和測(cè)試的準(zhǔn)確性。Luminbox太陽光模擬器以先進(jìn)的光譜
    的頭像 發(fā)表于 07-24 11:31 ?698次閱讀
    太陽光模擬器光譜<b class='flag-5'>匹配</b>技術(shù)丨從傳統(tǒng)單光源到<b class='flag-5'>多</b>源協(xié)同的發(fā)展與演進(jìn)

    3Dfindit 的協(xié)作功能

    任意數(shù)量的軟件包來擴(kuò)展您的選項(xiàng)。 協(xié)作 3Dfindit是CADENAS 的最新創(chuàng)新產(chǎn)品。它是戰(zhàn)略零件管理的低成本入門級(jí)解決方案,適用于大公司的個(gè)別部門或機(jī)械工程、設(shè)備工程和建筑領(lǐng)域的中小型公司
    發(fā)表于 06-09 14:35

    機(jī)器學(xué)習(xí)賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用

    騰訊會(huì)議---六月直播 1.機(jī)器學(xué)習(xí)賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用 2.COMSOL聲學(xué)物理場(chǎng)仿真技術(shù)與應(yīng)用 3.超表面逆向設(shè)計(jì)及前沿應(yīng)用(從基礎(chǔ)入門到論文復(fù)現(xiàn)) 4.智能光學(xué)計(jì)
    的頭像 發(fā)表于 06-04 17:59 ?635次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>賦能的智能光子學(xué)器件系統(tǒng)<b class='flag-5'>研究</b>與應(yīng)用

    云知聲四篇論文入選自然語言處理頂會(huì)ACL 2025

    結(jié)果正式公布。云知聲在此次國際學(xué)術(shù)盛會(huì)中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會(huì)論文(Main Paper)和2篇Findings。入選的4篇論文聚焦大語言模型知識(shí)溯源、圖文音
    的頭像 發(fā)表于 05-26 14:15 ?1310次閱讀
    云知聲四篇<b class='flag-5'>論文</b>入選自然語言處理頂會(huì)ACL 2025

    基于LockAI視覺識(shí)別模塊:C++模板匹配

    模板匹配是一種在圖像中同時(shí)尋找多個(gè)模板的技術(shù)。通過對(duì)每個(gè)模板逐一進(jìn)行匹配,找到與輸入圖像最相似的區(qū)域,并標(biāo)記出匹配度最高的結(jié)果。本實(shí)驗(yàn)提供了一個(gè)簡單的
    發(fā)表于 05-14 15:00

    基于LockAI視覺識(shí)別模塊:C++模板匹配

    模板匹配是一種在圖像中同時(shí)尋找多個(gè)模板的技術(shù)。通過對(duì)每個(gè)模板逐一進(jìn)行匹配,找到與輸入圖像最相似的區(qū)域,并標(biāo)記出匹配度最高的結(jié)果。本實(shí)驗(yàn)提供了一個(gè)簡單的
    的頭像 發(fā)表于 05-14 14:37 ?1618次閱讀
    基于LockAI視覺識(shí)別模塊:C++<b class='flag-5'>多</b>模板<b class='flag-5'>匹配</b>

    SOLIDWORKS 2025教育版有效的數(shù)據(jù)管理與團(tuán)隊(duì)協(xié)作

    在當(dāng)今數(shù)字化時(shí)代,工程設(shè)計(jì)領(lǐng)域?qū)?shù)據(jù)管理和團(tuán)隊(duì)協(xié)作的要求日益提高。SOLIDWORKS 2025教育版作為一款CAD軟件,以其強(qiáng)大的數(shù)據(jù)管理和團(tuán)隊(duì)協(xié)作功能,成為教育機(jī)構(gòu)和學(xué)生進(jìn)行工程設(shè)計(jì)學(xué)習(xí)的理想
    的頭像 發(fā)表于 04-07 17:28 ?742次閱讀
    SOLIDWORKS 2025教育版有效的數(shù)據(jù)管理與團(tuán)隊(duì)<b class='flag-5'>協(xié)作</b>

    ?模態(tài)交互技術(shù)解析

    。它的核心目標(biāo)是模擬人類感官協(xié)同的溝通方式,提供更高效、靈活和人性化的人機(jī)交互體驗(yàn)。 核心特點(diǎn) 通道融合 :整合多種輸入/輸出方式(如語音+手勢(shì)+視覺)。 自然交互 :模仿人類
    的頭像 發(fā)表于 03-17 15:12 ?4399次閱讀