91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌 | 大規(guī)模深度推薦模型的特征嵌入問題有解了!

WpOh_rgznai100 ? 來源:YXQ ? 2019-07-16 13:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀:本文主要介紹下Google在大規(guī)模深度推薦模型上關(guān)于特征嵌入的最新論文。

一、背景

大部分的深度學(xué)習(xí)模型主要包含如下的兩大模塊:輸入模塊以及表示學(xué)習(xí)模塊。自從NAS[1]的出現(xiàn)以來,神經(jīng)網(wǎng)絡(luò)架構(gòu)的設(shè)計(jì)上正在往數(shù)據(jù)驅(qū)動(dòng)的自動(dòng)機(jī)器學(xué)習(xí)方向演進(jìn)。不過之前更多的研究都是聚焦在如何自動(dòng)設(shè)計(jì)表示學(xué)習(xí)模塊而不是輸入模塊,主要原因是在計(jì)算機(jī)視覺等成熟領(lǐng)域原始輸入(圖像像素)已經(jīng)是浮點(diǎn)數(shù)了。

輸入模塊:負(fù)責(zé)將原始輸入轉(zhuǎn)換為浮點(diǎn)數(shù);表示學(xué)習(xí)模塊:根據(jù)輸入模塊的浮點(diǎn)值,計(jì)算得到模型的最終輸出;

而在推薦、搜索以及廣告工業(yè)界的大規(guī)模深度模型上,情況卻完全不同。因?yàn)榘罅扛呔S稀疏的離散特征(譬如商品id,視頻id或者文章id)需要將這些類別特征通過embedding嵌入技術(shù)將離散的id轉(zhuǎn)換為連續(xù)的向量。而這些向量的維度大小往往被當(dāng)做一個(gè)超參手動(dòng)進(jìn)行設(shè)定。

一個(gè)簡(jiǎn)單的數(shù)據(jù)分析就能告訴我們嵌入向量維度設(shè)定的合理與否非常影響模型的效果。以YoutubeDNN[2]為例,其中使用到的VideoId的特征詞典大小是100萬,每一個(gè)特征值嵌入向量大小是256。僅僅一個(gè)VideoId的特征就包含了2.56億的超參,考慮到其他更多的離散類特征輸入模塊的需要學(xué)習(xí)的超參數(shù)量可想而知。相應(yīng)地,表示學(xué)習(xí)模塊主要包含三層全連接層。也就是說大部分的超參其實(shí)聚集在了輸入模塊,那自然就會(huì)對(duì)模型的效果有著舉足輕重的影響。

二、主要工作

Google的研究者們?cè)谧钚碌囊黄撐腫3]中提出了NIS技術(shù)(Neural Input Search),可以自動(dòng)學(xué)習(xí)大規(guī)模深度推薦模型中每個(gè)類別特征最優(yōu)化的詞典大小以及嵌入向量維度大小。目的就是為了在節(jié)省性能的同時(shí)盡可能地最大化深度模型的效果。

并且,他們發(fā)現(xiàn)傳統(tǒng)的Single-size Embedding方式(所有特征值共享同樣的嵌入向量維度)其實(shí)并不能夠讓模型充分學(xué)習(xí)訓(xùn)練數(shù)據(jù)。因此與之對(duì)應(yīng)地,提出了Multi-size Embedding方式讓不同的特征值可以擁有不同的嵌入向量維度。

在實(shí)際訓(xùn)練中,他們使用強(qiáng)化學(xué)習(xí)來尋找每個(gè)特征值最優(yōu)化的詞典大小和嵌入向量維度。通過在兩大大規(guī)模推薦問題(檢索、排序)上的實(shí)驗(yàn)驗(yàn)證,NIS技術(shù)能夠自動(dòng)學(xué)習(xí)到更優(yōu)化的特征詞典大小和嵌入維度并且?guī)碓赗ecall@1以及AUC等指標(biāo)上的顯著提升。

三、Neural Input Search問題

NIS-SE問題:SE(Single-size Embedding)方式是目前常用的特征嵌入方式,所有特征值共享同樣的特征嵌入維度。NIS-SE問題就是在給定資源條件下,對(duì)于每個(gè)離散特征找到最優(yōu)化的詞典大小v和嵌入向量維度d。

這里面其實(shí)包含了兩部分的trade-off:一方面是各特征之間,更有用的特征應(yīng)該給予更多的資源;另一方面是每個(gè)特征內(nèi)部,詞典大小和嵌入向量維度之間。對(duì)于一個(gè)特征來說,更大的詞典可以有更大的覆蓋度,包含更多長(zhǎng)尾的item;更多的嵌入向量維度則可以提升head item的嵌入質(zhì)量,因?yàn)閔ead item擁有充分的訓(xùn)練數(shù)據(jù)。而SE在資源限制下無法同時(shí)做到高覆蓋度和高質(zhì)量的特征嵌入。所以需要引入ME(Multi-size Embedding)。

NIS-ME問題:ME允許每個(gè)特征詞典內(nèi)不同的特征值可以有不同的嵌入向量維度。其實(shí)就是為了實(shí)現(xiàn)越頻繁的特征值擁有更大的嵌入特征維度,因?yàn)橛懈嗟挠?xùn)練數(shù)據(jù);而長(zhǎng)尾的特征值則用更小的嵌入特征維度。引入ME為每一個(gè)類別離散特征找到最優(yōu)化的詞典大小和嵌入向量維度,就可以實(shí)現(xiàn)在長(zhǎng)尾特征值上的高覆蓋度以及在頻繁特征值上的高質(zhì)量嵌入向量。下圖給出了embedding使用的場(chǎng)景例子中,SE和ME使用上的區(qū)別。

四、NIS解決方案

要想為每個(gè)類別離散特征手動(dòng)找到最優(yōu)化的詞典大小和嵌入向量維度是很難的,因?yàn)橥扑]廣告工業(yè)界的大規(guī)模深度模型的訓(xùn)練時(shí)很昂貴的。為了達(dá)到在一次訓(xùn)練中就能自動(dòng)找到最優(yōu)化的詞典大小和嵌入向量維度,他們改造了經(jīng)典的ENAS[4]:

首先針對(duì)深度模型的輸入模塊提出了一個(gè)新穎的搜索空間;

然后有一個(gè)單獨(dú)的Controller針對(duì)每一個(gè)離散特征選擇SE或者M(jìn)E;

其次可以根據(jù)Controller決策后考慮模型準(zhǔn)確度和資源消耗計(jì)算得到reward;

最后可以根據(jù)reward使用強(qiáng)化學(xué)習(xí)A3C[5]訓(xùn)練Controller進(jìn)行迭代。

搜索空間

Embedding Block的概念實(shí)際上就是原始Embedding矩陣的分塊。如下圖所示,假設(shè)原始Embedding矩陣大小是(10M,256),圖a將其分成了20個(gè)Embedding Block。Controller為每個(gè)特征有兩種選擇:圖b所示的SE以及圖c的所示的ME。

Reward函數(shù)

主模型是隨著Controller的選擇進(jìn)行訓(xùn)練的,因此Controller的參數(shù)實(shí)際上是根據(jù)在驗(yàn)證集上前向計(jì)算的reward通過RL追求收益最大化而來。考慮到在限定資源下的深度模型訓(xùn)練,這里的reward函數(shù)設(shè)計(jì)為同時(shí)考慮業(yè)務(wù)目標(biāo)與資源消耗。對(duì)于推薦領(lǐng)域的兩大主要任務(wù):信息檢索和排序,信息檢索的目標(biāo)可以使用Sampled Recall@1;而排序的目標(biāo)則可以使用AUC。

五、實(shí)驗(yàn)結(jié)果

他們?cè)趦纱蟠笠?guī)模推薦模型問題:檢索和排序上進(jìn)行了實(shí)驗(yàn)。在同等資源消耗的情況下,NIS可以獲得顯著提升,詳細(xì)數(shù)據(jù)如下圖所示。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111415

原文標(biāo)題:Google最新論文:大規(guī)模深度推薦模型的特征嵌入問題有解了!

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    面向嵌入式部署的神經(jīng)網(wǎng)絡(luò)優(yōu)化:模型壓縮深度解析

    1.為什么需要神經(jīng)網(wǎng)絡(luò)模型壓縮? 神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決復(fù)雜機(jī)器學(xué)習(xí)問題的強(qiáng)大工具。然而,這種能力往往伴隨著模型規(guī)模和計(jì)算復(fù)雜度的增加。當(dāng)輸入維度較大(例如長(zhǎng)時(shí)序窗口、高分辨率特征空間)
    的頭像 發(fā)表于 02-24 15:37 ?4834次閱讀
    面向<b class='flag-5'>嵌入</b>式部署的神經(jīng)網(wǎng)絡(luò)優(yōu)化:<b class='flag-5'>模型</b>壓縮<b class='flag-5'>深度</b>解析

    ALVA純視覺系統(tǒng)如何破解具身智能大規(guī)模落地的核心瓶頸

    在 2025 中國(guó)信通院深度觀察報(bào)告會(huì)上,許志遠(yuǎn)副總工程師指出,具身智能正經(jīng)歷認(rèn)知與物理智能的“雙螺旋”突破,但模型、數(shù)據(jù)、形態(tài)路線三大爭(zhēng)議未決,大規(guī)模落地尚處早期。若想突破現(xiàn)存瓶頸,亟需完成技術(shù)架構(gòu)、數(shù)據(jù)體系、商業(yè)化形態(tài)的三重
    的頭像 發(fā)表于 12-28 15:34 ?1140次閱讀
    ALVA純視覺系統(tǒng)如何破解具身智能<b class='flag-5'>大規(guī)模</b>落地的核心瓶頸

    泰凌微:布局端側(cè)AI,產(chǎn)品支持谷歌LiteRT、TVM開源模型

    ?電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)泰凌微近日表示,公司與谷歌在智能家居、音頻等多個(gè)領(lǐng)域開展具體項(xiàng)目合作。其與谷歌已從單一的遙控器芯片供應(yīng),發(fā)展為涵蓋音頻、智能家居、端側(cè)AI等多領(lǐng)域的深度合作關(guān)系
    的頭像 發(fā)表于 12-15 08:21 ?1w次閱讀

    谷歌云發(fā)布最強(qiáng)自研TPU,性能比前代提升4倍

    精心設(shè)計(jì),能夠輕松處理從大型模型訓(xùn)練到實(shí)時(shí)聊天機(jī)器人運(yùn)行以及AI智能體操作等各類復(fù)雜任務(wù)。 ? 谷歌在新聞稿中著重強(qiáng)調(diào),“Ironwood”是專為應(yīng)對(duì)最嚴(yán)苛的工作負(fù)載而打造的。無論是大規(guī)模模型
    的頭像 發(fā)表于 11-13 07:49 ?8628次閱讀
    <b class='flag-5'>谷歌</b>云發(fā)布最強(qiáng)自研TPU,性能比前代提升4倍

    TensorRT-LLM的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    之前文章已介紹引入大規(guī)模 EP 的初衷,本篇將繼續(xù)深入介紹 TensorRT-LLM 的大規(guī)模專家并行架構(gòu)設(shè)計(jì)與創(chuàng)新實(shí)現(xiàn)。
    的頭像 發(fā)表于 09-23 14:42 ?1114次閱讀
    TensorRT-LLM的<b class='flag-5'>大規(guī)模</b>專家并行架構(gòu)設(shè)計(jì)

    大規(guī)模專家并行模型在TensorRT-LLM的設(shè)計(jì)

    DeepSeek-V3 / R1 等模型采用大規(guī)模細(xì)粒度混合專家模型 (MoE) 架構(gòu),大幅提升了開源模型的質(zhì)量。Llama 4 和 Qwen3 等新發(fā)布的開源
    的頭像 發(fā)表于 09-06 15:21 ?1235次閱讀
    <b class='flag-5'>大規(guī)模</b>專家并行<b class='flag-5'>模型</b>在TensorRT-LLM的設(shè)計(jì)

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來,機(jī)器人操作領(lǐng)域的VLA模型普遍基于跨本體機(jī)器人數(shù)據(jù)集預(yù)訓(xùn)練,這類方法存在兩大局限:不同機(jī)器人本體和動(dòng)作空間的差異導(dǎo)致統(tǒng)一訓(xùn)練困難;現(xiàn)有大規(guī)模機(jī)器人演示數(shù)據(jù)稀缺且質(zhì)量參差不齊。得益于近年來VR
    的頭像 發(fā)表于 08-21 09:56 ?1104次閱讀
    基于<b class='flag-5'>大規(guī)模</b>人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA<b class='flag-5'>模型</b>H-RDT

    薄型、多頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()薄型、多頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有薄型、多頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,薄型、多頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊真值表,薄型、多頻段、
    發(fā)表于 05-15 18:32
    薄型、多頻段、<b class='flag-5'>大規(guī)模</b>物聯(lián)網(wǎng)前端模塊 skyworksinc

    模型時(shí)代的新燃料:大規(guī)模擬真多風(fēng)格語音合成數(shù)據(jù)集

    模型充分學(xué)習(xí)到語音的發(fā)音規(guī)律、語義特征、語境等信息,從而提升語音識(shí)別、語音合成等關(guān)鍵能力,提供更加準(zhǔn)確、自然、智能的語音交互體驗(yàn)。 語音大模型發(fā)展面臨數(shù)據(jù)難題 然而,當(dāng)前語音大模型
    的頭像 發(fā)表于 04-30 16:17 ?684次閱讀

    構(gòu)建大規(guī)模Simulink模型的標(biāo)準(zhǔn)化最佳實(shí)踐

    隨著系統(tǒng)規(guī)模和復(fù)雜性的增長(zhǎng),工程團(tuán)隊(duì)面臨著一系列在小規(guī)模上不存在的全新挑戰(zhàn)。
    的頭像 發(fā)表于 04-24 13:03 ?1061次閱讀
    構(gòu)建<b class='flag-5'>大規(guī)模</b>Simulink<b class='flag-5'>模型</b>的標(biāo)準(zhǔn)化最佳實(shí)踐

    AI原生架構(gòu)升級(jí):RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的算力突破

    近年來,隨著千億級(jí)參數(shù)模型的崛起,AI訓(xùn)練對(duì)算力的需求呈現(xiàn)指數(shù)級(jí)增長(zhǎng)。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對(duì)分布式訓(xùn)練、高并發(fā)計(jì)算和顯存優(yōu)化等場(chǎng)景時(shí)逐漸顯露瓶頸。而RAKsmart為超大規(guī)模模型訓(xùn)練提供了全新的算力解決方案。
    的頭像 發(fā)表于 04-24 09:27 ?792次閱讀

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設(shè)計(jì)。這款功能強(qiáng)大的 AI 加速器旨在處理
    的頭像 發(fā)表于 04-12 11:10 ?3745次閱讀
    <b class='flag-5'>谷歌</b>第七代TPU Ironwood<b class='flag-5'>深度</b>解讀:AI推理時(shí)代的硬件革命

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項(xiàng)。 ? 在核心亮點(diǎn)層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設(shè)計(jì)的 TPU 芯片,能夠有力支持大規(guī)模思考
    的頭像 發(fā)表于 04-12 00:57 ?3730次閱讀

    5G 大規(guī)模物聯(lián)網(wǎng)系統(tǒng)級(jí)封裝 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()5G 大規(guī)模物聯(lián)網(wǎng)系統(tǒng)級(jí)封裝相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有5G 大規(guī)模物聯(lián)網(wǎng)系統(tǒng)級(jí)封裝的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,5G 大規(guī)模物聯(lián)網(wǎng)系統(tǒng)級(jí)封裝真值表,5G
    發(fā)表于 04-11 15:21
    5G <b class='flag-5'>大規(guī)模</b>物聯(lián)網(wǎng)系統(tǒng)級(jí)封裝 skyworksinc

    AI眼鏡大模型激戰(zhàn):多大模型協(xié)同、交互時(shí)延低至1.3S

    與AI大模型深度融合,一場(chǎng)技術(shù)演進(jìn)與場(chǎng)景革命正在悄然進(jìn)行。 ? ? 一款眼鏡搭載多個(gè)大模型:AI 智能眼鏡下的“百模大戰(zhàn)” AI大模型指的是具有大量參數(shù)(通常超過數(shù)十億)的
    的頭像 發(fā)表于 03-20 08:59 ?2725次閱讀
    AI眼鏡大<b class='flag-5'>模型</b>激戰(zhàn):多大<b class='flag-5'>模型</b>協(xié)同、交互時(shí)延低至1.3S