91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Meta開源I-JEPA,“類人”AI模型

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-06-18 17:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Meta宣布推出一個全新的AI 模型Image Joint Embedding Predictive Architecture (I-JEPA),可通過對圖像的自我監(jiān)督學(xué)習(xí)來學(xué)習(xí)世界的抽象表征,實現(xiàn)比現(xiàn)有模型更準(zhǔn)確地分析和完成未完成的圖像。

目前相關(guān)的訓(xùn)練代碼和模型已開源,I-JEPA 論文則計劃在下周的 CVPR 2023 上發(fā)表。

根據(jù)介紹,I-JEPA 結(jié)合了 Meta 首席 AI 科學(xué)家 Yann LeCun 所提倡的類人推理方式,幫助避免 AI 生成圖像常見的一些錯誤,比如多出的手指。

I-JEPA 在多項計算機(jī)視覺任務(wù)上表現(xiàn)出色,且計算效率比其他廣泛使用的計算機(jī)視覺模型高得多。

I-JEPA 學(xué)習(xí)的表征也可以用于許多不同的應(yīng)用程序,而無需進(jìn)行大量微調(diào)。

例如,項目團(tuán)隊在 72 小時內(nèi)使用 16 個 A100 GPU 訓(xùn)練了一個 632M 參數(shù)的視覺轉(zhuǎn)換器模型,I-JEPA 在 ImageNet 上的 low-shot 分類中性能表現(xiàn)最優(yōu),每個類只有 12 個標(biāo)記示例。

其他方法通常需要 2 到 10 倍的 GPU 時間,并且在用相同數(shù)量的數(shù)據(jù)進(jìn)行訓(xùn)練時錯誤率更高。 I-JEPA 背后的想法是以更類似于人類一般理解的抽象表示來預(yù)測缺失的信息。

I-JEPA 使用抽象的預(yù)測目標(biāo),潛在地消除了不必要的 pixel-level 細(xì)節(jié),從而使模型學(xué)習(xí)更多語義特征。

另一個引導(dǎo) I-JEPA 產(chǎn)生語義表征的核心設(shè)計選擇是多塊掩碼策略。

具體來說,項目團(tuán)隊證明了使用信息豐富的(空間分布的)上下文來預(yù)測包含語義信息(具有足夠大的規(guī)模)的大塊的重要性。

e452d002-0c36-11ee-962d-dac502259ad0.png

I-JEPA 中的預(yù)測器可以看作是一個原始的(和受限的)世界模型,它能夠從部分可觀察的上下文中模擬靜態(tài)圖像中的空間不確定性。

更重要的是,這個世界模型是語義的,因為它預(yù)測圖像中不可見區(qū)域的高級信息,而不是 pixel-level 細(xì)節(jié)。

e46f3b5c-0c36-11ee-962d-dac502259ad0.png

為了解模型捕獲的內(nèi)容,團(tuán)隊還訓(xùn)練了一個隨機(jī)解碼器,將 I-JEPA 預(yù)測的表征映射回像素空間。

這種定性評估表明該模型正確地捕獲了位置不確定性并生成了具有正確姿勢的高級對象部分(例如,狗的頭、狼的前腿)。

簡而言之,I-JEPA 能夠?qū)W習(xí)對象部分的高級表示,而不會丟棄它們在圖像中的局部位置信息。

e49929f8-0c36-11ee-962d-dac502259ad0.pnge4b3ea04-0c36-11ee-962d-dac502259ad0.png





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 轉(zhuǎn)換器
    +關(guān)注

    關(guān)注

    27

    文章

    9418

    瀏覽量

    156364
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5194

    瀏覽量

    135470
  • 計算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47631

原文標(biāo)題:Meta開源I-JEPA,“類人” AI 模型

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    華為昇騰深度適配智譜AI全新開源模型GLM-5

    2026年2月12日,智譜AI發(fā)布Agentic Engineering時代最好的開源模型GLM-5,從“寫代碼”到“寫工程”的能力進(jìn)一步演進(jìn)。在Coding與Agent能力上取得開源
    的頭像 發(fā)表于 02-25 14:41 ?730次閱讀
    華為昇騰深度適配智譜<b class='flag-5'>AI</b>全新<b class='flag-5'>開源</b><b class='flag-5'>模型</b>GLM-5

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    MetaAI慢性病,靠Manus能治嗎?

    Meta
    腦極體
    發(fā)布于 :2026年01月08日 16:58:02

    NVIDIA推動面向數(shù)字與物理AI開源模型發(fā)展

    NVIDIA 發(fā)布一系列涵蓋語音、安全與輔助駕駛領(lǐng)域的全新 AI 工具,其中包括面向移動出行領(lǐng)域的行業(yè)級開源視覺-語言-動作推理模型(Reasoning VLA) NVIDIA DRIVE Alpamayo-R1。此外,一項新的
    的頭像 發(fā)表于 12-13 09:50 ?1339次閱讀

    成都匯陽投資關(guān)于國產(chǎn)開源模型持續(xù)突破,國產(chǎn)AI 競爭力增強(qiáng)

    ? ? ? ?國產(chǎn)開源模型領(lǐng)跑 ,AI 生態(tài)有望加速繁榮 根據(jù)獨立 AI 基準(zhǔn)測試與分析平臺 Artificial Analysis 最新榜單 , 國產(chǎn)
    的頭像 發(fā)表于 11-24 14:01 ?566次閱讀

    Arm與Meta深化戰(zhàn)略合作

    智能的毫瓦級設(shè)備,到訓(xùn)練全球最先進(jìn) AI 模型的兆瓦級系統(tǒng),此次合作將推動 AI 覆蓋多種計算類型、工作負(fù)載及使用體驗,為 Meta 的全球平臺提供核心支撐。
    的頭像 發(fā)表于 10-24 17:54 ?1638次閱讀

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    NVIDIA 利用全新開源模型與仿真庫加速機(jī)器研發(fā)進(jìn)程

    科研人員及開發(fā)者打造功能更強(qiáng)大、適應(yīng)性更強(qiáng)的機(jī)器。 ? 全新的 NVIDIA Isaac GR00T 開源基礎(chǔ)模型將為機(jī)器賦予接近人類的推理能力,使其能夠拆解復(fù)雜指令,并借助已有知
    的頭像 發(fā)表于 09-30 09:52 ?3072次閱讀
    NVIDIA 利用全新<b class='flag-5'>開源</b><b class='flag-5'>模型</b>與仿真庫加速機(jī)器<b class='flag-5'>人</b>研發(fā)進(jìn)程

    MetaAI之路,為何節(jié)節(jié)敗退?

    如果繼續(xù)自亂陣腳,MetaAI黃昏或許將正式到來
    的頭像 發(fā)表于 07-23 13:48 ?2655次閱讀
    <b class='flag-5'>Meta</b>的<b class='flag-5'>AI</b>之路,為何節(jié)節(jié)敗退?

    開源鴻蒙開發(fā)者大會2025·AI分論壇圓滿閉幕,探索開源鴻蒙AI無限可能

    5月24日,開源鴻蒙開發(fā)者大會2025·AI分論壇在深圳蛇口希爾頓南海酒店成功舉辦?;顒犹匮麑W(xué)術(shù)領(lǐng)袖、開源專家、行業(yè)先鋒和社區(qū)開發(fā)者,從終端操作系統(tǒng)、國產(chǎn)大模型、智能體、算力芯片、應(yīng)用
    的頭像 發(fā)表于 05-26 18:06 ?1666次閱讀
    <b class='flag-5'>開源</b>鴻蒙開發(fā)者大會2025·<b class='flag-5'>AI</b>分論壇圓滿閉幕,探索<b class='flag-5'>開源</b>鴻蒙<b class='flag-5'>AI</b>無限可能

    自制一個支持AI 控制的無刷平衡車機(jī)器開源項目D-BOT全攻略

    今天給大家介紹一款創(chuàng)意桌面機(jī)器——D-BOT!它不僅是一個功能強(qiáng)大的平衡車機(jī)器,也是一個融合了AI控制、3D建模與PCB設(shè)計的開源項目。 D-BOT 被作者稱為“小探險家”(Di
    發(fā)表于 04-28 11:45

    大象機(jī)器攜手進(jìn)迭時空推出 RISC-V 全棧開源六軸機(jī)械臂產(chǎn)品

    全球80多個國家和地區(qū)。 近日,大象機(jī)器聯(lián)合進(jìn)迭時空推出全球首款RISC-V全棧開源六軸機(jī)器臂“myCobot 280 RISC-V”,為開發(fā)者打造全新的機(jī)器開源創(chuàng)新平臺。 “my
    發(fā)表于 04-25 17:59

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    模型庫的限制,聯(lián)發(fā)科還首發(fā)了開源彈性架構(gòu)。區(qū)別于過往的開放接口,只能部署特定架構(gòu)模型,開放彈性架構(gòu)允許開發(fā)者直接調(diào)整平臺源代碼,無需等待芯片廠商的支持,即可完成目標(biāo)或其他自研大模型輕松
    發(fā)表于 04-13 19:52

    NVIDIA Isaac GR00T N1開源人形機(jī)器基礎(chǔ)模型+開源物理引擎Newton加速機(jī)器開發(fā)

    NVIDIA Isaac GR00T N1開源人形機(jī)器基礎(chǔ)模型+開源物理引擎Newton加速機(jī)器開發(fā)
    的頭像 發(fā)表于 03-20 16:56 ?1715次閱讀

    英偉達(dá)GROOT N1 全球首個開源人形機(jī)器基礎(chǔ)模型

    英偉達(dá)GROOT N1 全球首個開源人形機(jī)器基礎(chǔ)大模型
    的頭像 發(fā)表于 03-20 11:05 ?2142次閱讀