91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊AI Lab宣布正式開源“Tencent ML-Images”項(xiàng)目

G5zW_AppDowns ? 來源:未知 ? 作者:李倩 ? 2018-10-23 16:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今日,騰訊AI Lab宣布正式開源“Tencent ML-Images”項(xiàng)目,該項(xiàng)目由多標(biāo)簽圖像數(shù)據(jù)集ML-Images,以及業(yè)內(nèi)目前同類深度學(xué)習(xí)模型中精度最高的深度殘差網(wǎng)絡(luò)ResNet-101構(gòu)成。

該項(xiàng)目的開源,是騰訊AI Lab在計(jì)算機(jī)視覺領(lǐng)域所累積的基礎(chǔ)能力的一次釋放,為人工智能領(lǐng)域的科研人員和工程師提供了充足的高質(zhì)量訓(xùn)練數(shù)據(jù),及簡單易用、性能強(qiáng)大的深度學(xué)習(xí)模型,促進(jìn)人工智能行業(yè)共同發(fā)展。

騰訊AI Lab此次公布的圖像數(shù)據(jù)集ML-Images,包含了1800萬圖像和1.1萬多種常見物體類別,在業(yè)內(nèi)已公開的多標(biāo)簽圖像數(shù)據(jù)集中規(guī)模最大,足以滿足一般科研機(jī)構(gòu)及中小企業(yè)的使用場景。此外,基于ML-Images訓(xùn)練得到的深度殘差網(wǎng)絡(luò)ResNet-101,具有優(yōu)異的視覺表示能力和泛化性能,在當(dāng)前業(yè)內(nèi)同類模型中精度最高,將為包括圖像、視頻等在內(nèi)的視覺任務(wù)提供強(qiáng)大支撐,并助力圖像分類、物體檢測、物體跟蹤、語義分割等技術(shù)水平的提升。

本次正式開源,其主要內(nèi)容包括:

ML-Images數(shù)據(jù)集的全部圖像URLs,以及相應(yīng)的類別標(biāo)注。因原始圖像版權(quán)問題,此次開源將不直接提供原始圖像,用戶可利用騰訊AI Lab提供的下載代碼和URLs自行下載圖像。

ML-Images數(shù)據(jù)集的詳細(xì)介紹。包括圖像來源、圖像數(shù)量、類別數(shù)量、類別的語義標(biāo)簽體系、標(biāo)注方法,以及圖像的標(biāo)注數(shù)量等統(tǒng)計(jì)量。

完整的代碼和模型。騰訊AI Lab提供的代碼涵蓋從圖像下載和圖像預(yù)處理,到基于ML-Images的預(yù)訓(xùn)練和基于ImageNet的遷移學(xué)習(xí),再到基于訓(xùn)練所得模型的圖像特征提取的完整流程。項(xiàng)目提供了基于小數(shù)據(jù)集的訓(xùn)練示例,以方便用戶快速體驗(yàn)該訓(xùn)練流程。項(xiàng)目還提供了具有極高精度的ResNet-101模型(在單標(biāo)簽基準(zhǔn)數(shù)據(jù)集ImageNet的驗(yàn)證集上的top-1精度為80.73%)。用戶可根據(jù)自身需求,隨意選用該項(xiàng)目的代碼或模型。

以深度神經(jīng)網(wǎng)絡(luò)為典型代表的深度學(xué)習(xí)技術(shù)已經(jīng)在很多領(lǐng)域充分展現(xiàn)出其優(yōu)異的能力,尤其是計(jì)算機(jī)視覺領(lǐng)域,包括圖像和視頻的分類、理解和生成等重要任務(wù)。然而,要充分發(fā)揮出深度學(xué)習(xí)的視覺表示能力,必須建立在充足的高質(zhì)量訓(xùn)練數(shù)據(jù)、優(yōu)秀的模型結(jié)構(gòu)和模型訓(xùn)練方法,以及強(qiáng)大的的計(jì)算資源等基礎(chǔ)能力之上。

各大科技公司都非常重視人工智能基礎(chǔ)能力的建設(shè),都建立了僅面向其內(nèi)部的大型圖像數(shù)據(jù)集,例如谷歌的JFT-300M和Facebook的Instagram數(shù)據(jù)集。但這些數(shù)據(jù)集及其訓(xùn)練得到的模型都沒有公開,對于一般的科研機(jī)構(gòu)和中小企業(yè)來說,這些人工智能基礎(chǔ)能力有著非常高的門檻。

當(dāng)前業(yè)內(nèi)公開的最大規(guī)模的多標(biāo)簽圖像數(shù)據(jù)集是谷歌公司的Open Images, 包含900萬圖像和6000多物體類別。騰訊AI Lab此次開源的ML-Images數(shù)據(jù)集包括1800萬圖像和1.1萬多常見物體類別,或?qū)⒊蔀樾碌男袠I(yè)基準(zhǔn)數(shù)據(jù)集。

此外,基于ML-Images訓(xùn)練得到的ResNet-101模型,具有優(yōu)異的視覺表示能力和泛化性能。通過遷移學(xué)習(xí),該模型在ImageNet驗(yàn)證集上取得了80.73%的top-1分類精度,超過谷歌同類模型(遷移學(xué)習(xí)模式)的精度,且值得注意的是,ML-Images的規(guī)模僅為JFT-300M的約1/17。這充分說明了ML-Images的高質(zhì)量和訓(xùn)練方法的有效性。詳細(xì)對比如下表。

注:微軟ResNet-101模型為非遷移學(xué)習(xí)模式下訓(xùn)練得到,即1.2M預(yù)訓(xùn)練圖像為原始數(shù)據(jù)集ImageNet的圖像。

騰訊AI Lab此次開源的“Tencent ML-Images”項(xiàng)目,展現(xiàn)了騰訊在人工智能基礎(chǔ)能力建設(shè)方面的努力,以及希望通過基礎(chǔ)能力的開放促進(jìn)行業(yè)共同發(fā)展的愿景。

“Tencent ML-Images”項(xiàng)目的深度學(xué)習(xí)模型,目前已在騰訊多項(xiàng)業(yè)務(wù)中發(fā)揮重要作用,如“天天快報(bào)”的圖像質(zhì)量評價(jià)與推薦功能,其后臺測試的日調(diào)用量已達(dá)1000萬次。

如下圖所示,天天快報(bào)新聞封面圖像的質(zhì)量得到明顯提高。

左圖為優(yōu)化前,右圖為優(yōu)化后

此外,騰訊AI Lab團(tuán)隊(duì)還將基于Tencent ML-Images的ResNet-101模型遷移到很多其他視覺任務(wù),包括圖像物體檢測,圖像語義分割,視頻物體分割,視頻物體跟蹤等。這些視覺遷移任務(wù)進(jìn)一步驗(yàn)證了該模型的強(qiáng)大視覺表示能力和優(yōu)異的泛化性能。“Tencent ML-Images”項(xiàng)目未來還將在更多視覺相關(guān)的產(chǎn)品中發(fā)揮重要作用。

自2016年騰訊首次在GitHub上發(fā)布開源項(xiàng)目(https://github.com/Tencent),目前已累積開源覆蓋人工智能、移動開發(fā)、小程序等領(lǐng)域的57個(gè)項(xiàng)目。為進(jìn)一步貢獻(xiàn)開源社區(qū),騰訊相繼加入Hyperledger、LF Networking和開放網(wǎng)絡(luò)基金會,并成為LF深度學(xué)習(xí)基金會首要創(chuàng)始成員及Linux基金會白金會員。作為騰訊“開放”戰(zhàn)略在技術(shù)領(lǐng)域的體現(xiàn),騰訊開源將繼續(xù)對內(nèi)推動技術(shù)研發(fā)向共享、復(fù)用和開源邁進(jìn),向外釋放騰訊研發(fā)實(shí)力,為國內(nèi)外開源社區(qū)提供技術(shù)支持,注入研發(fā)活力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 騰訊
    +關(guān)注

    關(guān)注

    7

    文章

    1684

    瀏覽量

    50918
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26193
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124398

原文標(biāo)題:騰訊AI Lab正式開源業(yè)內(nèi)最大規(guī)模多標(biāo)簽圖像數(shù)據(jù)集

文章出處:【微信號:AppDowns,微信公眾號:掌上科技頻道】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    摩爾線程正式開源TileLang-MUSA項(xiàng)目

    近日,摩爾線程正式開源TileLang-MUSA項(xiàng)目,實(shí)現(xiàn)對TileLang編程語言的完整支持。該項(xiàng)目已成功在摩爾線程多代全功能GPU上完成功能驗(yàn)證與特性開發(fā),旨在通過高層抽象與編譯器優(yōu)化,大幅降低開發(fā)門檻,為國產(chǎn)算力平臺提供更
    的頭像 發(fā)表于 02-11 16:57 ?1254次閱讀

    沐曦曦云C500/C550 GPU產(chǎn)品適配騰訊混元開源翻譯模型1.5版本

    12月30日,騰訊混元宣布推出并開源翻譯模型1.5,共包含兩個(gè)模型:Tencent-HY-MT1.5-1.8B 和 Tencent-HY-M
    的頭像 發(fā)表于 01-06 14:13 ?371次閱讀
    沐曦曦云C500/C550 GPU產(chǎn)品適配<b class='flag-5'>騰訊</b>混元<b class='flag-5'>開源</b>翻譯模型1.5版本

    壁仞科技壁礪166M產(chǎn)品適配騰訊混元開源翻譯模型1.5版本

    12月30日,騰訊混元正式開源翻譯模型1.5版本,該版本共包含兩個(gè)模型:Tencent-HY-MT1.5-1.8B和Tencent-HY-MT1.5-7B,支持33個(gè)語種互譯以及5種民
    的頭像 發(fā)表于 01-05 15:39 ?304次閱讀
    壁仞科技壁礪166M產(chǎn)品適配<b class='flag-5'>騰訊</b>混元<b class='flag-5'>開源</b>翻譯模型1.5版本

    開源鴻蒙項(xiàng)目順利孵化畢業(yè)

    2025年11月21日,2025開放原子開發(fā)者大會在北京隆重啟幕。作為本次大會的重磅環(huán)節(jié)和核心焦點(diǎn)之一,在大會開幕式上,開放原子開源基金會(以下簡稱“基金會”)宣布開源鴻蒙項(xiàng)目達(dá)成
    的頭像 發(fā)表于 11-27 14:36 ?560次閱讀

    開源鴻蒙和開源歐拉成為開放原子開源基金會首批畢業(yè)項(xiàng)目

    11月21日,在2025開放原子開發(fā)者大會開幕式上,開放原子開源基金會宣布旗下開源鴻蒙(OpenHarmony)與開源歐拉(openEuler)成為首批畢業(yè)
    的頭像 發(fā)表于 11-25 17:22 ?839次閱讀

    NVIDIA Isaac Lab多GPU多節(jié)點(diǎn)訓(xùn)練指南

    NVIDIA Isaac Lab 是一個(gè)適用于機(jī)器人學(xué)習(xí)的開源統(tǒng)一框架,基于 NVIDIA Isaac Sim 開發(fā),其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,可提供各種物理 AI 功能和由 GPU 驅(qū)動的物理仿真,縮小仿真與現(xiàn)實(shí)世
    的頭像 發(fā)表于 09-23 17:15 ?2409次閱讀
    NVIDIA Isaac <b class='flag-5'>Lab</b>多GPU多節(jié)點(diǎn)訓(xùn)練指南

    騰訊地圖在AI時(shí)代的全新思考與實(shí)踐

    9月17日,在2025騰訊全球數(shù)字生態(tài)大會地圖專場上,騰訊集團(tuán)副總裁、騰訊智慧出行總裁鐘翔平分享了騰訊地圖在AI時(shí)代的全新思考與實(shí)踐。
    的頭像 發(fā)表于 09-18 10:32 ?877次閱讀

    Arm率先適配騰訊混元開源模型,助力端側(cè)AI創(chuàng)新開發(fā)

    本周初,騰訊混元宣布開源四款小尺寸模型(參數(shù)分別為 0.5B、1.8B、4B、7B),可無縫運(yùn)行于消費(fèi)級顯卡上。作為全球應(yīng)用范圍最為廣泛的計(jì)算平臺,Arm 在開源首日就已率先實(shí)現(xiàn)適配,
    的頭像 發(fā)表于 08-08 09:16 ?1391次閱讀
    Arm率先適配<b class='flag-5'>騰訊</b>混元<b class='flag-5'>開源</b>模型,助力端側(cè)<b class='flag-5'>AI</b>創(chuàng)新開發(fā)

    硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開源混元大模型

    于OpenVINO? 構(gòu)建的 AI 軟件平臺的可擴(kuò)展性,英特爾助力ISV生態(tài)伙伴率先實(shí)現(xiàn)應(yīng)用端Day 0 模型適配,大幅加速了新模型的落地進(jìn)程,彰顯了 “硬件 + 模型 + 生態(tài)” 協(xié)同的強(qiáng)大爆發(fā)力。 混元新模型登場:多維度突破,酷睿?Ultra?平臺Day?0適配 騰訊
    的頭像 發(fā)表于 08-07 14:42 ?1365次閱讀
    硬件與應(yīng)用同頻共振,英特爾Day 0適配<b class='flag-5'>騰訊</b><b class='flag-5'>開源</b>混元大模型

    開放原子開源基金會與騰訊云達(dá)成合作

    近日,在北京舉行的2025開放原子開源生態(tài)大會現(xiàn)場,開放原子開源基金會與騰訊云計(jì)算(北京)有限責(zé)任公司簽署“開源協(xié)作平臺互聯(lián)合作協(xié)議”。
    的頭像 發(fā)表于 08-05 11:06 ?1336次閱讀

    大家都在用什么AI軟件?有沒有好用的免費(fèi)的AI軟件推薦一下?

    大家都在用什么AI軟件?有沒有好用的免費(fèi)的AI軟件推薦一下?直接發(fā)個(gè)安裝包,謝謝。比如deepseek、Chatgpt、豆包、阿里AI、百度AI
    發(fā)表于 07-09 18:30

    NanoEdge AI Studio 面向STM32開發(fā)人員機(jī)器學(xué)習(xí)(ML)技術(shù)

    NanoEdge? AI Studio*(NanoEdgeAIStudio)是一種新型機(jī)器學(xué)習(xí)(ML)技術(shù),可以讓終端用戶輕松享有真正的創(chuàng)新成果。只需幾步,開發(fā)人員便可基于最少量的數(shù)據(jù)為其項(xiàng)目創(chuàng)建
    的頭像 發(fā)表于 04-22 11:09 ?1343次閱讀
    NanoEdge <b class='flag-5'>AI</b> Studio 面向STM32開發(fā)人員機(jī)器學(xué)習(xí)(<b class='flag-5'>ML</b>)技術(shù)

    開源AI MPU

    1. 基于RISC-V的開源AI MPU/加速器 ? ?**(1) SiFive Intelligence系列**? ? 特點(diǎn) ?:SiFive提供開源的RISC-V IP核,支持AI
    的頭像 發(fā)表于 04-02 17:44 ?2416次閱讀

    銷售易在騰訊云城市峰會上發(fā)布中國首款AI CRM

    3月19日,騰訊旗下CRM銷售易亮相騰訊云城市峰會上海站,以“智能加持,增長無憂”為主題承辦AI+CRM分論壇,騰訊副總裁、騰訊政企業(yè)務(wù)總裁
    的頭像 發(fā)表于 03-24 11:16 ?691次閱讀

    Banana Pi 與瑞薩電子攜手共同推動開源創(chuàng)新:BPI-AI2N

    2025年3月11日, Banana Pi 開源硬件平臺很高興宣布,與全球知名半導(dǎo)體解決方案供應(yīng)商瑞薩電子(Renesas Electronics)正式達(dá)成技術(shù)合作關(guān)系。此次合作標(biāo)志著雙方將在開源
    發(fā)表于 03-12 09:43