91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenGVLab開源平臺推動通用AI技術(shù)的規(guī)?;瘧?yīng)用

商湯科技SenseTime ? 來源:商湯科技SenseTime ? 作者:商湯科技SenseTime ? 2022-03-08 16:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

下面這幾張圖的內(nèi)容分別是什么?你或許一眼就能看出是打麻將、競速摩托、香檳、熊貓。

人工智能不一定可以。

雖然人工智能已經(jīng)強大到可以識別萬物,但很多AI模型只能完成單一的任務(wù),比如識別單一的物體,或者識別風(fēng)格較為統(tǒng)一的照片,如果換一種類型或者風(fēng)格,就愛莫能助。

現(xiàn)在,有一位“書生”,對于這不同類型的圖,它都能較為準(zhǔn)確地識別出其中的內(nèi)容,包括圖畫。

這需要有獨特的模型訓(xùn)練及標(biāo)簽體系,也要求模型具有一定的通用性,這樣才能對不同類型的圖片做出準(zhǔn)確的描述。

這位“書生”正是去年11月,由上海人工智能實驗室聯(lián)合商湯科技、香港中文大學(xué)、上海交通大學(xué),聯(lián)合發(fā)布的通用視覺技術(shù)體系“書生”(INTERN)。

今天,為了幫助業(yè)界更好地探索通用視覺AI技術(shù),基于“書生”技術(shù)體系的通用視覺平臺OpenGVLab正式發(fā)布并開源。

OpenGVLab開放的內(nèi)容包括其超高效預(yù)訓(xùn)練模型,和千萬級精標(biāo)注、十萬級標(biāo)簽量的公開數(shù)據(jù)集,為全球開發(fā)者提升各類下游視覺任務(wù)模型訓(xùn)練提供重要支持。

同時,OpenGVLab還同步開放業(yè)內(nèi)首個針對通用視覺模型的評測基準(zhǔn),便于開發(fā)者對不同通用視覺模型的性能進行橫向評估和持續(xù)調(diào)優(yōu)。

目前OpenGVLab開源平臺(opengvlab.shlab.org.cn)已正式上線,供各界研究人員訪問和使用,后續(xù)項目還將開通在線推理功能,供所有對人工智能視覺技術(shù)感興趣的社會人士自由體驗。

超高性能模型,展現(xiàn)極強的通用性

OpenGVLab繼承了“書生”體系的技術(shù)優(yōu)勢,其開源的預(yù)訓(xùn)練模型具有超高的性能和通用性。

具體而言,相較于當(dāng)前最強開源模型(OpenAI 于2021年發(fā)布的CLIP),OpenGVLab的模型可全面覆蓋分類、目標(biāo)檢測、語義分割、深度估計四大視覺核心任務(wù),在準(zhǔn)確率和數(shù)據(jù)使用效率上均取得大幅提升。

基于同樣的下游場景數(shù)據(jù),開源模型在分類、目標(biāo)檢測、語義分割及深度估計四大任務(wù)26個數(shù)據(jù)集上,平均錯誤率分別降低了40.2%、47.3%、34.8%和9.4%。

開源模型在分類、檢測、分割和深度估計中,僅用10%的下游訓(xùn)練數(shù)據(jù)就超過了現(xiàn)有其他開源模型。

使用此模型,研究人員可以大幅降低下游數(shù)據(jù)采集成本,用極低的數(shù)據(jù)量,即可快速滿足多場景、多任務(wù)的AI模型訓(xùn)練。

OpenGVLab還提供多種不同參數(shù)量、不同計算量的預(yù)訓(xùn)練模型,以滿足不同場景的應(yīng)用。模型庫中列出了多個模型,其在ImageNet的微調(diào)結(jié)果和推理資源、速度,相比于之前的公開模型均有不同程度的性能提升。

開放千萬級精標(biāo)注數(shù)據(jù)集

高性能的模型,離不開豐富數(shù)據(jù)集的訓(xùn)練。

除了預(yù)訓(xùn)練模型,以百億數(shù)據(jù)總量為基礎(chǔ),上海人工智能實驗室構(gòu)建了超大量級的精標(biāo)注數(shù)據(jù)集,近期將進行數(shù)據(jù)開源工作。

超大量級的精標(biāo)注數(shù)據(jù)集不僅整合了現(xiàn)有的開源數(shù)據(jù)集,還通過大規(guī)模數(shù)據(jù)圖像標(biāo)注任務(wù),實現(xiàn)了對圖像分類、目標(biāo)檢測以及圖像分割等任務(wù)的覆蓋,數(shù)據(jù)總量級近七千萬。開源范圍涵蓋千萬級精標(biāo)注數(shù)據(jù)集和十萬級標(biāo)簽體系。

目前,圖像分類任務(wù)數(shù)據(jù)集已率先開源,后續(xù)還將開源目標(biāo)檢測任務(wù)等更多數(shù)據(jù)集。

此外,此次開源的超大標(biāo)簽體系,不僅幾乎覆蓋了所有現(xiàn)有開源數(shù)據(jù)集,并在此基礎(chǔ)上擴充了大量細粒度標(biāo)簽,涵蓋各類圖像中的屬性、狀態(tài)等,極大豐富了圖像任務(wù)的應(yīng)用場景,顯著降低下游數(shù)據(jù)的采集成本。

研究人員還可以通過自動化工具添加更多標(biāo)簽,對數(shù)據(jù)標(biāo)簽體系進行持續(xù)擴展和延伸,不斷提高標(biāo)簽體系的細粒度,共同促進開源生態(tài)繁榮發(fā)展。

首個通用視覺評測基準(zhǔn)

伴隨OpenGVLab的發(fā)布,上海人工智能實驗室還開放了業(yè)內(nèi)首個針對通用視覺模型的評測基準(zhǔn),彌補通用視覺模型評測領(lǐng)域的空白。

當(dāng)前,行業(yè)中已有的評測基準(zhǔn)主要針對單一任務(wù)、單一視覺維度設(shè)計,無法反映通用視覺模型的整體性能,難以用于橫向比較。

全新的通用視覺評測基準(zhǔn)憑借在任務(wù)、數(shù)據(jù)等層面的創(chuàng)新設(shè)計,可以提供權(quán)威的評測結(jié)果,推動統(tǒng)一標(biāo)準(zhǔn)上的公平和準(zhǔn)確評測,加快通用視覺模型的產(chǎn)業(yè)化應(yīng)用步伐。

在任務(wù)設(shè)計上,OpenGVLab提供的通用視覺評測基準(zhǔn)創(chuàng)新地引入了多任務(wù)評測體系,可以從分類、目標(biāo)檢測、語義分割、深度估計、行為識別等5類任務(wù)方向,對模型的通用性能進行整體評估。

不僅如此,該評測基準(zhǔn)新加了僅用測試數(shù)據(jù)集10%數(shù)據(jù)量的評測設(shè)定,可以有效評估通用模型在真實數(shù)據(jù)分布下的小樣本學(xué)習(xí)能力。在測試后,評測基準(zhǔn)還會根據(jù)模型的評測結(jié)果給出相應(yīng)的總分,方便使用者對不同的模型進行橫向評測。

隨著人工智能與產(chǎn)業(yè)融合的不斷深入,行業(yè)對人工智能的需求逐漸從單一任務(wù)向復(fù)雜的多任務(wù)協(xié)同發(fā)展,亟需構(gòu)建開源、開放的體系,以滿足趨于碎片化和長尾化的海量應(yīng)用需求。

OpenGVLab的開源,將幫助開發(fā)者顯著降低通用視覺模型的開發(fā)門檻,用更低成本快速開發(fā)用于成百上千種視覺任務(wù)、視覺場景的算法模型,高效實現(xiàn)對長尾場景的覆蓋,推動通用AI技術(shù)的規(guī)?;瘧?yīng)用。

歡迎大家加入OpenGVLab,一起構(gòu)筑通用AI生態(tài)。

原文標(biāo)題:通用視覺研究利器來了!OpenGVLab平臺正式開源

文章出處:【微信公眾號:商湯科技SenseTime】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50098

    瀏覽量

    265423
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4207

    瀏覽量

    46151
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52112

原文標(biāo)題:通用視覺研究利器來了!OpenGVLab平臺正式開源

文章出處:【微信號:SenseTime2017,微信公眾號:商湯科技SenseTime】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    安科瑞核心技術(shù):破解鄉(xiāng)村微電網(wǎng)規(guī)?;?/b>推廣三大痛點

    如何平衡?偏遠地區(qū)微電網(wǎng)遠程運維難題如何破解?如何讓微電網(wǎng)既契合政策導(dǎo)向,又實現(xiàn)可持續(xù)盈利?安科瑞以“感知-控制-云平臺”全鏈條核心技術(shù),精準(zhǔn)破局鄉(xiāng)村微電網(wǎng)建設(shè)三大核心痛點,為規(guī)?;?/b>落地注入強勁
    的頭像 發(fā)表于 02-09 19:16 ?108次閱讀
    安科瑞核心<b class='flag-5'>技術(shù)</b>:破解鄉(xiāng)村微電網(wǎng)<b class='flag-5'>規(guī)?;?/b>推廣三大痛點

    摩爾線程×小馬智行|以國產(chǎn)AI算力加速中國自動駕駛規(guī)模化落地

    ,共同探索“AI算法+AI算力”深度融合的合作新范式,以安全可靠的AI算力,賦能自動駕駛技術(shù)迭代和商業(yè)落地。 ? 此次合作是中國人工智能領(lǐng)域產(chǎn)業(yè)鏈協(xié)同創(chuàng)新的重要示范——小馬智行首次在關(guān)
    的頭像 發(fā)表于 02-06 10:14 ?345次閱讀
    摩爾線程×小馬智行|以國產(chǎn)<b class='flag-5'>AI</b>算力加速中國自動駕駛<b class='flag-5'>規(guī)?;?/b>落地

    Arm技術(shù)驅(qū)動融合型AI數(shù)據(jù)中心規(guī)模化演進

    要實現(xiàn)人工智能 (AI) 的規(guī)?;?/b>應(yīng)用,唯一路徑便是開展全棧式系統(tǒng)設(shè)計。加速器負責(zé)處理驅(qū)動 AI 模型的數(shù)學(xué)運算,而 CPU 才是支撐系統(tǒng),將計算能力轉(zhuǎn)化為實際價值的核心基礎(chǔ)。
    的頭像 發(fā)表于 01-15 14:06 ?559次閱讀

    生命科學(xué)領(lǐng)先企業(yè)采用 NVIDIA BioNeMo 平臺加速 AI 驅(qū)動的藥物研發(fā)

    Discovery、Basecamp Research、Boltz 及生態(tài)系統(tǒng)領(lǐng)先企業(yè),將 NVIDIA BioNeMo、代理式 AI 與物理 AI 相結(jié)合,推動科學(xué)研究與藥物研發(fā)規(guī)?;?/div>
    的頭像 發(fā)表于 01-14 11:40 ?476次閱讀
    生命科學(xué)領(lǐng)先企業(yè)采用 NVIDIA BioNeMo <b class='flag-5'>平臺</b>加速 <b class='flag-5'>AI</b> 驅(qū)動的藥物研發(fā)

    Magna AI加入NVIDIA Inception計劃,推動生產(chǎn)級人工智能規(guī)模化發(fā)展

    Magna AI是一家由Trend Micro與Wistron的戰(zhàn)略合作成立的全球全價值鏈人工智能轉(zhuǎn)型領(lǐng)導(dǎo)者。公司今日宣布,已加入NVIDIA Inception計劃,躋身全球率先實現(xiàn)生產(chǎn)級規(guī)模化
    的頭像 發(fā)表于 01-12 15:46 ?176次閱讀

    Lenovo推出Agentic AI和Lenovo xIQ平臺,全面加速企業(yè)AI部署,規(guī)?;?/b>交付全生命周期混合AI解決方案

    Lenovo xIQ ——一套旨在簡化、加速并實現(xiàn)企業(yè)級AI規(guī)?;?/b>運營的全新AI原生交付平臺。此次升級將Lenovo成熟的Hybrid AI
    的頭像 發(fā)表于 01-08 14:51 ?881次閱讀

    泰芯半導(dǎo)體攜手生態(tài)伙伴助力AI硬件產(chǎn)業(yè)規(guī)?;?/b>落地

    當(dāng)前,AI大模型加速滲透硬件產(chǎn)業(yè),AI硬件正從 “單點智能” 邁向 “系統(tǒng)級智能”,大模型已成為硬件產(chǎn)品的基礎(chǔ)能力之一。順應(yīng)這一行業(yè)發(fā)展趨勢,珠海泰芯半導(dǎo)體有限公司(以下簡稱 “泰芯半導(dǎo)體”)積極攜手生態(tài)伙伴,以核心芯片技術(shù)賦能
    的頭像 發(fā)表于 01-05 17:18 ?1167次閱讀

    開源鴻蒙在三大關(guān)鍵領(lǐng)域落地規(guī)?;?/b>商用案例

    能,開源鴻蒙以全棧技術(shù)能力打破行業(yè)壁壘,在三大關(guān)鍵領(lǐng)域落地規(guī)模化商用案例,用技術(shù)實踐詮釋“萬物互聯(lián)”的真實價值,為產(chǎn)業(yè)數(shù)字轉(zhuǎn)型注入澎湃動能
    的頭像 發(fā)表于 12-03 17:38 ?1620次閱讀

    軟通動力攜手華為昇騰推進AI智能體規(guī)模化部署

    企業(yè)AI智能體規(guī)?;?/b>落地”主題演講,分享了軟通動力在AI智能體領(lǐng)域的前沿實踐與成熟解決方案,獲得行業(yè)高度關(guān)注。
    的頭像 發(fā)表于 09-28 17:50 ?1534次閱讀

    “香山”實現(xiàn)業(yè)界首個開源芯片的產(chǎn)品級交付與首次規(guī)?;?/b>應(yīng)用

    “香山”實現(xiàn)業(yè)界首個開源芯片的產(chǎn)品級交付與首次規(guī)?;?/b>應(yīng)用開源高性能RISC-V處理器核“香山”產(chǎn)業(yè)落地取得里程碑式突破。7月16-19日,在上海舉辦的2025RISC-V中國峰會期間,北京開源
    的頭像 發(fā)表于 08-01 18:16 ?1697次閱讀
    “香山”實現(xiàn)業(yè)界首個<b class='flag-5'>開源</b>芯片的產(chǎn)品級交付與首次<b class='flag-5'>規(guī)模化</b>應(yīng)用

    軟通動力如何推動工業(yè)AI規(guī)模化落地

    近日,在2025世界人工智能大會(WAIC 2025)“AI數(shù)算 重構(gòu)智造產(chǎn)鏈生態(tài)”2025智能趨勢論壇上,軟通動力集團咨詢與數(shù)字創(chuàng)新服務(wù)線聯(lián)席總裁李國亮受邀出席圓桌對話:《智造“最后一公里”》——工業(yè)AI落地的關(guān)鍵路徑與生態(tài)
    的頭像 發(fā)表于 07-30 17:27 ?1103次閱讀

    廣和通加速5G+AI規(guī)?;?/b>應(yīng)用

    規(guī)?;?/b>發(fā)展與豐富的行業(yè)應(yīng)用,這也為AI提供連接血脈和數(shù)字通道。5G提供高帶寬、低時延的確定性網(wǎng)絡(luò)能力,支撐AI終端實時控制與數(shù)據(jù)增量訓(xùn)練。
    的頭像 發(fā)表于 06-12 09:36 ?2823次閱讀

    IBM如何加速企業(yè)AI規(guī)模化應(yīng)用

    近日,由北京市人民政府主辦的第 27屆中國北京國際科技產(chǎn)業(yè)博覽會在北京國家會議中心隆重召開。IBM 大中華區(qū)首席技術(shù)官、技術(shù)銷售總經(jīng)理翟峰先生作為受邀嘉賓出席了會議,并圍繞“加速企業(yè) AI 規(guī)
    的頭像 發(fā)表于 05-16 14:45 ?837次閱讀

    AgiBot World Colosseo:構(gòu)建通用機器人智能的規(guī)?;?/b>數(shù)據(jù)平臺

    AgiBot World Colosseo:構(gòu)建通用機器人智能的規(guī)模化數(shù)據(jù)平臺 隨著人工智能在語言處理和計算機視覺領(lǐng)域取得突破,機器人技術(shù)仍面臨現(xiàn)實場景泛
    的頭像 發(fā)表于 03-12 11:42 ?1987次閱讀
    AgiBot World Colosseo:構(gòu)建<b class='flag-5'>通用</b>機器人智能的<b class='flag-5'>規(guī)?;?/b>數(shù)據(jù)<b class='flag-5'>平臺</b>

    Banana Pi 與瑞薩電子攜手共同推動開源創(chuàng)新:BPI-AI2N

    2025年3月11日, Banana Pi 開源硬件平臺很高興宣布,與全球知名半導(dǎo)體解決方案供應(yīng)商瑞薩電子(Renesas Electronics)正式達成技術(shù)合作關(guān)系。此次合作標(biāo)志著雙方將在
    發(fā)表于 03-12 09:43