91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

科大訊飛奪冠2019年度計算機視覺頂級會議CVPR和ICDAR多項評測

科大訊飛 ? 來源:yxw ? 2019-06-26 08:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

科大訊飛A.I.研究院聯(lián)合中科大語音及語言信息處理國家工程實驗室(NELSLIP)(以下統(tǒng)稱為訊飛-中科大聯(lián)合團隊)在近期舉辦的計算機視覺頂級會議CVPR 2019和文檔分析與識別頂級會議ICDAR 2019上的多項評測任務(wù)中獲得冠軍:

1.在計算機視覺與模式識別國際會議(CVPR 2019)舉辦的物體檢測挑戰(zhàn)賽DIW 2019(Detection in the Wild challenge Workshop 2019)上取得Objects365 Tiny Track第一,Objects365 Full Track第三的佳績;

2.在文檔分析與識別國際會議(ICDAR 2019)舉辦的多項賽事中,包攬手寫數(shù)學(xué)公式識別挑戰(zhàn)賽CROHME(Competition on Recognition of Handwritten Mathematical Expressions)全部兩項任務(wù)以及場景文本視覺問答挑戰(zhàn)賽ST-VQA(Scene Text Visual Question Answering)挑戰(zhàn)賽上全部三項任務(wù)冠軍,此外還取得了街景招牌中文文本識別挑戰(zhàn)賽ReCTS(Reading Chinese Text on Signboard)單字識別任務(wù)冠軍。

這一系列的佳績標志著科大訊飛在計算機視覺領(lǐng)域的積累日益深厚,始終保持著先進的水平和探索的步伐。

DIW2019挑戰(zhàn)賽

DIW 2019挑戰(zhàn)賽由曠視科技與北京智源人工智能研究院共同舉辦,該項賽事吸引了包括騰訊、百度、字節(jié)跳動等300多支隊伍參賽,其所采用的Objects365數(shù)據(jù)集包含63萬張圖像,高達1000萬人工標注框,覆蓋365個日常物體類別,堪稱最大通用物體檢測數(shù)據(jù)集。

相比于大家熟知的ImageNet和COCO數(shù)據(jù)集,Objects365數(shù)據(jù)集更貼近自然場景,覆蓋更多的類別并且提供了更密集的標注,由于數(shù)據(jù)分布極度不均衡,因此極大增加了比賽的難度,對算法提出了更高的要求。

作為計算機視覺的兩項基礎(chǔ)任務(wù),物體檢測和分割一直以來是業(yè)界主流的研究方向。科大訊飛團隊在2018年10月刷新了國際自動駕駛權(quán)威評測Cityscapes全部兩項子任務(wù)(駕駛場景語義分割和實例分割)的世界紀錄。

在本次DIW2019比賽中,訊飛-中科大聯(lián)合團隊在以往視覺技術(shù)積累的基礎(chǔ)上,針對該項任務(wù)中物體尺度多樣性和樣本數(shù)量分布不均衡的特點,對物體檢測的經(jīng)典框架Faster-RCNN進行針對性改進:混合樣本數(shù)據(jù)增強策略提升網(wǎng)絡(luò)的泛化能力;多級可變形卷積使得網(wǎng)絡(luò)的感受野能夠更加適應(yīng)相應(yīng)尺度下的候選框;級聯(lián)檢測方案逐步提升了候選框的質(zhì)量。此外針對更具挑戰(zhàn)性的Tiny Track任務(wù)(樣本數(shù)量?。?,遷移Objects365 Full Track模型提升Objects365 Tiny Track的性能,并融合兩個賽道模型進一步提升了Full Track的檢測效果。

物體檢測和分割在工業(yè)界同樣具有廣泛的應(yīng)用前景,科大訊飛在這兩項基礎(chǔ)任務(wù)上的技術(shù)積累不僅確保團隊在各項賽事中持續(xù)保持競爭力,也為應(yīng)用落地提供了扎實的技術(shù)保障,無論是訊飛翻譯機中的圖文識別,醫(yī)療影像領(lǐng)域中的輔助診斷,以及視頻結(jié)構(gòu)化技術(shù)中的視頻理解等,都蘊含著科大訊飛對核心技術(shù)的不懈追求和對應(yīng)用落地的堅定決心。

CROHME 挑戰(zhàn)賽

在2018年的ICPR MTWI圖文識別挑戰(zhàn)賽中科大訊飛A.I.研究院包攬了全部三項任務(wù)的冠軍,充分說明了科大訊飛在自然場景文字識別技術(shù)上的領(lǐng)先性。本次訊飛-中科大聯(lián)合團隊選擇挑戰(zhàn)難度更高的手寫數(shù)學(xué)公式識別任務(wù)CROHME。該項賽事由美國羅切斯特理工學(xué)院(Rochester Institute of Technology)負責承辦,吸引了MyScript、三星、 WIRIS(MathType)、中科院自動化所、中山大學(xué)等多家在手寫數(shù)學(xué)公式識別領(lǐng)域著名的國內(nèi)外研究機構(gòu)參與。

訊飛-中科大聯(lián)合團隊參加了在線手寫數(shù)學(xué)公式識別(Online Handwritten Mathematical Expressions Recognition)和離線手寫數(shù)學(xué)公式識別(Offline Handwritten Mathematical Expressions Recognition)的兩項主要任務(wù),這兩項任務(wù)的不同之處在于,前者的輸入為手寫數(shù)學(xué)公式的筆劃軌跡,它記錄了筆劃書寫的先后順序,常應(yīng)用于實時的在線手寫識別應(yīng)用場景,在線手寫識別系統(tǒng)需要采集用戶在手機、平板等在線化輸入設(shè)備上書寫的字符軌跡作為系統(tǒng)輸入;后者的輸入則為手寫數(shù)學(xué)公式的圖像,常應(yīng)用于拍照、掃描等離線手寫識別應(yīng)用場景,該場景下用戶只需要將手寫字符的照片送入離線手寫識別系統(tǒng)中即可完成分析與識別。

在線數(shù)學(xué)公式(手寫軌跡)

離線數(shù)學(xué)公式(靜態(tài)圖像)

CROHME 2019使用的數(shù)據(jù)集是由美國羅切斯特理工學(xué)院收集和標注的手寫數(shù)學(xué)公式,其中訓(xùn)練集共9993個,驗證集共986個,測試集共1199個,此次比賽不僅要求參賽系統(tǒng)識別出公式中的每個字符,還要求參賽系統(tǒng)給出被識別的字符之間的位置關(guān)系,因此,相比于常規(guī)OCR任務(wù),該任務(wù)的難點在于:

1)位置關(guān)系

位置關(guān)系不再只是常規(guī)OCR任務(wù)中單一的左右或者上下的關(guān)系,還存在垂直、包含、上下標等多種結(jié)構(gòu)關(guān)系以及這些結(jié)構(gòu)關(guān)系之間的組合嵌套;

2)字符尺寸

數(shù)學(xué)公式中的字符尺寸差異較常規(guī)OCR任務(wù)更大;

3)書寫風格

書寫者的書寫風格會使得某些不同字符之間容易產(chǎn)生混淆,且同樣的字符由不同書寫者書寫,不僅字符形態(tài)差異可能會很大,對于在線任務(wù)來說,其筆劃軌跡的順序也有可能會不一致;

科大訊飛在手寫文字識別領(lǐng)域已深耕多年。與將字符識別和位置關(guān)系識別分別建模的傳統(tǒng)數(shù)學(xué)公式識別思路不同,科大訊飛使用的參賽系統(tǒng)正是借鑒了手寫文字識別技術(shù)中基于空間注意力機制的Encoder-Decoder思想,實現(xiàn)了數(shù)學(xué)公式的字符和位置關(guān)系的端到端識別,同時提出了多尺度空間注意力機制以解決由字符尺寸差異較大帶來的識別字符丟失問題。此外,針對不同書寫者書寫風格迥異的問題,提出了空間注意力引導(dǎo)機制和時間注意力機制,從空間和時間兩個維度上提升注意力的準確度,最后融合了多種不同模態(tài)的信息提升了系統(tǒng)最終決策的效果。

基于雄厚的人工智能核心技術(shù),科大訊飛在應(yīng)用領(lǐng)域正積極落地。特別在教育領(lǐng)域,以行業(yè)領(lǐng)先的高精準手寫識別技術(shù)、智能評測技術(shù)為典型應(yīng)用代表的智能評卷系統(tǒng),目前已經(jīng)在CET、多地中高考中實現(xiàn)了人機結(jié)合的智能輔助評分新方式,最大限度的保證了評卷質(zhì)量。同時,在日常教學(xué)環(huán)節(jié)中,基于對每一個學(xué)生個體作業(yè)練習(xí)測試的精準識別和深度數(shù)據(jù)挖掘,科大訊飛形成了以數(shù)據(jù)驅(qū)動方式實現(xiàn)的個性化精準教學(xué)。通過圖文識別、智能評測分析每個學(xué)生的知識掌握薄弱環(huán)節(jié),針對性地實現(xiàn)個性化學(xué)習(xí)推薦,讓每個孩子回家后有針對自己能力水平的不同家庭作業(yè),讓每個老師有更多的時間推動因材施教。

ST-VQA挑戰(zhàn)賽

ST-VQA(Scene Text Visual Question Answering)是由CVC(Computer Vision Center)舉辦的一項視覺問答挑戰(zhàn)賽,要求算法能夠像人類一樣解析圖像中實體之間的關(guān)系,并正確地回答出問題。這一方面對算法的圖像檢測和分割等前端技術(shù)提出了要求;另一方面還需要算法具備多模態(tài)數(shù)據(jù)融合、理解和推理的能力,是未來人工智能的發(fā)展方向之一。

如在下圖的場景中為了找出藍色公交車的目的地,首先需要正確地識別出藍色公交車的位置,并推理出公交車的目的地顯示在公交車前方的電子顯示屏上,最后需要算法識別出電子顯示屏上的內(nèi)容。

ST-VQA比賽總共分為三個任務(wù),分別為Task1-Strongly Contextualized、Task2-Weakly Contextualized和Task3-Open Dictionary,這三項任務(wù)的不同之處在于Task1會對每張圖像給定一個候選詞表,Task2會對整個數(shù)據(jù)集給定一個候選詞表,而Task3則沒有額外的詞表用于輔助答案的預(yù)測。這三個任務(wù)的難度逐漸增加,訊飛-中科大聯(lián)合團隊參加了全部三項比賽,并包攬冠軍。

針對于此次參加的ST-VQA任務(wù),訊飛-中科大聯(lián)合團隊將模型分為視覺理解前端模型和視覺推理后端模型。文本檢測和物體檢測模型作為前端模型從圖像中提取出有效實體,此外針對數(shù)據(jù)集中的語料少的問題,借鑒了科大訊飛在SQuAD2.0評測任務(wù)上采用無監(jiān)督預(yù)訓(xùn)練模型的思想并加以改進,成功融入到了前端模塊中。

在后端網(wǎng)絡(luò)的設(shè)計上,團隊設(shè)計了相應(yīng)的Encoder-Decoder模型用于融合上述從圖像中提取得到的實體信息和問題數(shù)據(jù)并預(yù)測出答案,此外在Encoder-Decoder模型的設(shè)計過程中融合了多任務(wù)的設(shè)計思想,使其能夠兼容三項任務(wù),從而使得這三項任務(wù)能夠同時訓(xùn)練,相互提升。參加ST-VQA比賽,是訊飛在視覺理解以及多模態(tài)數(shù)據(jù)融合方面的前瞻性探索,比賽中使用的技術(shù)為公司未來在多模態(tài)交互方面的發(fā)展打下了基礎(chǔ)。

作為亞太地區(qū)知名的智能語音與人工智能上市公司,圍繞著訊飛超腦,科大訊飛一直秉承技術(shù)頂天、產(chǎn)品落地的戰(zhàn)略理念,在核心技術(shù)上不斷創(chuàng)新?;诖耍拼笥嶏w在智能語音、自然語言處理等領(lǐng)域碩果累累,也在視覺場景理解領(lǐng)域獲得長足進步,并且積極推動相關(guān)賽道技術(shù)落地,在教育、醫(yī)療、政法等業(yè)務(wù)上已經(jīng)取得了很好的成效。未來,訊飛將全面持續(xù)推進核心技術(shù)的優(yōu)化迭代與落地應(yīng)用,努力踐行用人工智能建設(shè)美好世界的公司使命。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39755

    瀏覽量

    301366
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47625
  • 科大訊飛
    +關(guān)注

    關(guān)注

    19

    文章

    860

    瀏覽量

    63715

原文標題:科大訊飛奪冠2019年度計算機視覺頂級會議CVPR和ICDAR多項評測

文章出處:【微信號:iFLYTEK1999,微信公眾號:科大訊飛】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    CVPR 2019看事件相機步態(tài)識別:技術(shù)突破與產(chǎn)品應(yīng)用

    這篇題為《EV-Gait:Event-basedRobustGaitRecognitionusingDynamicVisionSensors》的論文發(fā)表于計算機視覺領(lǐng)域的頂級會議CVPR201
    的頭像 發(fā)表于 02-27 16:22 ?712次閱讀
    從<b class='flag-5'>CVPR</b> <b class='flag-5'>2019</b>看事件相機步態(tài)識別:技術(shù)突破與產(chǎn)品應(yīng)用

    中科曙光榮獲深圳市計算機學(xué)會2024年度杰出貢獻獎

    近日,中科曙光憑借在產(chǎn)學(xué)研融合、核心技術(shù)攻堅及綠色低碳領(lǐng)域的突出貢獻,榮獲深圳市計算機學(xué)會(SZCCF)年度貢獻獎,并受邀出席頒獎典禮。
    的頭像 發(fā)表于 01-27 17:46 ?1100次閱讀
    中科曙光榮獲深圳市<b class='flag-5'>計算機</b>學(xué)會2024<b class='flag-5'>年度</b>杰出貢獻獎

    飛星辰Agent平臺入選36氪WISE 2025年度焦點產(chǎn)品

    近日,憑借在企業(yè)應(yīng)用落地方面的卓越表現(xiàn),飛星辰Agent平臺成功入選“36氪 WISE2025年度焦點產(chǎn)品”。
    的頭像 發(fā)表于 12-17 11:47 ?711次閱讀

    上海計算機視覺企業(yè)行學(xué)術(shù)沙龍走進西井科技

    12月5日,由中國圖象圖形學(xué)學(xué)會青年工作委員會(下簡稱“青工委”)、上海市計算機學(xué)會計算機視覺專委會(下簡稱“專委會”)聯(lián)合主辦,上海西井科技股份有限公司、江蘇路街道商會承辦的“上海計算機
    的頭像 發(fā)表于 12-16 15:39 ?578次閱讀

    深開鴻榮獲2025年度中國計算機學(xué)會“技術(shù)發(fā)明一等獎”!

    202510月24日,在中國計算機學(xué)會(CCF)主辦的2025中國計算機大會(CNCC2025)頒獎典禮上,正式揭曉了2025年度“CCF科技成果獎”評選結(jié)果,由深開鴻聯(lián)合北京大學(xué)、
    的頭像 發(fā)表于 10-27 15:21 ?707次閱讀
    深開鴻榮獲2025<b class='flag-5'>年度</b>中國<b class='flag-5'>計算機</b>學(xué)會“技術(shù)發(fā)明一等獎”!

    openKylin榮獲2025年度中國計算機學(xué)會科技進步特等獎

    近日,中國計算機學(xué)會(CCF)公布了2025年度“CCF科技成果獎”評選結(jié)果,共有38個項目分獲自然科學(xué)獎、技術(shù)發(fā)明獎和科技進步獎。其中,由麒麟軟件有限公司、國防科技大學(xué)與開放原子開源基金會聯(lián)合申報
    的頭像 發(fā)表于 09-26 14:46 ?746次閱讀

    地平線H-RDT模型斬獲CVPR 2025大賽冠軍

    近日,在計算機視覺與模式識別領(lǐng)域頂級會議CVPR 2025舉辦的RoboTwin雙臂機器人競賽中,地平線機器人實驗室與清華大學(xué)計算機系朱軍團
    的頭像 發(fā)表于 08-21 10:02 ?668次閱讀
    地平線H-RDT模型斬獲<b class='flag-5'>CVPR</b> 2025大賽冠軍

    易控智駕榮獲計算機視覺頂會CVPR 2025認可

    近日,2025國際計算機視覺與模式識別頂級會議(IEEE/CVF Conference on Computer Vision and Pattern Recognition,
    的頭像 發(fā)表于 07-29 16:54 ?1209次閱讀

    思必馳與上海交大聯(lián)合實驗室研究成果入選兩大頂級會議

    近日,計算語言學(xué)與自然語言處理領(lǐng)域全球頂級會議ACL 2025及語音研究領(lǐng)域旗艦會議INTERSPEECH 2025相繼公布論文錄用結(jié)果。思必馳-上海交大聯(lián)合實驗室表現(xiàn)亮眼,共有13篇論文被兩大
    的頭像 發(fā)表于 07-11 16:24 ?924次閱讀
    思必馳與上海交大聯(lián)合實驗室研究成果入選兩大<b class='flag-5'>頂級會議</b>

    格靈深瞳六篇論文入選ICCV 2025

    近日,國際頂級會議ICCV 2025(計算機視覺國際大會)公布論文錄用結(jié)果,格靈深瞳團隊共有6篇論文入選。
    的頭像 發(fā)表于 07-07 18:23 ?1551次閱讀

    理想汽車八篇論文入選ICCV 2025

    ,與CVPR(國際計算機視覺與模式識別會議)、ECCV(歐洲計算機視覺國際
    的頭像 發(fā)表于 07-03 13:58 ?1111次閱讀

    NVIDIA榮獲CVPR 2025輔助駕駛國際挑戰(zhàn)賽冠軍

    NVIDIA 在本周美國田納西州舉辦的國際計算機視覺與模式識別會議CVPR)上榮獲“端到端輔助駕駛”賽道冠軍。這一消息是在“自主系統(tǒng)具身智能研討會”上宣布的。
    的頭像 發(fā)表于 06-16 14:44 ?927次閱讀

    睿創(chuàng)微納AI芯片技術(shù)登上國際計算機體系結(jié)構(gòu)領(lǐng)域頂級會議

    近日,國際計算機體系結(jié)構(gòu)領(lǐng)域頂級會議HPCA 2025(International Symposium on High-Performance Computer Architecture)在美國召開。會議共收到534篇來自全球頂
    的頭像 發(fā)表于 05-19 15:57 ?969次閱讀

    挑戰(zhàn)具身機器人協(xié)同操作新高度!地瓜機器人邀你共戰(zhàn)CVPR 2025雙臂協(xié)作機器人競賽

    引言20256月,全球計算機視覺與人工智能領(lǐng)域的頂級盛會——CVPR(IEEE/CVFConferenceonComputerVision
    的頭像 發(fā)表于 04-11 05:30 ?1463次閱讀
    挑戰(zhàn)具身機器人協(xié)同操作新高度!地瓜機器人邀你共戰(zhàn)<b class='flag-5'>CVPR</b> 2025雙臂協(xié)作機器人競賽

    英飛凌邊緣AI平臺通過Ultralytics YOLO模型增加對計算機視覺的支持

    計算機視覺的支持,擴大了當前對音頻、雷達和其他時間序列信號數(shù)據(jù)的支持范圍。在增加這項支持后,該平臺將能夠用于開發(fā)低功耗、低內(nèi)存的邊緣AI視覺模型。這將給諸多應(yīng)用領(lǐng)域的機器學(xué)習(xí)開發(fā)人員帶來極大的便利,例如工廠可以借此實現(xiàn)對零件的
    的頭像 發(fā)表于 03-11 15:11 ?813次閱讀
    英飛凌邊緣AI平臺通過Ultralytics YOLO模型增加對<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>的支持