91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

知行科技大模型研發(fā)體系初見(jiàn)效果

知行科技iMotion ? 來(lái)源:知行科技iMotion ? 2024-12-27 09:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

數(shù)據(jù)的質(zhì)量和規(guī)模才是端到端的“命脈”

11月,知行科技作為共同第一作者提出的Strong Vision Transformers Could BeExcellent Teachers(ScaleKD),以預(yù)訓(xùn)練ViT(視覺(jué)Transformer)模型作為教師,CNN網(wǎng)絡(luò)作為學(xué)生進(jìn)行學(xué)習(xí)。推進(jìn)異構(gòu)神經(jīng)網(wǎng)絡(luò)間知識(shí)蒸餾研究的具體范式/方法,被收錄于NeurIPS 2024(第38屆神經(jīng)信息處理系統(tǒng)會(huì)議)。

這是知行科技構(gòu)建大模型體系能力的初步成果之一。2024年年中,知行科技開(kāi)始從資源、組織等多線程入手,打造面向大模型的研發(fā)架構(gòu)體系,并完成組織架構(gòu)調(diào)整,引入包括清華大學(xué)計(jì)算機(jī)博士背景的大模型架構(gòu)師等多位大模型與自動(dòng)駕駛領(lǐng)域?qū)<?,?gòu)建起對(duì)齊主流的研發(fā)組織架構(gòu)和專(zhuān)家人才庫(kù),為2025落地端到端大模型系統(tǒng)上車(chē)做好準(zhǔn)備。

01構(gòu)建以數(shù)據(jù)為中心的開(kāi)發(fā)體系

端到端讓所有智駕玩家有機(jī)會(huì)重新站上起跑線,但做端到端的挑戰(zhàn)并不全在于“模型”本身。

特斯拉FSD研發(fā)負(fù)責(zé)人Andrej Karpathy曾表示,特斯拉自動(dòng)駕駛部門(mén)將3/4的精力用在采集、清洗、分類(lèi)、標(biāo)注高質(zhì)量數(shù)據(jù)上,只有1/4用于算法探索和模型創(chuàng)建。究其原因,數(shù)據(jù)是人工智能發(fā)展的燃料,而端到端大模型將AI的“油耗”水平推到了新的高度。

“100萬(wàn)個(gè)視頻 Case 訓(xùn)練,勉強(qiáng)夠用;200萬(wàn)個(gè),稍好一些;300萬(wàn)個(gè),就會(huì)感到Wow;到了1000 萬(wàn)個(gè),就變得難以置信了。”特斯拉創(chuàng)始人馬斯克曾這樣量化FSD的訓(xùn)練數(shù)據(jù)需求。

問(wèn)題是,雖然人類(lèi)活動(dòng)生生不息,有效數(shù)據(jù)卻不是源源不斷。ChatGPT 3 的開(kāi)發(fā)文檔中提到,45TB的純文本質(zhì)量過(guò)濾后,僅獲得570GB的文本,有效數(shù)據(jù)僅為1.27%。大語(yǔ)言和多模態(tài)模型領(lǐng)域已經(jīng)開(kāi)始出現(xiàn)高質(zhì)量的真實(shí)文本、視頻數(shù)據(jù)耗盡,性能撞墻的情況。

對(duì)自動(dòng)駕駛來(lái)說(shuō),高質(zhì)量的數(shù)據(jù)多來(lái)自罕見(jiàn)路況和場(chǎng)景,產(chǎn)生條件苛刻,導(dǎo)致樣本量相對(duì)語(yǔ)言類(lèi)更為稀缺,更是難以滿足大模型的參數(shù)需求。

目前,端到端自動(dòng)駕駛系統(tǒng)上車(chē)帶來(lái)更上限的同時(shí),也開(kāi)始遭遇數(shù)據(jù)分布問(wèn)題、高質(zhì)量數(shù)據(jù)不足,導(dǎo)致的部分場(chǎng)景性能回退、困難場(chǎng)景性能不穩(wěn)定的情況。

數(shù)據(jù)的質(zhì)量和規(guī)模才是端到端的“命脈”。知行科技在進(jìn)入端到端賽道時(shí),決定構(gòu)建“以數(shù)據(jù)為中心”的研發(fā)體系,用以滿足大模型對(duì)高質(zhì)量數(shù)據(jù)“貪婪”的特性。

知行科技重構(gòu)研發(fā)組織架構(gòu),形成大模型、模型部署、基礎(chǔ)設(shè)施、大數(shù)據(jù)等多模塊在內(nèi)的主流人工智能開(kāi)發(fā)框架。其中,大模型組不僅在模型層面提供新的技術(shù)支持,在數(shù)據(jù)自動(dòng)標(biāo)注算法、基于擴(kuò)散模型的數(shù)據(jù)生成、基于多模態(tài)大模型的數(shù)據(jù)挖掘方面也都有發(fā)力,以更低成本的數(shù)據(jù)生產(chǎn)為目標(biāo),保質(zhì)保量地滿足知行科技端到端大模型的數(shù)據(jù)需求。

02仿真數(shù)據(jù),數(shù)據(jù)戰(zhàn)爭(zhēng)的下一步

當(dāng)數(shù)據(jù)需求是百萬(wàn)clips起步時(shí),應(yīng)該如何打這場(chǎng)數(shù)據(jù)戰(zhàn)爭(zhēng)?

知行科技一方面強(qiáng)化自有數(shù)據(jù)采集和標(biāo)注能力,并與生態(tài)伙伴形成一定程度的數(shù)據(jù)協(xié)同;

在數(shù)據(jù)采集方面,知行科技已自建采集車(chē)隊(duì),自主搭建數(shù)據(jù)采集軟件、車(chē)端采集系統(tǒng)和后端耦合系統(tǒng),實(shí)現(xiàn)數(shù)據(jù)采集全鏈條的自動(dòng)化和高度可控,日采集效率達(dá)20萬(wàn)幀,為BEV行泊車(chē)功能閉環(huán)量產(chǎn)提供必要的數(shù)據(jù)支持。

在數(shù)據(jù)標(biāo)注方面,知行科技已經(jīng)建成自動(dòng)化標(biāo)注體系并在不斷地完善,在OD(障礙物檢測(cè))、LD(車(chē)道線檢測(cè))項(xiàng)目中實(shí)現(xiàn)完全自動(dòng)標(biāo)注,整體減少至少50%的數(shù)據(jù)標(biāo)注成本。

與此同時(shí),面向端到端系統(tǒng)海量數(shù)據(jù)需求,知行科技則借助大模型的能力,探索仿真數(shù)據(jù)的產(chǎn)業(yè)應(yīng)用前景。

12月,OpenAI和谷歌先后發(fā)布了視頻產(chǎn)品,提供文本、圖像、視頻轉(zhuǎn)視頻的功能,展現(xiàn)出擴(kuò)散模型等大模型對(duì)現(xiàn)實(shí)世界極強(qiáng)的復(fù)現(xiàn)和“改寫(xiě)”能力。事實(shí)上,包括特斯拉在內(nèi)的自動(dòng)駕駛頭部玩家,也已正在加大仿真數(shù)據(jù)領(lǐng)域的投入。

因?yàn)?,仿真?shù)據(jù)在數(shù)據(jù)生產(chǎn)降本,和稀有場(chǎng)景數(shù)據(jù)獲得方面,有著至關(guān)重要的作用:

經(jīng)過(guò)良好預(yù)訓(xùn)練的大模型能夠“向前”,渲染復(fù)制現(xiàn)實(shí)世界生成圖像,并通過(guò)在虛擬世界中車(chē)輛動(dòng)態(tài)擺放,僅用幾分鐘生成成千上萬(wàn)段仿真場(chǎng)景信息;

也能夠“向后”推理,基于已有場(chǎng)景和環(huán)境信息,進(jìn)行規(guī)劃控制的學(xué)習(xí),打通整個(gè)感知和規(guī)劃鏈路;

此外,基于對(duì)物理世界的理解,大模型還能夠通過(guò)改變場(chǎng)景中的關(guān)鍵數(shù)值,提升數(shù)采場(chǎng)景的有效比例。

目前,知行科技通過(guò)大模型進(jìn)行數(shù)據(jù)生成已取得階段性成果:能夠使用原圖進(jìn)行天氣,光照等條件的修改達(dá)到快速擴(kuò)充真值的目標(biāo);通過(guò)給定特殊控制量,達(dá)到數(shù)據(jù)生產(chǎn)的目的。通過(guò)在自動(dòng)標(biāo)注和大模型數(shù)據(jù)生成方面的全面布局,知行科技在數(shù)據(jù)生產(chǎn)的降本和質(zhì)量提升方面,已取得實(shí)質(zhì)性進(jìn)展。

此外,在數(shù)據(jù)挖掘方面,知行科技已初步建成ImoGPT-多模態(tài)大模型的安全解決方案,通過(guò)MoE(混合專(zhuān)家系統(tǒng))大模型,進(jìn)行文本理解、圖片理解和視頻理解。其將在實(shí)現(xiàn)場(chǎng)景可解釋性、數(shù)據(jù)挖掘、端到端安全方案等多方面發(fā)揮重要作用。

03大模型,有教無(wú)類(lèi)的“良師”

大模型可以是數(shù)據(jù)的生產(chǎn)者,也可以是端側(cè)小模型的“好老師”。

如ChatGPT解釋?zhuān)瑧{借龐大的參數(shù)量和復(fù)雜的結(jié)構(gòu),大模型能夠通過(guò)海量數(shù)據(jù)訓(xùn)練,發(fā)現(xiàn)新的、更高層次的特征和模式,表現(xiàn)出未能預(yù)測(cè)、更復(fù)雜的能力和特性,實(shí)現(xiàn)智能的涌現(xiàn)?!坝楷F(xiàn)能力”也是大模型擴(kuò)大使用場(chǎng)景,提升泛化性的核心。但大模型也存在計(jì)算資源消耗巨大、推理速度慢、模型可解釋性差的問(wèn)題,難以被部署在計(jì)算和能耗都非常有限的端側(cè)。

如何使端模型也獲得相應(yīng)的知識(shí)和泛化能力,知識(shí)蒸餾(Knowledge Distillation)技術(shù)應(yīng)運(yùn)而生:將大模型學(xué)到的知識(shí)遷移到一個(gè)更小的模型中,保持性能的同時(shí)降低模型部署難度和計(jì)算開(kāi)銷(xiāo)。

知行科技被NeurIPS 收錄的ScaleKD,正是一種大模型知識(shí)蒸餾方法。

8c6d8532-c371-11ef-9310-92fbcf53809c.png

ScaleKD通過(guò)結(jié)合三個(gè)緊密耦合的組件(交叉注意力投影器,雙視圖特征模仿和教師參數(shù)感知),對(duì)齊云端教師模型和端側(cè)學(xué)生模型之間的特征計(jì)算范式差異、型規(guī)模差異和知識(shí)密度差異,實(shí)現(xiàn)任何目標(biāo)學(xué)生模型在大規(guī)模數(shù)據(jù)集上的時(shí)間密集的預(yù)訓(xùn)練范式。

這意味著,大模型能夠作為“有教無(wú)類(lèi)”的良師,將知識(shí)和規(guī)律“復(fù)制”到端側(cè)模型,大幅提升其性能和泛化性。

從前沿學(xué)術(shù)研究出發(fā),知行科技將根據(jù)實(shí)際中使用的端模型,構(gòu)建對(duì)應(yīng)的老師模型進(jìn)行訓(xùn)練,獲得更強(qiáng)的能力,從而通過(guò)知識(shí)蒸餾提高端模型的學(xué)習(xí)效果和速度。

端到端大模型的應(yīng)用,為智能駕駛玩家?guī)?lái)重新開(kāi)局的機(jī)會(huì)。中國(guó)的場(chǎng)景復(fù)雜性、市場(chǎng)需求,中國(guó)團(tuán)隊(duì)工程化和應(yīng)用落地的能力,以及大模型技術(shù)領(lǐng)域不斷涌現(xiàn)的新能力,使后來(lái)者能夠快速、確定性地切入賽道。

知行科技著力構(gòu)建的數(shù)據(jù)生產(chǎn)能力,積累的高質(zhì)量數(shù)據(jù),將為端到端模型訓(xùn)練提供源源不斷的”燃料“,推動(dòng)智駕功能從“能用”、“好用”,走向消費(fèi)者“愛(ài)用”的未來(lái)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14880

    瀏覽量

    179800
  • 知行科技
    +關(guān)注

    關(guān)注

    1

    文章

    84

    瀏覽量

    4114
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5179

原文標(biāo)題:備戰(zhàn)端到端,知行科技大模型研發(fā)體系初見(jiàn)效果

文章出處:【微信號(hào):gh_dd1765c34afb,微信公眾號(hào):知行科技iMotion】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    知行科技開(kāi)啟“人工智能+”場(chǎng)景落地新篇章

    2025年,是知行科技成立的第九年。這一年,在深化輔助駕駛業(yè)務(wù)“基本盤(pán)”的同時(shí),公司成功開(kāi)辟具身智能“新戰(zhàn)線”,行業(yè)領(lǐng)先的小算力BEV泊車(chē)量產(chǎn)產(chǎn)品,端到端城市NOA功能閉環(huán),軟硬一體、全棧自研的艾摩
    的頭像 發(fā)表于 02-11 16:37 ?1001次閱讀

    知行科技如何用小算力躋身第一梯隊(duì)

    當(dāng)時(shí)當(dāng)刻,量產(chǎn)Deadline、模型算法高上限低下限的特性,還有全行業(yè)追高階、追標(biāo)配的焦灼氣氛都沉沉地壓在知行科技泊車(chē)團(tuán)隊(duì)每個(gè)同學(xué)心頭,天還沒(méi)亮,每個(gè)人都在咬牙堅(jiān)持。
    的頭像 發(fā)表于 12-25 09:21 ?471次閱讀

    知行科技亮相2025地平線技術(shù)生態(tài)大會(huì)

    12月8日、9日,知行科技作為地平線征程6BEM系列芯片軟硬件合作伙伴亮相地平線技術(shù)生態(tài)大會(huì),并展出了基于征程6BEM系列芯片打造的組合輔助駕駛解決方案,覆蓋主動(dòng)安全到高階領(lǐng)航功能;同時(shí),知行科技iRC100P具身AI BOX也亮相大會(huì),成為
    的頭像 發(fā)表于 12-12 12:50 ?1366次閱讀

    車(chē)百會(huì)理事長(zhǎng)張永偉赴知行科技調(diào)研交流

    近日,車(chē)百會(huì)理事長(zhǎng)張永偉率隊(duì)前往知行科技參訪,與知行科技創(chuàng)始人、董事長(zhǎng)兼CEO宋陽(yáng)及創(chuàng)始團(tuán)隊(duì)就輔助駕駛、具身智能、中國(guó)供應(yīng)鏈出海等話題進(jìn)行了深入交流,并參觀知行科技最新技術(shù)成果和智造基地。
    的頭像 發(fā)表于 12-01 16:48 ?574次閱讀

    國(guó)際權(quán)威認(rèn)證加持!“全球Robotaxi第一股”文遠(yuǎn)知行筑牢隱私安全屏障

    ,成功斬獲 ISO/IEC 27701:2019 隱私信息管理體系認(rèn)證。這一成果不僅是對(duì)文遠(yuǎn)知行在信息安全與隱私保護(hù)領(lǐng)域長(zhǎng)期投入的肯定,更標(biāo)志著該企業(yè)的隱私管理體系已達(dá)到國(guó)際領(lǐng)先水平,為自動(dòng)駕駛行業(yè)樹(shù)立了隱私保護(hù)的標(biāo)桿。
    的頭像 發(fā)表于 11-02 09:34 ?541次閱讀
    國(guó)際權(quán)威認(rèn)證加持!“全球Robotaxi第一股”文遠(yuǎn)<b class='flag-5'>知行</b>筑牢隱私安全屏障

    商湯絕影亮相汽車(chē)之家全球AI科技大會(huì)

    近日,由汽車(chē)之家主辦的「汽車(chē)之家全球AI科技大會(huì)」在北京舉行。商湯科技聯(lián)合創(chuàng)始人、執(zhí)行董事、CTO、商湯絕影CEO王曉剛出席大會(huì),并發(fā)表《世界模型:智能駕駛范式演進(jìn)新路標(biāo)》主題演講,分享了“絕影開(kāi)悟”世界模型給智能駕駛帶來(lái)的技術(shù)
    的頭像 發(fā)表于 09-29 14:09 ?626次閱讀

    土耳其中東科技大學(xué)科技園到訪智行者

    近日,智行者迎來(lái)土耳其中東科技大學(xué)科技園總經(jīng)理Serdar Alemdar先生到訪。中東科技大學(xué)成立于1956年,是土耳其最負(fù)盛名的大學(xué)之一。中東科技大學(xué)科技園作為土耳其乃至整個(gè)中東地區(qū)最著名
    的頭像 發(fā)表于 09-24 17:23 ?1118次閱讀

    知行科技機(jī)器人業(yè)務(wù)新獲一項(xiàng)合作

    近日,知行科技的機(jī)器人業(yè)務(wù)新獲一項(xiàng)合作,國(guó)內(nèi)頭部機(jī)器人公司委托開(kāi)發(fā)背包式機(jī)器人全棧解決方案。
    的頭像 發(fā)表于 09-03 18:12 ?804次閱讀

    電子科技大學(xué)深圳高等研究院領(lǐng)導(dǎo)蒞臨景嘉微調(diào)研考察

    近日,電子科技大學(xué)(深圳)高等研究院黨委書(shū)記鄒見(jiàn)效率隊(duì)蒞臨景嘉微進(jìn)行調(diào)研考察。隨行領(lǐng)導(dǎo)包括高等研究院院長(zhǎng)助理、人力資源中心主任高晶,科研發(fā)展中心主任王柯,以及先進(jìn)技術(shù)研究院副院長(zhǎng)劉蓉等。景嘉微董事長(zhǎng)兼總裁曾萬(wàn)輝,副總經(jīng)理曹澤文,
    的頭像 發(fā)表于 07-15 14:49 ?1108次閱讀

    知行科技30天內(nèi)獲得14款車(chē)型定點(diǎn)

    近日,知行科技收到某頭部自主品牌5款車(chē)型的定點(diǎn)函,包括主流量產(chǎn)乘用車(chē)和商用車(chē)等多種車(chē)型。知行科技將為其提供iDC輔助駕駛域控和iFC前視一體機(jī)等多種解決方案,充分滿足不同車(chē)型定位,和海內(nèi)外市場(chǎng)的差異化需求。
    的頭像 發(fā)表于 07-15 10:30 ?790次閱讀

    探索吉他音色與效果器的奇妙世界(3)- 時(shí)延和哇音效果

    本文是第二屆電力電子科普征文大賽的獲獎(jiǎng)作品,來(lái)自上海科技大學(xué)李晨曦的投稿。時(shí)延類(lèi)效果器如果失真類(lèi)效果器是拿信號(hào)的幅值開(kāi)刀,那么時(shí)延類(lèi)效果器則是在信號(hào)的時(shí)域特性上做文章。根據(jù)原理的不同,
    的頭像 發(fā)表于 06-14 10:00 ?1520次閱讀
    探索吉他音色與<b class='flag-5'>效果</b>器的奇妙世界(3)- 時(shí)延和哇音<b class='flag-5'>效果</b>器

    《中國(guó)企業(yè)家》專(zhuān)訪文遠(yuǎn)知行CEO韓旭:Uber認(rèn)可文遠(yuǎn)知行技術(shù)具有領(lǐng)先性

    近日,文遠(yuǎn)知行創(chuàng)始人兼CEO韓旭在接受《中國(guó)企業(yè)家》雜志采訪時(shí),對(duì)公司未來(lái)發(fā)展充滿信心,著重強(qiáng)調(diào)了文遠(yuǎn)知行在自動(dòng)駕駛領(lǐng)域的領(lǐng)先地位,尤其是在與Uber深化合作及安全技術(shù)方面的卓越表現(xiàn)?!癠ber
    的頭像 發(fā)表于 05-15 14:53 ?862次閱讀
    《中國(guó)企業(yè)家》專(zhuān)訪文遠(yuǎn)<b class='flag-5'>知行</b>CEO韓旭:Uber認(rèn)可文遠(yuǎn)<b class='flag-5'>知行</b>技術(shù)具有領(lǐng)先性

    知行科技全資子公司擬收購(gòu)小工匠機(jī)器人大部分股份

    近日,知行科技旗下專(zhuān)注機(jī)器人研發(fā)及商業(yè)化的全資子公司艾摩星機(jī)器人與蘇州小工匠機(jī)器人有限公司(“小工匠”)簽署股權(quán)轉(zhuǎn)讓框架協(xié)議,艾摩星機(jī)器人將出資收購(gòu)小工匠大部分股份,成為控股股東。以此為開(kāi)端,知行科技正快速提升在機(jī)器人關(guān)鍵部件層
    的頭像 發(fā)表于 05-13 14:51 ?928次閱讀

    知行汽車(chē)科技宣布更名“知行科技”

    3月17日,知行汽車(chē)科技(蘇州)股份有限公司(1274.HK)股票簡(jiǎn)稱(chēng)從“知行汽車(chē)科技”變更為“知行科技”,以更好反應(yīng)公司的業(yè)務(wù)范圍——新切入機(jī)器人領(lǐng)域。
    的頭像 發(fā)表于 03-13 16:55 ?1060次閱讀

    請(qǐng)問(wèn)如何能讓模型效果更好?

    重現(xiàn)步驟 我用yolov8n訓(xùn)練出的模型,跑出來(lái)的識(shí)別是沒(méi)有問(wèn)題的,問(wèn)題是在部署到開(kāi)發(fā)板上,無(wú)論是穩(wěn)定性還是框的大小以及識(shí)別的準(zhǔn)確性都比較差,再試了幾次訓(xùn)練后的效果還是不好,請(qǐng)問(wèn)有什么更多的解決辦法
    發(fā)表于 03-11 07:21