91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛感知領(lǐng)域的革命 拋棄幀的事件相機(jī)將給高算力AI芯片沉重打擊

佐思汽車研究 ? 來源:佐思汽車研究 ? 作者:佐思汽車研究 ? 2021-03-26 16:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今年1月初,瑞典初創(chuàng)公司Terranet宣布斬獲了來自汽車產(chǎn)業(yè)巨頭戴姆勒梅賽德斯奔馳的Voxelflow原型采購訂單,訂單價值31000歐元。這筆采購訂單是Terranet和戴姆勒于2020年10月簽署的諒解備忘錄(MoU)的延續(xù),雙方的諒解備忘錄涉及ADAS和防撞解決方案的原型驗(yàn)證、產(chǎn)品開發(fā)和產(chǎn)業(yè)化。下一步是將VoxelFlow集成到奔馳的測試車輛中。

實(shí)際Terranet的核心是基于事件的圖像傳感器(Event-based Camera Sensor,或Event-driven Camera Sensor,下文簡稱事件相機(jī))。事件相機(jī)主要有兩種,DVS(Dynamic Vision Sensor)以及DAVIS(Dynamic and ActivePixel Vision Sensor)。DVS是普通的事件相機(jī),而DAVIS就是在回傳事件的同時還可以回傳灰度圖。

事件相機(jī)的靈感來自人眼和動物的視覺,也有人稱之為硅視網(wǎng)膜。生物的視覺只針對有變化的區(qū)域才敏感,比如眼前突然掉下來一個物體,那么人眼會忽視背景,會將注意力集中在這個物體上,事件相機(jī)就是捕捉事件的產(chǎn)生或者說變化的產(chǎn)生。在傳統(tǒng)的視覺領(lǐng)域,相機(jī)傳回的信息是同步的,所謂同步,就是在某一時刻t,相機(jī)會進(jìn)行曝光,把這一時刻所有的像素填在一個矩陣?yán)锘貍?,一張照片就誕生了。一張照片上所有的像素都對應(yīng)著同一時刻。

至于視頻,不過是很多幀的圖片,相鄰圖片間的時間間隔可大可小,這便是我們常說的幀率(frame rate),也稱為時延(time latency)。事件相機(jī)類似于人類的大腦和眼睛,跳過不相關(guān)的背景,直接感知一個場景的核心,創(chuàng)建純事件而非數(shù)據(jù)。

實(shí)際上自動駕駛領(lǐng)域99%的視覺數(shù)據(jù)在AI處理中是無用的背景。這就好像檢測鬼探頭,變化的區(qū)域是很小一部分,但傳統(tǒng)的視覺處理仍然要處理99%的沒有出現(xiàn)變化的背景區(qū)域,這不僅浪費(fèi)了大量的算力,也浪費(fèi)了時間。亦或者像在沙礫里有顆鉆石,AI芯片和傳統(tǒng)相機(jī)需要識別每一顆沙粒,篩選出鉆石,但人類只需要看一眼就能檢測到鉆石,AI芯片和傳統(tǒng)相機(jī)耗費(fèi)的時間是人類的100倍或1000倍。

事件相機(jī)的工作機(jī)制是,當(dāng)某個像素所處位置的亮度發(fā)生變化達(dá)到一定閾值時,相機(jī)就會回傳一個上述格式的事件,其中前兩項(xiàng)為事件的像素坐標(biāo),第三項(xiàng)為事件發(fā)生的時間戳,最后一項(xiàng)取值為極性(polarity)0、1(或者-1、1),代表亮度是由低到高還是由高到低,也常被稱作Positive or Negative Event,又被稱作On or Off Event。

就這樣,在整個相機(jī)視野內(nèi),只要有一個像素值變化,就會回傳一個事件,這些所有的事件都是異步發(fā)生的(再小的時間間隔也不可能完全同時),所以事件的時間戳均不相同,由于回傳簡單,所以和傳統(tǒng)相機(jī)相比,它具有低時延的特性,可以捕獲很短時間間隔內(nèi)的像素變化。延遲是微秒級的。

除了冗余信息減少和幾乎沒有延遲的優(yōu)點(diǎn)外,事件相機(jī)的優(yōu)點(diǎn)還有由于低時延,在拍攝高速物體時傳統(tǒng)相機(jī)會發(fā)生模糊(由于會有一段曝光時間),而事件相機(jī)幾乎不會。再就是真正的高動態(tài)范圍,由于事件相機(jī)的特質(zhì),在光強(qiáng)較強(qiáng)或較弱的環(huán)境下(高曝光和低曝光),傳統(tǒng)相機(jī)均會“失明”,但像素變化仍然存在,所以事件相機(jī)仍能看清眼前的東西。

傳統(tǒng)相機(jī)

事件相機(jī)

傳統(tǒng)相機(jī)的動態(tài)范圍是無法做寬的,因?yàn)?a href="http://m.makelele.cn/tags/放大器/" target="_blank">放大器會有線性范圍,照顧了低照度就無法適應(yīng)強(qiáng)光,反過來適應(yīng)了強(qiáng)光就無法顧及低照度。 事件相機(jī)在目標(biāo)追蹤、動作識別等領(lǐng)域具備壓倒性優(yōu)勢,尤其適合自動駕駛領(lǐng)域。 空中一個球的軌跡

扔一個球,看看兩種相機(jī)的軌跡記錄

aebb1f68-8e01-11eb-8b86-12bb97331649.png

傳統(tǒng)相機(jī)的幀記錄

aef58dba-8e01-11eb-8b86-12bb97331649.png

事件相機(jī)的軌跡記錄

事件相機(jī)的出現(xiàn)對高算力AI芯片是致命打擊,它只需要傳統(tǒng)高算力AI芯片1%甚至0.1%的算力就可完美工作,功耗是毫瓦級。并且它是基于流水線時間戳方式處理數(shù)據(jù),而不是一幀幀地平面處理各個像素。傳統(tǒng)卷積算法可能無用,AI芯片最擅長的乘積累加運(yùn)算可能沒有用武之地。

特斯拉目前最頂配的FSD,8個攝像頭的分辨率只有130萬像素,就已經(jīng)需要144TOPS的算力,而目前英偉達(dá)的自動駕駛試驗(yàn)車型用的攝像頭已經(jīng)是800萬像素,因此1000TOPS的算力是必須的,如此大的算力不僅帶來高成本,還有高熱量。除非能挖礦,否則是太浪費(fèi)了。即便如此,高算力和安全也沒有關(guān)系,攝像頭的幀率一般是30Hz,注定了至少有33毫秒的延遲,這個哪怕你的算力達(dá)到1億TOPS也于事無補(bǔ)。

為了準(zhǔn)確檢測行人并預(yù)測其路徑,需要多幀處理,至少是10幀,也就是330毫秒。這意味著相關(guān)系統(tǒng)可能需要數(shù)百毫秒才能實(shí)現(xiàn)有效探測,而對于一輛以60公里每小時行進(jìn)中的車輛來說,330毫秒的時間就能行駛5.61米。

而事件相機(jī)理論上不超過1毫秒。 視頻即靜止圖像序列,計(jì)算機(jī)視覺一直朝著“視頻攝像頭+計(jì)算機(jī)+算法=機(jī)器視覺”的主流方向,卻很少人質(zhì)疑用圖像序列(視頻)表達(dá)視覺信息的合理性,更少人質(zhì)疑是否憑借該計(jì)算機(jī)視覺算法就能實(shí)現(xiàn)真正機(jī)器視覺。人類視覺系統(tǒng)具有低冗余、低功耗、高動態(tài)及魯棒性強(qiáng)等優(yōu)勢,可以高效地自適應(yīng)處理動態(tài)與靜態(tài)信息,且具有極強(qiáng)地小樣本泛化能力和全面的復(fù)雜場景感知能力。

1990 年Mead 首次在《Proceedings of IEEE》上提出神經(jīng)形態(tài)(Neuromorphic)的概念,利用大規(guī)模集成電路模擬生物神經(jīng)系統(tǒng)。1991 年 Mahowald 和Mead在《Scientific American》的封面刊登了一只運(yùn)動的貓,標(biāo)志了第一款硅視網(wǎng)膜的誕生,其模擬了視網(wǎng)膜上視錐細(xì)胞、水平細(xì)胞以及雙極細(xì)胞的生物功能,正式點(diǎn)燃了神經(jīng)形態(tài)視覺傳感器這一新興領(lǐng)域。

Mahowald解釋稱,“模仿人類視網(wǎng)膜,這種‘硅視網(wǎng)膜’通過從圖像中減去平均強(qiáng)度水平,只報(bào)告空間和時間變化,從而減少了帶寬。”1993 年 Mahowald團(tuán)隊(duì)為了解決集成電路的稠密三維連線的問題,提出了一種新型的集成電路通信協(xié)議,即地址事件協(xié)議(Address-Event Representation, AER ),實(shí)現(xiàn)了事件的異步讀出。2003年Culurciello 等人設(shè)計(jì)了一種 AER 方式的積分發(fā)放的脈沖模型,將像素光強(qiáng)編碼為頻率或脈沖間隔,稱為章魚視網(wǎng)膜(Octopus Retina)。2005年 Delbruck 團(tuán)隊(duì)研制出動態(tài)視覺傳感器(Dynamic Vision Sensor, DVS),以時空異步稀疏的事件表示像素光強(qiáng)變化,其商業(yè)化具有里程牌的意義。

然而,DVS無法捕捉自然場景的精細(xì)紋理圖像。2008 年 Posh 等人提出了一種基于異步視覺的圖像傳感器(Asynchronous Time-based Image Sensor, ATIS),引入了基于事件觸發(fā)的光強(qiáng)測量電路來重構(gòu)變化處的像素灰度。

af26c934-8e01-11eb-8b86-12bb97331649.png

分型視覺采樣

硅視網(wǎng)膜這種靈感推動了動態(tài)視覺傳感器背后的概念,使蘇黎世聯(lián)邦理工學(xué)院成為該技術(shù)的創(chuàng)新中心,并孕育了像Prophesee、Insightness等無數(shù)初創(chuàng)企業(yè)。瑞士創(chuàng)新公司iniVation也是其中之一

。百度則資助了CelePixel,后來韋爾股份收購了Celepixel。還有中科創(chuàng)星和聯(lián)想創(chuàng)投聯(lián)合投資的銳思智芯。 目前主要是索尼和三星在激烈競爭。初創(chuàng)公司不得不和這些傳感器巨頭合作,如Prophesee和索尼,iniVation和三星。

2019年12月,索尼悄悄收購了總部位于蘇黎世的Insightness公司。三星為其移動和平板電腦應(yīng)用的動態(tài)視覺傳感器(Dynamic Vision Sensor, DVS)技術(shù)提交了商標(biāo)申請。 Prophesee和索尼是目前最接近商業(yè)化的。2020年2月,總部位于巴黎的Prophesee公司在完成2800萬美元額外融資后不久,和索尼一起在美國舊金山舉行的國際固態(tài)電路會議(International Solid-State Circuits Conference)上聯(lián)合發(fā)布了這個130萬像素的事件相機(jī)圖像傳感器。

b05143b6-8e01-11eb-8b86-12bb97331649.png

新款基于事件的圖像傳感器分辨率為1280 x 720像素,填充系數(shù)為77%,300MEPS版本的功耗為73mW。當(dāng)基于幀的圖像傳感器根據(jù)幀速率以固定的間隔輸出整幅圖像時,基于事件的圖像傳感器使用“行選擇仲裁電路”異步選擇像素?cái)?shù)據(jù)。通過在亮度發(fā)生變化的像素地址中添加1μs精度的時間信息,以確保具有高時間分辨率的事件數(shù)據(jù)讀出。通過有效壓縮事件數(shù)據(jù),即每個事件的亮度變化極性、時間和x/y坐標(biāo)信息,實(shí)現(xiàn)了1.066Geps的高輸出事件發(fā)生率。

b0d183b4-8e01-11eb-8b86-12bb97331649.png

事件相機(jī)圖像傳感器并不復(fù)雜,每個像素都包含一個檢測亮度變化的電路。

b1121b54-8e01-11eb-8b86-12bb97331649.png

理念非常簡潔,但是要商業(yè)化就要注意控制成本,對芯片來說,面積越大意味著成本越高,檢測亮度變化的電路增加了面積,這意味著事件相機(jī)的像素會隨著分辨率的增加而成本大增。索尼的BSI技術(shù)是關(guān)鍵,將背照式CMOS圖像傳感器部分(頂部芯片)和邏輯電路(底部芯片)堆疊時,通過連接的銅焊盤提供電連續(xù)性的技術(shù)。

與硅通孔(Through Silicon Via, TSV)布線相比,通過在像素區(qū)域周圍穿透電極來實(shí)現(xiàn)連接,與之相比,此方法在設(shè)計(jì)上具有更大的自由度,提高了生產(chǎn)率,縮小了尺寸并提高了性能。索尼于2016年12月在舊金山舉行的國際電子設(shè)備會議(IEDM)上宣布了這項(xiàng)技術(shù)。也靠這項(xiàng)技術(shù)穩(wěn)居圖像傳感器霸主位置。

通過在像素芯片(頂部)只放置背光像素和N型MOS晶體管的一部分,將光孔進(jìn)光率提高到77%,從而實(shí)現(xiàn)業(yè)界最高的124dB HDR性能(或更高)。索尼在CMOS圖像傳感器開發(fā)過程中經(jīng)年累積的高靈敏度/低噪聲技術(shù)使得事件檢測能在微光條件下(40mlx)進(jìn)行。像素芯片(頂部)和邏輯芯片(底部)結(jié)合信號處理電路,檢測亮度變化基于異步增量調(diào)制法分別排列。兩個單獨(dú)芯片的每個像素都使用Cu-Cu連接以堆疊配置進(jìn)行電連接。除了業(yè)界較小的4.86μm像素尺寸,該傳感器通過采用精細(xì)的40nm邏輯工藝實(shí)現(xiàn)高密度集成,為1/2英寸,1280x720高清分辨率。

事件相機(jī)仍然無法取代激光雷達(dá)或雙目系統(tǒng),因?yàn)樗鼰o法提供深度信息,因此事件相機(jī)必須配合激光雷達(dá)才能實(shí)現(xiàn)完美的3D感知。這就回到了文章開頭,Terranet的秘密武器就是事件相機(jī),Terranet用事件相機(jī)增強(qiáng)激光雷達(dá)的性能,這就是Terranet開發(fā)的所謂VoxelFlow,Terranet認(rèn)為現(xiàn)在很多環(huán)境感知系統(tǒng)所使用的攝像頭和傳感器并不比蘋果iPhone的標(biāo)準(zhǔn)配置強(qiáng)多少,而iPhone的FaceID每幀也只能產(chǎn)生33000個光點(diǎn)。

Terranet公司目前正在開發(fā)的基于事件的傳感技術(shù)VoxelFlow,能夠憑借很低的算力,以極低的延時對動態(tài)移動物體進(jìn)行分類。VoxelFlow技術(shù)每秒可以生成1000萬個3D點(diǎn)云,提供沒有運(yùn)動模糊的快速邊緣檢測?;谑录膫鞲衅鞯某脱訒r性能,能夠確保車輛及時應(yīng)對“鬼探頭”問題,采取緊急制動、加速或繞過突然出現(xiàn)在車輛后方的物體以避免碰撞事故。Voxelflow是一種新型的計(jì)算機(jī)視覺解決方案,它由三個基于事件的攝像頭和一個激光掃描儀組成。Voxelflow用主動照明技術(shù)通過3D三角測量,創(chuàng)建帶時間戳的點(diǎn)云(x、y、z)光柵圖像。

b1f61a2a-8e01-11eb-8b86-12bb97331649.png

現(xiàn)在的AI本質(zhì)上還是一種蠻力計(jì)算,依靠海量數(shù)據(jù)和海量算力,對數(shù)據(jù)集和算力的需求不斷增加,這顯然離初衷越來越遠(yuǎn),文明的每一次進(jìn)步都帶來效率的極大提高,唯有效率的提高才是進(jìn)步,而依賴海量數(shù)據(jù)和海量算力的AI則完全相反,效率越來越低,事件相機(jī)才是正確的方向。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 芯片
    +關(guān)注

    關(guān)注

    463

    文章

    54007

    瀏覽量

    465952
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39756

    瀏覽量

    301366
  • 自動駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14879

    瀏覽量

    179794

原文標(biāo)題:自動駕駛感知領(lǐng)域的革命:拋棄幀的事件相機(jī)將給高算力AI芯片沉重打擊

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    摩爾線程×小馬智行|以國產(chǎn)AI加速中國自動駕駛規(guī)模化落地

    ,共同探索“AI算法+AI”深度融合的合作新范式,以安全可靠的AI
    的頭像 發(fā)表于 02-06 10:14 ?333次閱讀
    摩爾線程×小馬智行|以國產(chǎn)<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>加速中國<b class='flag-5'>自動駕駛</b>規(guī)模化落地

    暴雪天氣下的自動駕駛視覺困境:事件相機(jī)能否改善去雪效果?

    背景與問題在暴雪等惡劣天氣條件下,自動駕駛系統(tǒng)的視覺感知能力顯著下降。雪花的快速移動和密集遮擋會在攝像頭圖像中形成高亮點(diǎn)、拖影或隨機(jī)噪聲,使道路、車輛及行人信息受損。傳統(tǒng)單圖像去雪方法僅依賴空間
    的頭像 發(fā)表于 01-23 14:26 ?6288次閱讀
    暴雪天氣下的<b class='flag-5'>自動駕駛</b>視覺困境:事件<b class='flag-5'>相機(jī)</b>能否改善去雪效果?

    越高,自動駕駛汽車就會越聰明?

    自動駕駛行業(yè),說起算,很多人第一反應(yīng)是“更強(qiáng)就是更好”,更快的芯片、更大的池,感覺就可以讓汽車能看得更清楚、做決定更快、更安全。但事
    的頭像 發(fā)表于 12-28 14:23 ?1289次閱讀

    國產(chǎn)AI芯片真能扛住“內(nèi)卷”?海思昇騰的這波操作藏了多少細(xì)節(jié)?

    反而壓到了310W。更有意思的是它的異構(gòu)架構(gòu):NPU+CPU+DVPP的組合,居然能同時扛住訓(xùn)練和推理場景,之前做自動駕駛算法時,用它跑模型時延直接降了20%。 但疑惑也有:這種密度下,散熱怎么解決?而且昇騰的生態(tài)適配速度能
    發(fā)表于 10-27 13:12

    IMU+多相機(jī)高速聯(lián)合自動標(biāo)定方案

    隨著視覺慣性傳感器在自動駕駛、機(jī)器人、AR/VR 等領(lǐng)域規(guī)?;涞?,多相機(jī)+IMU 聯(lián)合標(biāo)定需求呈爆發(fā)式增長,多相機(jī)+IMU 聯(lián)合標(biāo)定領(lǐng)域
    發(fā)表于 10-23 14:04

    賦能未來:自動駕駛如何從科幻駛?cè)氍F(xiàn)實(shí)?

    當(dāng)一輛汽車以120km/h飛馳時,每0.1秒的決策延遲就意味著3.3米的“生死距離”。而現(xiàn)在,自動駕駛車輛能在毫秒間完成剎車、變道甚至緊急避障——這背后,是在無聲地重塑人類出行方式。感知
    的頭像 發(fā)表于 09-16 11:40 ?710次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>賦能未來:<b class='flag-5'>自動駕駛</b>如何從科幻駛?cè)氍F(xiàn)實(shí)?

    如何確保自動駕駛汽車感知的準(zhǔn)確性?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛汽車想要自動駕駛,首先要做的就是能對周邊環(huán)境實(shí)現(xiàn)精準(zhǔn)感知,也就是能“看”清道路,那自動駕駛汽車如何在復(fù)雜、快速變化的道路環(huán)境中做到
    的頭像 發(fā)表于 08-23 15:06 ?1664次閱讀
    如何確保<b class='flag-5'>自動駕駛</b>汽車<b class='flag-5'>感知</b>的準(zhǔn)確性?

    廣電計(jì)量打造AI芯片檢測一站式解決方案

    在人工智能蓬勃發(fā)展的時代,AI芯片作為智能世界的“最強(qiáng)大腦”,正驅(qū)動著自動駕駛、智能安防、
    的頭像 發(fā)表于 08-21 11:49 ?1215次閱讀

    自動駕駛系統(tǒng)的越高就越好嗎?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛系統(tǒng)的“”是指車載計(jì)算平臺中用于執(zhí)行感知、決策、規(guī)劃和控制等算法的硬件性能指標(biāo)。之前給大家分享了
    的頭像 發(fā)表于 08-11 18:30 ?891次閱讀

    SONY FCB-CR8530,如何重塑自動駕駛視覺感知格局?

    自動駕駛技術(shù)快速發(fā)展的當(dāng)下,車輛對周圍環(huán)境的精準(zhǔn)感知是確保安全與高效運(yùn)行的關(guān)鍵。凱茉銳電子SONY FCB-CR8530攝像機(jī)憑借其卓越性能,正逐漸成為自動駕駛領(lǐng)域視覺
    的頭像 發(fā)表于 06-25 17:54 ?634次閱讀

    AI將如何改變自動駕駛?

    自動駕駛帶來哪些變化?其實(shí)AI可以改變自動駕駛技術(shù)的各個環(huán)節(jié),從感知能力的提升到?jīng)Q策框架的優(yōu)化,從安全性能的增強(qiáng)到測試驗(yàn)證的加速,AI可以讓
    的頭像 發(fā)表于 05-04 09:58 ?840次閱讀

    黑芝麻A2000#高階智能駕駛與通用AI計(jì)算芯片詳細(xì)解析

    、產(chǎn)品定位與核心目標(biāo) A2000家族是黑芝麻智能華山系列的最新產(chǎn)品, 定位于高階智能駕駛與通用AI計(jì)算 ,目標(biāo)是通過高、高能效的芯片設(shè)計(jì)
    的頭像 發(fā)表于 04-30 10:33 ?6955次閱讀
    黑芝麻A2000#高階智能<b class='flag-5'>駕駛</b>與通用<b class='flag-5'>AI</b>計(jì)算<b class='flag-5'>芯片</b>詳細(xì)解析

    感知融合如何讓自動駕駛汽車“看”世界更清晰?

    自動駕駛技術(shù)被認(rèn)為是未來交通領(lǐng)域革命性變革,其目標(biāo)是通過技術(shù)手段實(shí)現(xiàn)安全、高效、便捷的出行體驗(yàn)。而在這一技術(shù)體系中,環(huán)境感知系統(tǒng)扮演著至關(guān)重要的角色,它不僅是
    的頭像 發(fā)表于 04-27 16:24 ?870次閱讀
    <b class='flag-5'>感知</b>融合如何讓<b class='flag-5'>自動駕駛</b>汽車“看”世界更清晰?

    芯片的生態(tài)突圍與革命

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 李彎彎)大芯片,即具備強(qiáng)大計(jì)算能力的集成電路芯片,主要應(yīng)用于高性能計(jì)算(HPC)、人工智能(AI)、數(shù)據(jù)中心、
    的頭像 發(fā)表于 04-13 00:02 ?3242次閱讀

    NVIDIA Halos自動駕駛汽車安全系統(tǒng)發(fā)布

    NVIDIA 整合了從云端到車端的安全自動駕駛開發(fā)技術(shù)套件,涵蓋車輛架構(gòu)到 AI 模型,包括芯片、軟件、工具和服務(wù)。 物理 AI 正在為自動駕駛
    的頭像 發(fā)表于 03-25 14:51 ?1173次閱讀