91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

商湯科技發(fā)布新一代大語(yǔ)言模型書(shū)生·浦語(yǔ)2.0

商湯科技SenseTime ? 來(lái)源:商湯科技SenseTime ? 2024-01-17 15:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1月17日,商湯科技與上海AI實(shí)驗(yàn)室聯(lián)合香港中文大學(xué)和復(fù)旦大學(xué)正式發(fā)布新一代大語(yǔ)言模型書(shū)?·浦語(yǔ)2.0(InternLM2)。

InternLM2 的核心理念在于回歸語(yǔ)言建模的本質(zhì),致力于通過(guò)提高語(yǔ)料質(zhì)量及信息密度,實(shí)現(xiàn)模型基座語(yǔ)言建模能力質(zhì)的提升,進(jìn)而在數(shù)理、代碼、對(duì)話、創(chuàng)作等各方面都取得長(zhǎng)足進(jìn)步,綜合性能達(dá)到開(kāi)源模型的領(lǐng)先水平。

InternLM2是在2.6萬(wàn)億token的高質(zhì)量語(yǔ)料上訓(xùn)練得到的。沿襲第一代書(shū)生·浦語(yǔ)(InternLM)設(shè)定,InternLM2包含7B及20B兩種參數(shù)規(guī)格及基座、對(duì)話等版本,滿足不同復(fù)雜應(yīng)用場(chǎng)景需求,繼續(xù)開(kāi)源,提供免費(fèi)商用授權(quán)。

回歸語(yǔ)言建模本質(zhì)

筑牢大模型能力基礎(chǔ)

大模型的研究應(yīng)回歸語(yǔ)言建模本質(zhì),大模型各項(xiàng)性能提升的基礎(chǔ)在于語(yǔ)言建模能力的增強(qiáng)。

為此,聯(lián)合團(tuán)隊(duì)提出了新一代的數(shù)據(jù)清洗過(guò)濾技術(shù),通過(guò)更高質(zhì)量的語(yǔ)料及更高的信息密度,筑牢大模型能力基礎(chǔ)。

主要發(fā)展了以下幾個(gè)方面的技術(shù)方法:

多維度數(shù)據(jù)價(jià)值評(píng)估:基于文本質(zhì)量、信息質(zhì)量、信息密度等維度對(duì)數(shù)據(jù)價(jià)值進(jìn)行綜合評(píng)估與提升。

高質(zhì)量語(yǔ)料驅(qū)動(dòng)的數(shù)據(jù)富集:利用高質(zhì)量語(yǔ)料的特征從物理世界、互聯(lián)網(wǎng)以及語(yǔ)料庫(kù)中進(jìn)一步富集類似語(yǔ)料。

針對(duì)性的數(shù)據(jù)補(bǔ)齊:針對(duì)性補(bǔ)充語(yǔ)料,重點(diǎn)加強(qiáng)現(xiàn)實(shí)世界知識(shí)、數(shù)理、代碼等核心能力。

目前,浦語(yǔ)背后的數(shù)據(jù)清洗過(guò)濾技術(shù)已經(jīng)歷三輪迭代升級(jí)。僅使用約60%的訓(xùn)練數(shù)據(jù)即可達(dá)到使用第二代數(shù)據(jù)訓(xùn)練1T tokens的性能表現(xiàn),模型訓(xùn)練效率大幅提升。

wKgaomWne-iAQbT_AAEIBmxsGEc255.png

第三代數(shù)據(jù)清洗過(guò)濾技術(shù)大幅度提升模型訓(xùn)練效率

基于第三代數(shù)據(jù)清洗過(guò)濾技術(shù),InternLM2語(yǔ)言建模能力實(shí)現(xiàn)了顯著增強(qiáng)。

wKgaomWne-iAGGMaAAEp5gb_hxg049.png

與第一代InternLM相比,InternLM2在大規(guī)模高質(zhì)量的驗(yàn)證語(yǔ)料上的Loss分布整體左移,表明其語(yǔ)言建模能力實(shí)質(zhì)性增強(qiáng)

支持200K超長(zhǎng)上下文

“大海撈針”近乎完美

長(zhǎng)語(yǔ)境輸入及理解能力能夠顯著拓展大模型應(yīng)用場(chǎng)景,比如支持大型文檔處理、復(fù)雜的推理演算和實(shí)際場(chǎng)景的工具調(diào)用等。然而,大模型有限的上下文長(zhǎng)度當(dāng)前仍是學(xué)界及業(yè)內(nèi)面臨的重要難題。

通過(guò)拓展訓(xùn)練窗口大小和位置編碼改進(jìn),InternLM2支持20萬(wàn) tokens的上下文,能夠一次性接受并處理約30萬(wàn)漢字(約五六百頁(yè)的文檔)的輸入內(nèi)容,準(zhǔn)確提取關(guān)鍵信息,實(shí)現(xiàn)長(zhǎng)文本中“大海撈針”。

參考業(yè)界范例,研究人員對(duì)InternLM2進(jìn)行了“大海撈針”試驗(yàn):將關(guān)鍵信息隨機(jī)插入一段長(zhǎng)文本的不同位置并設(shè)置問(wèn)題,測(cè)試模型能否從中提取出關(guān)鍵信息。

wKgaomWne-iAMWLhAAHPhFbq5Kg567.png

InternLM2“大海撈針”試驗(yàn)效果

上圖展示了InternLM2在不同長(zhǎng)度的上下文(橫軸)及上下文中不同位置(縱軸)上召回關(guān)鍵信息的準(zhǔn)確率(Recall)。紅色代表較低的召回準(zhǔn)確率,而綠色則代表較高的召回率。試驗(yàn)結(jié)果表明,InternLM2在上下文長(zhǎng)度延展到200K時(shí)依舊保持了近乎完美的召回成功率,驗(yàn)證了InternLM2對(duì)于超長(zhǎng)上下文堅(jiān)實(shí)的支持能力。

為測(cè)試InternLM2在真實(shí)長(zhǎng)文本處理任務(wù)中的能力,研究人員將一份時(shí)長(zhǎng)3小時(shí)的公開(kāi)會(huì)議錄音轉(zhuǎn)錄稿輸入模型中,并要求InternLM2從中提取出關(guān)鍵信息。

wKgZomWne-iAb9TxAAKeZy0-Z5E797.png

InternLM2準(zhǔn)確總結(jié)“聯(lián)合國(guó)2023年10月2日召開(kāi)的聯(lián)合國(guó)貿(mào)易和發(fā)展會(huì)議會(huì)議記錄”

原始公開(kāi)記錄詳見(jiàn):

https://conf.unog.ch/digitalrecordings/index.html?guid=public/60.5295/9849DF25-F3B5-4BFF-8979-C5A989586205_10h09&position=0&channel=ORIGINAL

測(cè)試結(jié)果表明,盡管在未校對(duì)的文本中存在較多錯(cuò)別字,但I(xiàn)nternLM2仍從中準(zhǔn)確提煉出了關(guān)鍵信息,并總結(jié)了關(guān)鍵發(fā)言人的觀點(diǎn)。

性能全面提升

綜合領(lǐng)先同量級(jí)開(kāi)源模型

InternLM2的各項(xiàng)能力獲得全面進(jìn)步,相比于初代InternLM,在推理、數(shù)學(xué)、代碼等方面的能力提升尤為顯著,綜合能力領(lǐng)先于同量級(jí)開(kāi)源模型。

根據(jù)大語(yǔ)言模型的應(yīng)用方式和用戶關(guān)注的重點(diǎn)領(lǐng)域,研究人員定義了語(yǔ)言、知識(shí)、推理、數(shù)學(xué)、代碼、考試等六個(gè)能力維度,在55個(gè)主流評(píng)測(cè)集上對(duì)多個(gè)同量級(jí)模型的表現(xiàn)進(jìn)行了綜合評(píng)測(cè)。

評(píng)測(cè)結(jié)果顯示,InternLM2的輕量級(jí)及中量級(jí)版本性能在同量級(jí)模型中表現(xiàn)優(yōu)異。

wKgZomWne-iAYX2dAAOU3xvEZm0395.png

InternLM2的輕量級(jí)及中量級(jí)版本性能在同量級(jí)開(kāi)源模型中表現(xiàn)優(yōu)異

下面表格對(duì)比了InternLM2各版本與ChatGPT(GPT-3.5)以及GPT-4在典型評(píng)測(cè)集上的表現(xiàn)。

wKgZomWne-iAbmVbAABeTz7Q-O4654.png

InternLM2與ChatGPT的評(píng)測(cè)結(jié)果對(duì)比

可以看到,InternLM2只用20B參數(shù)的中等規(guī)模,即在整體表現(xiàn)上達(dá)到了與ChatGPT比肩的水平。其中,在AGIEval、 BigBench-Hard(BBH)、GSM8K、MATH等對(duì)推理能力有較高要求的評(píng)測(cè)上,InternLM2表現(xiàn)甚至優(yōu)于ChatGPT。

與此同時(shí),綜合性能的增強(qiáng),帶來(lái)了下游任務(wù)的全方位能力提升。新發(fā)布的InternLM2提供優(yōu)秀的對(duì)話及創(chuàng)作體驗(yàn),支持多輪任務(wù)規(guī)劃及工具調(diào)用,并提供實(shí)用的數(shù)據(jù)分析能力。

對(duì)話及創(chuàng)作:更溫情、更富想象力

InternLM2不僅在客觀性能指標(biāo)上提升顯著,在主觀體驗(yàn)上也有明顯改善,可以為用戶提供優(yōu)秀的對(duì)話和交互體驗(yàn)。

研究測(cè)試表明,InternLM2-Chat可以精準(zhǔn)地理解和遵循用戶意圖,具備較強(qiáng)的共情能力和豐富的結(jié)構(gòu)化創(chuàng)作能力。

下面是幾個(gè)示例:

示例一:在嚴(yán)格格式要求下編制課程大綱

wKgaomWne-mAG337AAREsUaUmIA061.png

InternLM2設(shè)計(jì)的課程大綱精準(zhǔn)遵循用戶要求(比如格式、數(shù)量、內(nèi)容等)

示例二:以富有人文關(guān)懷的回答開(kāi)解用戶

wKgaomWne-iARq8gAAOpZVBuhxo378.png

InternLM2能夠在對(duì)話中與用戶“共情”

示例三:展開(kāi)想象力,編寫(xiě)《流浪地球3》的劇本

wKgZomWne-mAIIUyAAdrIFPut2A371.png

InternLM2設(shè)計(jì)的具備充滿豐富的合理想象,比如外星遺跡、量子糾纏的引入等。同時(shí)整個(gè)故事表現(xiàn)了人類面對(duì)危機(jī)時(shí)的勇氣和團(tuán)結(jié)精神

對(duì)話和創(chuàng)造的體驗(yàn)進(jìn)步的原因,一方面是基礎(chǔ)語(yǔ)言能力的顯著增強(qiáng),另一方面也得益于微調(diào)技術(shù)的提升。

InternLM2進(jìn)行微調(diào)的過(guò)程使用了經(jīng)過(guò)第三代數(shù)據(jù)清洗過(guò)濾技術(shù)處理的指令微調(diào)語(yǔ)料,同時(shí)也采用了更強(qiáng)的Online RLHF。

研究人員在微調(diào)InternLM2的過(guò)程中,對(duì)獎(jiǎng)勵(lì)模型和對(duì)話模型進(jìn)行了三輪迭代更新,每一輪更新均針對(duì)前一輪模型的表現(xiàn)更新偏好數(shù)據(jù)與提示詞。

在獎(jiǎng)勵(lì)模型訓(xùn)練(RM)和近端策略優(yōu)化(PPO)階段,研究人員均衡采用各類提示詞,不僅提高了對(duì)話的安全性,也提升了用戶體驗(yàn)。

工具調(diào)用:能力升級(jí),更精準(zhǔn)的工具選用,更可靠的多步規(guī)劃

基于更強(qiáng)大、更具泛化性的指令理解、工具篩選與結(jié)果反思等能力,InternLM2可支持復(fù)雜智能體的搭建,支持對(duì)工具進(jìn)行多輪有效調(diào)用及多步驟規(guī)劃,完成復(fù)雜任務(wù)。

聯(lián)合團(tuán)隊(duì)針對(duì)多種任務(wù)構(gòu)建了細(xì)粒度工具調(diào)用評(píng)測(cè)集T-Eval(https://open-compass.github.io/T-Eval),InternLM2-Chat-7B在該評(píng)測(cè)集上表現(xiàn)超越了Claude-2.1和目前的開(kāi)源模型,性能接近GPT-3.5。

wKgaomWne-mABQpTAAI-EDiHJ5g700.png

InternLM2工具調(diào)用能力全面提升

通過(guò)工具調(diào)用,使得大語(yǔ)言模型可通過(guò)搜索、計(jì)算、代碼解釋器等獲取知識(shí)并處理更復(fù)雜的問(wèn)題,從而拓展應(yīng)用邊界。研究人員對(duì)模型調(diào)用工具流程實(shí)施細(xì)粒度的拆解和分析,針對(duì)規(guī)劃、推理、工具選擇、理解、執(zhí)行、反思等步驟進(jìn)行了針對(duì)性增強(qiáng)和優(yōu)化。

9319c0b8-b4f3-11ee-8b88-92fbcf53809c.gif

基于InternLM2通過(guò)開(kāi)源智能體框架Lagent搭建的用戶助手智能體,能夠在一次指令回應(yīng)中完成地圖查詢、路線規(guī)劃、發(fā)郵件等任務(wù)

數(shù)理推理:會(huì)做題,還會(huì)可視化分析

數(shù)學(xué)能力是大模型邏輯思維和推理能力的重要體現(xiàn)。

InternLM2的數(shù)學(xué)能力全面提升,達(dá)到當(dāng)前開(kāi)源模型的標(biāo)桿水平。

基于更加科學(xué)構(gòu)建的預(yù)訓(xùn)練語(yǔ)料,InternLM2形成了很強(qiáng)的內(nèi)生計(jì)算能力。

在不依靠計(jì)算器等外部工具的情況下,在100以內(nèi)的簡(jiǎn)單數(shù)學(xué)運(yùn)算上能夠做到接近100%的準(zhǔn)確率,在1000以內(nèi)達(dá)到80%左右的運(yùn)算準(zhǔn)確率。在GSM8K和MATH評(píng)測(cè)中,InternLM2-20B的表現(xiàn)超過(guò)了ChatGPT(GPT-3.5)。

wKgZomWne-mAY4SLAABadSiq160159.jpg

InternLM2在100以內(nèi)的簡(jiǎn)單數(shù)學(xué)運(yùn)算上能夠做到接近100%的準(zhǔn)確率

為應(yīng)對(duì)各類復(fù)雜計(jì)算,InternLM2-Chat還可借助代碼解釋器(Code-Interpreter)編寫(xiě)代碼進(jìn)行計(jì)算,或?qū)ν评淼慕Y(jié)果進(jìn)行形式化驗(yàn)證,從而解決計(jì)算要求更高或者演算過(guò)程更加復(fù)雜的問(wèn)題。

在典型的數(shù)學(xué)評(píng)測(cè)集 GSM8K 和 MATH 上,配合代碼解釋器,InternLM2取得了更高的評(píng)測(cè)分?jǐn)?shù)。其中對(duì)于難度更高的 MATH 數(shù)據(jù)集,InternLM2的計(jì)算精度從 32.5 大幅提升到 51.2,甚至超過(guò)了 GPT-4 的表現(xiàn)。

wKgZomWne-mAWtYyAAAxpHyXgBQ884.png

下面示例展示了InternLM2可以和代碼解釋器結(jié)合解決較復(fù)雜的高等數(shù)學(xué)問(wèn)題。

wKgaomWne-mAL_XLAAI-5vcDqXI119.png

InternLM2能夠完成積分求解等高等數(shù)學(xué)題目

基于在計(jì)算及工具調(diào)用方面強(qiáng)大的基礎(chǔ)能力,InternLM2在語(yǔ)言模型中具備了數(shù)據(jù)分析和可視化實(shí)用能力,進(jìn)一步貼近用戶使用場(chǎng)景。

936b4384-b4f3-11ee-8b88-92fbcf53809c.gif

向InternLM2輸入國(guó)家統(tǒng)計(jì)局公布的“2023年3-11月份規(guī)模以上工業(yè)企業(yè)主要財(cái)務(wù)指標(biāo)(分行業(yè))”,InternLM2能夠分析數(shù)據(jù)并繪制折線圖

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301406
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    571

    瀏覽量

    11310
  • 商湯科技
    +關(guān)注

    關(guān)注

    8

    文章

    609

    瀏覽量

    37557

原文標(biāo)題:支持200K超長(zhǎng)上下文,一次可讀30萬(wàn)漢字,“書(shū)生·浦語(yǔ)”2.0正式開(kāi)源

文章出處:【微信號(hào):SenseTime2017,微信公眾號(hào):商湯科技SenseTime】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    華為在MWC 2026正式發(fā)布新一代智能電信云解決方案TICC 2.0

    在MWC26巴塞羅那期間舉行的Agentic Core峰會(huì)上,華為正式發(fā)布了全新一代智能電信云解決方案TICC 2.0(Telco Intelligent Converged Cloud),該方案
    的頭像 發(fā)表于 03-05 10:47 ?151次閱讀

    百度正式發(fā)布并開(kāi)源新一代文檔解析模型PaddleOCR-VL-1.5

    1 月 29 日,百度正式發(fā)布并開(kāi)源新一代文檔解析模型 PaddleOCR-VL-1.5。該模型以僅 0.9B 參數(shù)的輕量架構(gòu),在全球權(quán)威文檔解析評(píng)測(cè)榜單 OmniDocBench V
    的頭像 發(fā)表于 01-30 10:03 ?593次閱讀
    百度正式<b class='flag-5'>發(fā)布</b>并開(kāi)源<b class='flag-5'>新一代</b>文檔解析<b class='flag-5'>模型</b>PaddleOCR-VL-1.5

    商湯科技日日新V6.5榮獲2025年多模態(tài)大模型全國(guó)第

    近日,權(quán)威大模型評(píng)測(cè)基準(zhǔn) SuperCLUE 發(fā)布《中文多模態(tài)視覺(jué)語(yǔ)言模型測(cè)評(píng)基準(zhǔn)12月報(bào)告》,商湯日日新V6.5(SenseNova V6
    的頭像 發(fā)表于 01-06 14:44 ?622次閱讀
    <b class='flag-5'>商湯</b>科技日日新V6.5榮獲2025年多模態(tài)大<b class='flag-5'>模型</b>全國(guó)第<b class='flag-5'>一</b>

    商湯科技日日新Seko系列模型與寒武紀(jì)成功適配

    12月15日,商湯科技基于在生成式AI與多模態(tài)交互領(lǐng)域的技術(shù)積累,正式發(fā)布Seko2.0——行業(yè)首個(gè)多劇集生成智能體。該智能體在多劇集視頻生成的致性方面展現(xiàn)出顯著優(yōu)勢(shì),其背后依托的是
    的頭像 發(fā)表于 12-17 14:06 ?460次閱讀

    商湯科技正式發(fā)布并開(kāi)源全新多模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布并開(kāi)源了與南洋理工大學(xué)S-Lab合作研發(fā)的全新多模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova 多模態(tài)模型奠定了新一代
    的頭像 發(fā)表于 12-08 11:19 ?1018次閱讀
    <b class='flag-5'>商湯</b>科技正式<b class='flag-5'>發(fā)布</b>并開(kāi)源全新多模態(tài)<b class='flag-5'>模型</b>架構(gòu)NEO

    摩爾線程新一代語(yǔ)言模型對(duì)齊框架URPO入選AAAI 2026

    近日,摩爾線程在人工智能前沿領(lǐng)域取得重要突破,其提出的新一代語(yǔ)言模型對(duì)齊框架——URPO統(tǒng)獎(jiǎng)勵(lì)與策略優(yōu)化,相關(guān)研究論文已被人工智能領(lǐng)域的國(guó)際頂級(jí)學(xué)術(shù)會(huì)議AAAI 2026收錄。這
    的頭像 發(fā)表于 11-17 16:03 ?494次閱讀
    摩爾線程<b class='flag-5'>新一代</b>大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>對(duì)齊框架URPO入選AAAI 2026

    恩智助力億境虛擬打造新一代AI眼鏡解決方案

    恩智半導(dǎo)體宣布,深圳市億境虛擬現(xiàn)實(shí)技術(shù)有限公司(簡(jiǎn)稱“億境虛擬”)在其新一代 AI 眼鏡解決方案SW3021中采用恩智i.MX RT685跨界MCU,實(shí)現(xiàn)了極致低功耗與強(qiáng)大音頻處理能力的平衡。
    的頭像 發(fā)表于 10-16 09:03 ?4366次閱讀

    【內(nèi)測(cè)活動(dòng)同步開(kāi)啟】這么???這么強(qiáng)?新一代模型MCP開(kāi)發(fā)板來(lái)啦!

    【內(nèi)測(cè)活動(dòng)同步開(kāi)啟】這么???這么強(qiáng)?新一代模型MCP開(kāi)發(fā)板來(lái)啦! 聆思全新一代六合芯片「LS26系列」,搭載WIFI / BLE & BT / NPU,與「小聆AI」強(qiáng)強(qiáng)
    發(fā)表于 09-25 11:47

    新一代超大模型訓(xùn)練引擎XTuner V1開(kāi)源

    9月8日,上海人工智能實(shí)驗(yàn)室(上海AI實(shí)驗(yàn)室)開(kāi)源書(shū)生模型新一代訓(xùn)練引擎XTuner V1。
    的頭像 發(fā)表于 09-10 10:55 ?1134次閱讀

    廣和通發(fā)布新一代具身智能開(kāi)發(fā)平臺(tái)Fibot

    8月27日,全球領(lǐng)先的無(wú)線通信與AI解決方案提供商廣和通發(fā)布新一代具身智能開(kāi)發(fā)平臺(tái) Fibot。Fibot已成功應(yīng)用于Physical Intelligence(π公司)最新通用視覺(jué)-語(yǔ)言-動(dòng)作
    的頭像 發(fā)表于 08-29 11:14 ?1315次閱讀

    書(shū)生模型實(shí)戰(zhàn)營(yíng)沐曦魔樂(lè)專場(chǎng)MeetUP精彩回顧

    近日,由書(shū)生模型社區(qū)、沐曦、魔樂(lè)社區(qū)、算豐和 DaoCloud 道客等聯(lián)合打造的「書(shū)生模型實(shí)戰(zhàn)營(yíng)沐曦魔樂(lè)專場(chǎng) MeetUP 暨頒獎(jiǎng)儀式」在上海漕河涇國(guó)際孵化中心圓滿落幕。
    的頭像 發(fā)表于 08-20 11:33 ?1108次閱讀

    廣和通發(fā)布新一代AI語(yǔ)音智能體FiboVista

    近日,2025火山引擎Force原動(dòng)力大會(huì)正式開(kāi)幕。廣和通發(fā)布新一代AI語(yǔ)音智能體FiboVista,并已率先應(yīng)用于車聯(lián)網(wǎng),成為智能駕駛的“用車伙伴”和“出行伴侶”。通過(guò)創(chuàng)新AI大模型和場(chǎng)景服務(wù)洞察,F(xiàn)iboVista將在智慧家
    的頭像 發(fā)表于 06-17 09:22 ?1259次閱讀

    商湯大裝置SenseCore 2.0全新升級(jí)

    在2025商湯技術(shù)交流日上,作為最懂大模型的AI基礎(chǔ)設(shè)施,商湯大裝置SenseCore 2.0全新升級(jí),致力于為企業(yè)提供敏捷、靈活、可靠的全棧AI基礎(chǔ)設(shè)施服務(wù),以極致性價(jià)比推動(dòng)大
    的頭像 發(fā)表于 04-14 18:07 ?1072次閱讀

    商湯“日日新”融合大模型登頂大語(yǔ)言與多模態(tài)雙榜單

    據(jù)弗若斯特沙利文(Frost & Sullivan, 簡(jiǎn)稱“沙利文”)聯(lián)合頭豹研究院發(fā)布的《2025年中國(guó)大模型年度評(píng)測(cè)》結(jié)果顯示:在語(yǔ)言和多模態(tài)核心能力測(cè)評(píng)中,商湯“日日新”融合大
    的頭像 發(fā)表于 03-18 10:35 ?1144次閱讀

    易控智駕推出新一代全場(chǎng)景智能巡檢產(chǎn)品“礦巡2.0

    近日,在無(wú)人駕駛礦用車規(guī)?;瘧?yīng)用成果發(fā)布會(huì)上,易控智駕正式發(fā)布新一代全場(chǎng)景智能巡檢產(chǎn)品——“礦巡2.0”,助力礦山實(shí)現(xiàn)環(huán)境信息采集、安全隱患排查、設(shè)備狀態(tài)監(jiān)測(cè)等功能的自動(dòng)化,大幅提升巡
    的頭像 發(fā)表于 03-13 11:24 ?1043次閱讀