91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

李彥宏:開源模型將逐漸滯后,文心大模型提升訓(xùn)練與推理效率

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-04-16 14:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

4 月 16 日,據(jù)報(bào)道,百度公司首席執(zhí)行官李彥宏在其舉辦的Create 2024 AI 開發(fā)者大會上指出,開源模型正在逐漸過時(shí)。

李彥宏解釋道,百度自研的基礎(chǔ)模型——文心 4.0,能夠根據(jù)需求塑造出適應(yīng)各類場景的微型版模型,并支持精細(xì)調(diào)整以及后預(yù)訓(xùn)練。相較于直接使用開源模型,這種經(jīng)過降維處理的模型在同等尺寸下表現(xiàn)更為出色,且在相同效果下成本更低,因此,“開源模型將逐步被淘汰”。

此外,李彥宏還推出了文心大模型 4.0 的工具版本,該模型的算法訓(xùn)練效率已提高至原有的 5.1 倍,每周訓(xùn)練有效率高達(dá) 98.8%,推理性能提升了 105 倍,而推理成本則降低至原先的 1%。

值得關(guān)注的是,360 集團(tuán)創(chuàng)始人周鴻祎在哈佛大學(xué)的一場演講中提出了不同觀點(diǎn)。他認(rèn)為“沒有開源便無Linux、無互聯(lián)網(wǎng),甚至包括我們自身的發(fā)展也離不開開源技術(shù)”。同時(shí),他預(yù)測在未來一至兩年內(nèi),開源技術(shù)的影響力或?qū)⒊介]源技術(shù)。

周鴻祎表示:“盡管目前開源模型的能力尚未達(dá)到GPT 4水平,但若專注于某一領(lǐng)域,利用企業(yè)內(nèi)部的專屬數(shù)據(jù)及專業(yè)訓(xùn)練進(jìn)行強(qiáng)化,便有望在專業(yè)能力上超越GPT 4。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4784

    瀏覽量

    98072
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4207

    瀏覽量

    46149
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52111
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    百度模型5.0正式版上線

    今天,在百度Moment大會現(xiàn)場,模型5.0正式版上線。
    的頭像 發(fā)表于 01-23 16:48 ?1294次閱讀

    LLM推理模型是如何推理的?

    過程與核心見解拆解。一、核心論點(diǎn)與總覽LRM(如o1,R1)的“推理”能力提升,并非源于模型學(xué)會了人類式的邏輯推理,而是通過兩類主要技術(shù)手段,優(yōu)化了生成過程,使其
    的頭像 發(fā)表于 01-19 15:33 ?493次閱讀
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型訓(xùn)練并保存,就可以用于對新圖像進(jìn)行
    發(fā)表于 10-22 07:03

    借助NVIDIA Cosmos模型提升機(jī)器人訓(xùn)練效率

    隨著物理 AI 系統(tǒng)的不斷發(fā)展,對豐富標(biāo)記數(shù)據(jù)集的需求正在急速增長,已經(jīng)超出了在現(xiàn)實(shí)世界中通過人工采集所能滿足的范圍。世界基礎(chǔ)模型(WFMs)是經(jīng)過訓(xùn)練的生成式 AI 模型,能夠根據(jù)現(xiàn)實(shí)世界環(huán)境的動態(tài),對未來的世界狀態(tài)進(jìn)行仿真、
    的頭像 發(fā)表于 09-23 15:30 ?1014次閱讀
    借助NVIDIA Cosmos<b class='flag-5'>模型</b><b class='flag-5'>提升</b>機(jī)器人<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>效率</b>

    百度模型X1.1正式發(fā)布

    今天,在WAVE SUMMIT深度學(xué)習(xí)開發(fā)者大會2025上,模型X1.1正式發(fā)布,在事實(shí)性、指令遵循、智能體等能力上均提升顯著。
    的頭像 發(fā)表于 09-10 11:08 ?2127次閱讀

    中興努比亞啟動接入百度4.5系列開源模型

    近日,中興努比亞啟動接入4.5系列開源模型,為星云智能提供新引擎,共同推動人工智能在AI手機(jī)的創(chuàng)新應(yīng)用,加速AI技術(shù)落地,進(jìn)一步提升
    的頭像 發(fā)表于 07-15 09:35 ?1051次閱讀

    寧暢與與百度模型展開深度技術(shù)合作

    近日,百度正式開源模型4.5系列模型。作為
    的頭像 發(fā)表于 07-07 16:26 ?873次閱讀

    黑芝麻智能與模型技術(shù)合作升級

    近日,模型正式開源,黑芝麻智能即日起快速啟動與
    的頭像 發(fā)表于 07-04 17:24 ?1331次閱讀
    黑芝麻智能與<b class='flag-5'>文</b><b class='flag-5'>心</b>大<b class='flag-5'>模型</b>技術(shù)合作升級

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型推理過程對顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來了挑戰(zhàn)。為了解決這一問題,本文探討大
    發(fā)表于 07-03 19:43

    龍芯中科與心系列模型開展深度技術(shù)合作

    ? ? ? ? ? 6月30日,4.5系列模型正式開源。龍芯中科在
    的頭像 發(fā)表于 07-02 16:53 ?1353次閱讀

    兆芯率先展開心系列模型深度技術(shù)合作

    6月30日,百度正式開源模型4.5系列等10款模型,并實(shí)現(xiàn)預(yù)訓(xùn)練權(quán)重和
    的頭像 發(fā)表于 07-01 10:49 ?976次閱讀

    百度模型X1 Turbo獲得信通院當(dāng)前大模型最高評級證書

    百度在520居然還領(lǐng)了個(gè)證?是它, 信通院當(dāng)前大模型最高評級證書 ! 在5月20日的百度AI Day 上,中國信通院公布了大模型推理能力評估結(jié)果—— 百度
    的頭像 發(fā)表于 05-21 18:19 ?1279次閱讀
    百度<b class='flag-5'>文</b><b class='flag-5'>心</b>大<b class='flag-5'>模型</b>X1 Turbo獲得信通院當(dāng)前大<b class='flag-5'>模型</b>最高評級證書

    百度發(fā)布4.5 Turbo、X1 Turbo和多款A(yù)I應(yīng)用

    近日,Create2025百度AI開發(fā)者大會在武漢舉辦。百度創(chuàng)始人發(fā)布了模型4.5
    的頭像 發(fā)表于 04-30 10:16 ?1151次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    整合了多個(gè)MLKits工具,包含模型轉(zhuǎn)換、模型量化和模型調(diào)優(yōu),關(guān)鍵模塊融合成一站式、可視化的完整開發(fā)鏈路,開發(fā)者不再需要“拼積木式”組合多個(gè)工具,只用一套工具就可以已全部搞定,極大
    發(fā)表于 04-13 19:52

    百度發(fā)布模型4.5和文模型X1

    模型4.5是百度自主研發(fā)的新一代原生多模態(tài)基礎(chǔ)大模型,通過多個(gè)模態(tài)聯(lián)合建模實(shí)現(xiàn)協(xié)同優(yōu)化,多模態(tài)理解能力優(yōu)秀;具備更精進(jìn)的語言能力,理解、生成、邏輯、記憶能力全面
    的頭像 發(fā)表于 03-18 16:29 ?911次閱讀