91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GTC23 | 彌補(bǔ)不足:大型語(yǔ)言模型借企業(yè)數(shù)據(jù)之力變得更加智能

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 2023-03-25 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA NeMo 服務(wù)幫助企業(yè)將大型語(yǔ)言模型與其專(zhuān)有數(shù)據(jù)相結(jié)合,賦能智能聊天機(jī)器人、客戶服務(wù)等更多應(yīng)用。

如今的大型語(yǔ)言模型知識(shí)淵博,但它們的工作方式有點(diǎn)像時(shí)間膠囊——所收集的信息僅限于第一次被訓(xùn)練時(shí)所使用的數(shù)據(jù)。例如,如果在一年前進(jìn)行訓(xùn)練,那么驅(qū)動(dòng) AI 聊天機(jī)器人的大型語(yǔ)言模型就不會(huì)知道最近的產(chǎn)品或者服務(wù)。

通過(guò)最近發(fā)布的 NVIDIA AI Foundations 云服務(wù)系列中的 NVIDIA NeMo 服務(wù),企業(yè)可以很好地填補(bǔ)這一缺口。企業(yè)用戶可以使用專(zhuān)有數(shù)據(jù)來(lái)增強(qiáng)他們的大型語(yǔ)言模型,從而能夠經(jīng)常更新模型的知識(shí)庫(kù),而不必從頭開(kāi)始重新訓(xùn)練這些模型。

NeMo 服務(wù)中的這一新功能使大型語(yǔ)言模型能夠從專(zhuān)有數(shù)據(jù)源中檢索準(zhǔn)確的信息,并為用戶查詢(xún)生成類(lèi)似人類(lèi)的對(duì)話式答案。有了這一功能,企業(yè)可以使用 NeMo 為其應(yīng)用程序定制能夠定期更新、擁有特定領(lǐng)域知識(shí)的大型語(yǔ)言模型。

這可以幫助企業(yè)跟上庫(kù)存、服務(wù)等領(lǐng)域不斷變化的形勢(shì),解鎖高精度人工智能聊天機(jī)器人、企業(yè)搜索引擎和市場(chǎng)情報(bào)工具等功能。

NeMo 包括為語(yǔ)言模型的響應(yīng)引用來(lái)源的能力,從而增加用戶對(duì)輸出的信任。使用 NeMo 的開(kāi)發(fā)人員還可以設(shè)置護(hù)欄來(lái)定義人工智能的專(zhuān)業(yè)領(lǐng)域,從而更好地控制生成的響應(yīng)。

Quantiphi 是一家以 AI 為先的數(shù)字工程解決方案和平臺(tái)公司,也是 NVIDIA 的服務(wù)交付合作伙伴之一。它正在與 NeMo 合作,構(gòu)建一個(gè)名為 baioniq 的模塊化生成人工智能解決方案,幫助企業(yè)構(gòu)建定制的大型語(yǔ)言模型,以提高工人的生產(chǎn)力。其開(kāi)發(fā)團(tuán)隊(duì)正在創(chuàng)建一些工具,使用戶可以在幾秒鐘內(nèi)搜索非結(jié)構(gòu)化文本、圖像和表格中的最新信息。

為“暗數(shù)據(jù)”帶來(lái)光明

分析師估計(jì),大約有三分之二的企業(yè)數(shù)據(jù)沒(méi)有被開(kāi)發(fā)。這些信息被稱(chēng)為“暗數(shù)據(jù)”,它們未被開(kāi)發(fā)的原因之一是很難從大量數(shù)據(jù)中收集到有意義的洞察?,F(xiàn)在,有了 NeMo,企業(yè)可以使用自然語(yǔ)言提示從這些數(shù)據(jù)中獲取洞察。

NeMo 可以幫助企業(yè)建立能夠從不斷變化的知識(shí)庫(kù)中學(xué)習(xí)并做出反應(yīng)的模型,無(wú)論該模型最初使用什么數(shù)據(jù)集進(jìn)行訓(xùn)練。開(kāi)發(fā)人員不需要為了新的信息而重新訓(xùn)練模型,只需要更新一個(gè)數(shù)據(jù)庫(kù)作為該模型的記憶庫(kù)即可。新增加的信息可以被添加到這個(gè)數(shù)據(jù)庫(kù)中,而不需要修改大型語(yǔ)言模型在語(yǔ)言處理和文字生成方面的核心能力。

企業(yè)還可以設(shè)置護(hù)欄來(lái)定義人工智能的專(zhuān)業(yè)領(lǐng)域,生成式 AI 應(yīng)用將不會(huì)對(duì)專(zhuān)業(yè)領(lǐng)域外的話題發(fā)表觀點(diǎn)或意見(jiàn)。

掀起新一輪企業(yè)生成式 AI 應(yīng)用的熱潮

通過(guò)使用業(yè)務(wù)數(shù)據(jù)定制大型語(yǔ)言模型,企業(yè)可以使他們的 AI 應(yīng)用變得敏捷、快速響應(yīng):

  • 聊天機(jī)器人:許多企業(yè)已使用 AI 聊天機(jī)器人在網(wǎng)站上與客戶保持基礎(chǔ)的互動(dòng)。通過(guò) NeMo,企業(yè)可以構(gòu)建所在專(zhuān)業(yè)領(lǐng)域的虛擬專(zhuān)家。

  • 客戶服務(wù):企業(yè)可以使用最新產(chǎn)品的細(xì)節(jié)來(lái)更新 NeMo 模型,幫助現(xiàn)場(chǎng)服務(wù)人員運(yùn)用最新信息,更加輕松地回答客戶的問(wèn)題。

  • 企業(yè)搜索:企業(yè)擁有非常豐富的資料,包括技術(shù)文檔、公司政策和 IT 支持文檔等。員工可以使用一個(gè)由 NeMo 驅(qū)動(dòng)的內(nèi)部搜索引擎,更快、更容易地檢索信息。

  • 市場(chǎng)情報(bào):金融行業(yè)需要收集關(guān)于全球市場(chǎng)、上市公司和經(jīng)濟(jì)趨勢(shì)的洞察。通過(guò)將大型語(yǔ)言模型連接到定期更新的數(shù)據(jù)庫(kù),投資者和其他專(zhuān)家可以從大量信息中快速識(shí)別出有用的細(xì)節(jié),比如監(jiān)管文件、財(cái)報(bào)電話會(huì)議錄音或財(cái)務(wù)報(bào)表等。

想在應(yīng)用中添加生成式 AI 功能的企業(yè)可以申請(qǐng)搶先體驗(yàn) NeMo 服務(wù)。(https://developer.nvidia.com/nemo-llm-service-early-access)

點(diǎn)擊“閱讀原文”,觀看 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛 NVIDIA GTC 主題演講中關(guān)于 NVIDIA AI Foundations 的部分。

5c54e8ee-caa9-11ed-bfe3-dac502259ad0.gif ?

3 月 24 日 下午 14:00-16:00,繼續(xù)鎖定 GTC23,加入在線觀看(Watch Party) 派對(duì),從黃仁勛與 OpenAI 創(chuàng)始人兼首席科學(xué)家高能對(duì)話中,看 AI 的現(xiàn)狀和未來(lái)!

Watch Party 觀看指南

會(huì)議開(kāi)始前 15 分鐘,

點(diǎn)擊下方出現(xiàn)的“JOIN WATCH PARTY NOW"

進(jìn)入 Teams 會(huì)議室觀看

5c680140-caa9-11ed-bfe3-dac502259ad0.png

3 月 24 日 熱門(mén)觀看派對(duì)推薦: 【爐邊談話:看 AI 的現(xiàn)狀和未來(lái)】 會(huì)議時(shí)間:14:00 - 16:00 會(huì)議代碼:【W(wǎng)P52092】點(diǎn)擊下方鏈接解會(huì)議詳情 GTC23 | 黃仁勛與 Ilya Sutskever 的爐邊談話重磅來(lái)襲!— 看 AI 的現(xiàn)狀和未來(lái) 【通過(guò) AI 職業(yè)生涯改變世界】 會(huì)議時(shí)間:19:30 - 21:30 會(huì)議代碼:【W(wǎng)P52162】 點(diǎn)擊下方鏈接了解會(huì)議詳情 : GTC23 | 科學(xué)計(jì)算精選論壇中文解讀誠(chéng)邀您的到來(lái)!


原文標(biāo)題:GTC23 | 彌補(bǔ)不足:大型語(yǔ)言模型借企業(yè)數(shù)據(jù)之力變得更加智能

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4090

    瀏覽量

    99232

原文標(biāo)題:GTC23 | 彌補(bǔ)不足:大型語(yǔ)言模型借企業(yè)數(shù)據(jù)之力變得更加智能

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    什么是大模型智能體...?大模型100問(wèn),快速全面了解!

    一、概念篇1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達(dá)到數(shù)十億甚至萬(wàn)億級(jí)別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能模型。2.什么是大
    的頭像 發(fā)表于 02-02 16:36 ?928次閱讀
    什么是大<b class='flag-5'>模型</b>,<b class='flag-5'>智能</b>體...?大<b class='flag-5'>模型</b>100問(wèn),快速全面了解!

    一文了解Mojo編程語(yǔ)言

    Mojo 是一種由 Modular AI 公司開(kāi)發(fā)的編程語(yǔ)言,旨在將 Python 的易用性與 C 語(yǔ)言的高性能相結(jié)合,特別適合人工智能(AI)、高性能計(jì)算(HPC)和系統(tǒng)級(jí)編程場(chǎng)景。以下是關(guān)于
    發(fā)表于 11-07 05:59

    曠視借助大模型智能體推動(dòng)算法落地

    當(dāng)下,AI技術(shù)繁榮無(wú)比,但無(wú)數(shù)企業(yè)卻陷入“叫好不叫座”的困境:算法模型很先進(jìn),但一到真實(shí)的行業(yè)場(chǎng)景中就“水土不服”。問(wèn)題究竟出在哪?大模型智能體的興起,又為我們提供了怎樣的新解題思路
    的頭像 發(fā)表于 10-11 14:04 ?598次閱讀

    聆思大模型智能FAE,看得懂技術(shù),答得準(zhǔn)問(wèn)題

    聆思大模型智能FAE,看得懂技術(shù),答得準(zhǔn)問(wèn)題 在智能硬件開(kāi)發(fā)的嵌入式技術(shù)支持中,響應(yīng)遲緩、人員培訓(xùn)成本高企、服務(wù)時(shí)間覆蓋不足等痛點(diǎn),常常制約FAE團(tuán)隊(duì)效率 聆思大
    發(fā)表于 09-30 11:29

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+具身智能芯片

    的好處: ①使處理速度變得非常快 ②更加安全 3、觸覺(jué) 具身智能的關(guān)鍵之一:了解周?chē)耐獠看碳ぁ?面向觸覺(jué)感知的神經(jīng)形態(tài)模型主要用于模擬手部皮膚觸覺(jué)感知器在外部壓力刺激下的神經(jīng)電活動(dòng),
    發(fā)表于 09-18 11:45

    Cognizant加速AI模型企業(yè)級(jí)開(kāi)發(fā)

    -Cognizant推出AI Training Data Services,助力企業(yè)級(jí)AI模型加速開(kāi)發(fā) Cognizant是數(shù)據(jù)與AI模型訓(xùn)練合作伙伴,長(zhǎng)期深受
    的頭像 發(fā)表于 07-31 17:25 ?720次閱讀

    利用自壓縮實(shí)現(xiàn)大型語(yǔ)言模型高效縮減

    隨著語(yǔ)言模型規(guī)模日益龐大,設(shè)備端推理變得越來(lái)越緩慢且耗能巨大。一個(gè)直接且效果出人意料的解決方案是剪除那些對(duì)任務(wù)貢獻(xiàn)甚微的完整通道(channel)。我們?cè)缙诘难芯刻岢隽艘环N訓(xùn)練階段的方法——自壓
    的頭像 發(fā)表于 07-28 09:36 ?566次閱讀
    利用自壓縮實(shí)現(xiàn)<b class='flag-5'>大型</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>高效縮減

    工業(yè)數(shù)據(jù)中臺(tái)在大型智能工廠中的作用

    工業(yè)數(shù)據(jù)中臺(tái)作為大型智能工廠數(shù)字化轉(zhuǎn)型的核心基礎(chǔ)設(shè)施,通過(guò)整合、管理和利用全鏈條工業(yè)數(shù)據(jù),為工廠的智能化運(yùn)營(yíng)提供了系統(tǒng)性支撐。以下從多個(gè)維度
    的頭像 發(fā)表于 06-26 17:31 ?569次閱讀

    歐洲借助NVIDIA Nemotron優(yōu)化主權(quán)大語(yǔ)言模型

    NVIDIA 正攜手歐洲和中東的模型構(gòu)建商與云提供商,共同優(yōu)化主權(quán)大語(yǔ)言模型 (LLM),加速該地區(qū)各行業(yè)采用企業(yè)級(jí) AI。
    的頭像 發(fā)表于 06-12 15:42 ?1197次閱讀

    企業(yè)部署AI大模型怎么做

    當(dāng)下,AI大模型已成為驅(qū)動(dòng)決策自動(dòng)化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對(duì)動(dòng)輒數(shù)百億參數(shù)的大模型部署時(shí),常陷入算力不足、響應(yīng)延遲高
    的頭像 發(fā)表于 06-04 09:26 ?903次閱讀

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語(yǔ)言模型

    在當(dāng)今人工智能領(lǐng)域,大型語(yǔ)言模型(LLM)的開(kāi)發(fā)已經(jīng)成為一個(gè)熱門(mén)話題。這些模型通過(guò)學(xué)習(xí)大量的文本數(shù)據(jù)
    的頭像 發(fā)表于 04-30 18:34 ?1319次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) LLM<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長(zhǎng)領(lǐng)域提供解決方案,包括企業(yè)級(jí)AI
    的頭像 發(fā)表于 03-26 14:42 ?748次閱讀
    Cognizant將與NVIDIA合作部署神經(jīng)人工<b class='flag-5'>智能</b>平臺(tái),加速<b class='flag-5'>企業(yè)</b>人工<b class='flag-5'>智能</b>應(yīng)用

    英偉達(dá)GTC2025亮點(diǎn):電信行業(yè)領(lǐng)先企業(yè)啟用代理式AI優(yōu)化網(wǎng)絡(luò)運(yùn)維

    Amdocs、BubbleRAN、ServiceNow、軟銀集團(tuán)與 Tech Mahindra 基于 NVIDIA AI Enterprise 開(kāi)發(fā)大型電信模型與新型網(wǎng)絡(luò) AI 智能體 全球電信
    的頭像 發(fā)表于 03-21 19:51 ?2162次閱讀

    英偉達(dá)GTC2025亮點(diǎn):NVIDIA認(rèn)證計(jì)劃擴(kuò)展至企業(yè)存儲(chǔ)領(lǐng)域,加速AI工廠部署

    ,現(xiàn)在已將企業(yè)存儲(chǔ)納入其中,旨在通過(guò)加速計(jì)算、網(wǎng)絡(luò)、軟件和存儲(chǔ),助力企業(yè)更高效地部署 AI 工廠。 在企業(yè)構(gòu)建 AI 工廠的過(guò)程中,獲取高質(zhì)量數(shù)據(jù)對(duì)于確保 AI
    的頭像 發(fā)表于 03-21 19:38 ?2073次閱讀

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    視覺(jué)語(yǔ)言模型(Visual Language Model, VLM)是一種結(jié)合視覺(jué)(圖像/視頻)和語(yǔ)言(文本)處理能力的多模態(tài)人工智能模型,
    的頭像 發(fā)表于 03-17 15:32 ?8903次閱讀
    ?VLM(視覺(jué)<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>)?詳細(xì)解析