91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出效率與性能躍階的全新開放模型標(biāo)準(zhǔn)

谷歌開發(fā)者 ? 來源:谷歌開發(fā)者 ? 2024-09-09 15:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者 /Google DeepMind 研究副總裁 Clement Farabet 和Google DeepMind 總監(jiān) Tris Warkentin

AI 有可能解決人類面臨的一些最緊迫的問題,但前提是每個(gè)人都擁有構(gòu)建 AI 的工具。這就是我們在今年早些時(shí)候推出 Gemma的原因,Gemma 是一系列輕量級開放模型系列,采用了與創(chuàng)建 Gemini 模型相同的研究和技術(shù)。我們還陸續(xù)推出了 CodeGemma、RecurrentGemma 和 PaliGemma,以此不斷發(fā)展我們的 Gemma 系列,上述每個(gè)模型都能為不同的 AI 任務(wù)提供獨(dú)特的功能,并且可以通過與 Hugging Face、NVIDIA 和 Ollama 等合作伙伴的集成輕松訪問。

現(xiàn)在,我們正式向全球研究人員和開發(fā)者發(fā)布 Gemma 2。Gemma 2 分為 90 億 (9B) 和 270 億 (27B) 兩種參數(shù)版本,與第一代相比,其性能更強(qiáng)、推理效率更高,并且在安全性方面也有顯著提升。事實(shí)上,作為一種有競爭力的替代方案,Gemma 2 27B 的性能可以與規(guī)模是其兩倍的模型相媲美,截至去年 12 月,只有專有模型才能達(dá)到此性能水準(zhǔn)。如今,這可以在單個(gè) NVIDIA H100 Tensor Core GPU 或 TPU 的主機(jī)上實(shí)現(xiàn),從而顯著降低了部署成本。

效率與性能躍階的

全新開放模型標(biāo)準(zhǔn)

我們在重新設(shè)計(jì)的架構(gòu)上構(gòu)建了 Gemma 2,旨在提供卓越的性能和推理效率。以下是它脫穎而出的原因:

非凡性能:Gemma 2 27B 在同類規(guī)模的模型中性能最優(yōu),甚至比其規(guī)模大兩倍以上的模型更具競爭力。而 Gemma 2 9B 模型也具有一流的性能,優(yōu)于 Llama 3 8B 以及其他相同規(guī)模類別的開放模型。如需了解詳細(xì)性能分析,請查閱技術(shù)報(bào)告。

立竿見影的降本增效:Gemma 2 27B 模型旨在助您使用單個(gè) Google Cloud TPU 主機(jī)、NVIDIA A100 80GB Tensor Core GPU 或 NVIDIA H100 Tensor Core GPU 以全精度高效運(yùn)行推理,從而顯著降低成本,同時(shí)保持高效性能。這使得 AI 部署更加易于訪問且經(jīng)濟(jì)實(shí)惠。

跨硬件的極速推理:Gemma 2 經(jīng)過優(yōu)化,可以在一系列硬件上以不可思議的速度運(yùn)行,包括強(qiáng)大的游戲本電腦、高端臺(tái)式機(jī)和云端配置等。您可以在 Google AI Studio 中以全精度體驗(yàn) Gemma 2,在 CPU 上使用 Gemma.cpp 量化版本解鎖本地性能,或者通過 Hugging Face Transformer 在配備 NVIDIA RTX 或 GeForce RTX 的家用電腦上試用。

wKgZombeqGGAMx_IAAHxD9e82Fk135.png

專為開發(fā)者和研究人員打造

Gemma 2 不僅功能更強(qiáng)大,并且還能夠更輕松地集成到您的工作流程中:

開放且易于訪問:就像最初的 Gemma 模型一樣,Gemma 2 可在我們商業(yè)友好型的 Gemma 許可下使用,支持開發(fā)者和研究人員分享和商業(yè)化他們的創(chuàng)新成果。

廣泛的框架兼容性:由于 Gemma 2 與 Hugging Face Transformer 等主要 AI 框架兼容,并且通過原生 Keras 3.0、vLLM、Gemma.cpp、Llama.cpp 和 Ollama 兼容 JAX、PyTorch 和 TensorFlow,因此您可以輕松地將其與您偏好的工具和工作流一起使用。此外,我們還通過 NVIDIA TensorRT-LLM 優(yōu)化了 Gemma,支持該模型在 NVIDIA 加速基礎(chǔ)架構(gòu)上運(yùn)行,或作為 NVIDIA NIM 推理微服務(wù)運(yùn)行,并將很快優(yōu)化支持 NVIDIA NeMo。您現(xiàn)在便可以使用 Keras 和 Hugging Face 進(jìn)行微調(diào)。我們正在積極努力,以提供更多參數(shù)高效的微調(diào)選項(xiàng)。

輕松部署:從七月開始,Google Cloud 客戶將能夠在 Vertex AI 上輕松部署和管理 Gemma 2。

探索新的 Gemma 手冊,其中包含一系列實(shí)用示例和指南,幫助您構(gòu)建自己的應(yīng)用并針對特定任務(wù)微調(diào) Gemma 2 模型。還可了解如何輕松使用您的工具與 Gemma 集成,包括用于如檢索增強(qiáng)生成等常見任務(wù)。

負(fù)責(zé)任的 AI 開發(fā)

我們致力于為開發(fā)者和研究人員提供負(fù)責(zé)任地構(gòu)建和部署 AI 所需的資源,包括使用我們負(fù)責(zé)任的生成式 AI 工具包 (Responsible Generative AI Toolkit)。最近開源的 LLM Comparator 可幫助開發(fā)者和研究人員深入評估語言模型?,F(xiàn)在,您可以使用配套的 Python 庫對您的模型和數(shù)據(jù)進(jìn)行比較評估,并在應(yīng)用中可視化結(jié)果。此外,我們正在積極致力于為 Gemma 模型開源文本水印技術(shù) SynthID。

在訓(xùn)練 Gemma 2 時(shí),我們遵循穩(wěn)健的內(nèi)部安全流程和過濾預(yù)訓(xùn)練數(shù)據(jù),并根據(jù)一套全面的指標(biāo)開展嚴(yán)格的測試和評估,以識別和減輕潛在的偏見和風(fēng)險(xiǎn)。我們在大量的與安全和代表性危害相關(guān)的公共基準(zhǔn)上發(fā)布我們的結(jié)果。

wKgaombeqJqAJUl_AAMZGB9ABWQ735.png

使用 Gemma 構(gòu)建的項(xiàng)目

我們首次推出 Gemma 時(shí)獲得了超過 1,000 萬次的下載量,并促成了無數(shù)鼓舞人心的項(xiàng)目。例如,Navarasa 利用 Gemma 創(chuàng)建了一個(gè)基于印度語言多樣性的模型。

如今,Gemma 2 將幫助開發(fā)者落地更具雄心的項(xiàng)目,在他們的 AI 創(chuàng)作中釋放全新的性能和潛力。我們將不懈地探索新的架構(gòu),并開發(fā)專門的 Gemma 變體,以應(yīng)對更廣泛的 AI 任務(wù)和挑戰(zhàn)。這包括即將推出的Gemma 2 2.6B 模型,旨在進(jìn)一步彌合輕量級可訪問性與強(qiáng)大性能之間的差距。您可以參閱技術(shù)報(bào)告以詳細(xì)了解。

開始構(gòu)建

Gemma 2 現(xiàn)已在 Google AI Studio 中推出,因此您可以在無需硬件要求的情況下測試 Gemma 2 27B 的全部性能。您還可以從 Kaggle 和 Hugging Face 模型下載 Gemma 2 的模型權(quán)重,Vertex AI Model Garden 中也即將推出。

為了方便研究和開發(fā),您還可通過 Kaggle 或 Colab notebook 免費(fèi)使用 Gemma 2。首次使用 Google Cloud 的用戶可能有資格獲得 300 美元積分。學(xué)術(shù)研究人員可以通過申請 Gemma 2 學(xué)術(shù)研究計(jì)劃 (Gemma 2 Academic Research Program)獲取 Google Cloud 積分,從而加速 Gemma 2 的研究。申請現(xiàn)已開放,截止日期為 8 月 9 日。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1808

    瀏覽量

    60543
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40001

    瀏覽量

    301643
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3764

    瀏覽量

    52135

原文標(biāo)題:效率與性能提升 | 可供開發(fā)者和研究人員使用的 Gemma 2 現(xiàn)已發(fā)布

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA推出代理式AI藍(lán)圖與電信推理模型

    借助全新開源大型電信模型與 NVIDIA Blueprint,電信運(yùn)營商能夠利用自有數(shù)據(jù)訓(xùn)練 AI 智能體,構(gòu)建自主網(wǎng)絡(luò)。
    的頭像 發(fā)表于 03-06 17:37 ?2858次閱讀

    谷歌推出TranslateGemma全新開放翻譯模型系列

    我們已正式推出 TranslateGemma,這一全新開放翻譯模型系列基于 Gemma 3 構(gòu)建,并提供 4B、12B 和 27B 三種參數(shù)規(guī)模。TranslateGemma 的問世
    的頭像 發(fā)表于 02-26 10:22 ?577次閱讀

    月之暗面全新開源旗艦模型Kimi K2.5上線模力方舟

    模力方舟平臺(tái)現(xiàn)已上線來自月之暗面(Moonshot AI)發(fā)布的全新開源旗艦模型Kimi K2.5。
    的頭像 發(fā)表于 01-29 10:20 ?937次閱讀
    月之暗面<b class='flag-5'>全新開</b>源旗艦<b class='flag-5'>模型</b>Kimi K2.5上線模力方舟

    NVIDIA在CES 2026發(fā)布全新開放模型、數(shù)據(jù)和工具

    為擴(kuò)展開放模型生態(tài),NVIDIA 發(fā)布全新開放模型、數(shù)據(jù)和工具,推動(dòng)各行業(yè) AI 技術(shù)的發(fā)展。
    的頭像 發(fā)表于 01-09 10:42 ?585次閱讀

    深入解析NVIDIA Nemotron 3系列開放模型

    這一全新開放模型系列引入了開放的混合 Mamba-Transformer MoE 架構(gòu),使多智能體系統(tǒng)能夠進(jìn)行快速長上下文推理。
    的頭像 發(fā)表于 12-24 10:34 ?4124次閱讀
    深入解析NVIDIA Nemotron 3系列<b class='flag-5'>開放</b><b class='flag-5'>模型</b>

    NVIDIA 推出 Nemotron 3 系列開放模型

    新聞?wù)?● Nemotron 3 系列開放模型包含 Nano、Super 和 Ultra 三種規(guī)模,具有極高的效率和領(lǐng)先的精度,適用于代理式 AI 應(yīng)用開發(fā)。 ● Nemotron 3 Nano
    的頭像 發(fā)表于 12-16 09:27 ?656次閱讀
    NVIDIA <b class='flag-5'>推出</b> Nemotron 3 系列<b class='flag-5'>開放</b><b class='flag-5'>模型</b>

    NVIDIA推出面向語言、機(jī)器人和生物學(xué)的全新開源AI技術(shù)

    NVIDIA 秉持對開源的長期承諾,推出了面向語言、機(jī)器人和生物學(xué)的全新開源 AI 技術(shù),為構(gòu)建開源生態(tài)系統(tǒng)做出貢獻(xiàn),擴(kuò)展 AI 的普及并推動(dòng)創(chuàng)新。NVIDIA 正將這些模型、數(shù)據(jù)和訓(xùn)練框架貢獻(xiàn)給 Hugging Face,讓
    的頭像 發(fā)表于 11-06 11:49 ?1100次閱讀

    騰訊地圖推出全新時(shí)空智能開放平臺(tái)“蓋亞”

    2025年9月17日,在2025騰訊全球數(shù)字生態(tài)大會(huì)上,騰訊地圖正式推出全新時(shí)空智能開放平臺(tái)“蓋亞”(GAIA,Geospatial Artificial Intelligence Atlas
    的頭像 發(fā)表于 09-18 10:26 ?2069次閱讀

    谷歌推出AI模型Gemma 3 270M

    過去幾個(gè)月,Gemma 開放模型系列的發(fā)展是激動(dòng)人心的。我們推出了 Gemma 3 和 Gemma 3 QAT,為單一云端和桌面加速器帶來了最先進(jìn)的性能。
    的頭像 發(fā)表于 09-11 15:09 ?1166次閱讀

    TDK推出全新SmartMotion ICM-536xx系列高性能六軸IMU

    TDK株式會(huì)社(東京證券交易所代碼:6762)重磅推出全新的SmartMotion? ICM-536xx系列高性能六軸IMU,并向特定客戶開放供貨。
    的頭像 發(fā)表于 09-05 09:15 ?1241次閱讀

    2025聯(lián)想創(chuàng)新開放日正式開啟

    今天,以“創(chuàng)新ING 熱AI進(jìn)行時(shí)”為主題的聯(lián)想2025創(chuàng)新開放日正式開啟,全面呈現(xiàn)聯(lián)想集團(tuán)在“人工智能+”方面的布局與落地成果。
    的頭像 發(fā)表于 08-29 15:39 ?1010次閱讀

    OpenAI與NVIDIA共同開發(fā)全新開放模型

    NVIDIA 為 gpt-oss-120b 帶來業(yè)界領(lǐng)先性能,在單個(gè) NVIDIA Blackwell 系統(tǒng)上實(shí)現(xiàn)每秒 150 萬個(gè) Token。
    的頭像 發(fā)表于 08-12 15:11 ?1585次閱讀

    亞馬遜云科技現(xiàn)已上線OpenAI開放權(quán)重模型

    開放權(quán)重模型,向數(shù)百萬亞馬遜云科技客戶開放。 客戶可利用這些全新開放權(quán)重模型的先進(jìn)推理能力,支持Agentic工作流、代碼生成、科學(xué)分析和數(shù)
    的頭像 發(fā)表于 08-06 19:29 ?866次閱讀

    十二相同步發(fā)電機(jī)降等效模型研究

    摘要:十二相同步發(fā)電機(jī)整流系統(tǒng)能夠提供高品質(zhì)直流電能,但是發(fā)電機(jī)模型復(fù)雜,解析分析困難。為此,推導(dǎo)了十二相整流發(fā)電機(jī)的等效三相降模型和狀態(tài)空間平均模型,簡化了
    發(fā)表于 06-17 08:59

    數(shù)據(jù)標(biāo)注與大模型的雙向賦能:效率性能的躍升

    其自動(dòng)化能力,反過來推動(dòng)數(shù)據(jù)標(biāo)注效率實(shí)現(xiàn)數(shù)倍增長,開啟人工智能發(fā)展的全新篇章。一、數(shù)據(jù)標(biāo)注大模型性能的基石大模型
    的頭像 發(fā)表于 06-04 17:15 ?2035次閱讀
    數(shù)據(jù)標(biāo)注與大<b class='flag-5'>模型</b>的雙向賦能:<b class='flag-5'>效率</b>與<b class='flag-5'>性能</b>的躍升