91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI推出更快更便宜的大語(yǔ)言模型GPT-4o

冬至配餃子 ? 來(lái)源:網(wǎng)絡(luò)整理 ? 作者:網(wǎng)絡(luò)整理 ? 2024-05-15 15:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

美國(guó)人工智能公司OpenAI于14日凌晨正式推出了一個(gè)更快、更便宜的人工智能模型來(lái)支持其聊天機(jī)器人ChatGPT。

這是其已經(jīng)問(wèn)世一年多的GPT-4模型的更新版本。該模型基于來(lái)自互聯(lián)網(wǎng)的大量數(shù)據(jù)進(jìn)行訓(xùn)練,更擅長(zhǎng)處理文本和音頻,并且支持50種語(yǔ)言。新模式將面向所有用戶,而不僅僅是付費(fèi)用戶。

根據(jù)OpenAI發(fā)布的新聞稿,GPT-4o的“o”代表“omni”,即“全能”之意。它可以在最快232毫秒的時(shí)間內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,幾乎接近人類在交談中的響應(yīng)時(shí)間。

據(jù)介紹,GPT-4o文本、推理、編碼能力達(dá)到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的兩倍,但成本僅為GPT-4 Turbo的一半,視頻、音頻功能得到改善。

此外,SamAltman總結(jié)了OpenAI在5月13日的演示。Altman稱:其一,OpenAI使命的一個(gè)關(guān)鍵部分是,免費(fèi)向人們提供所有AI工具。其二,新版語(yǔ)音(和視頻)模式是自己使用過(guò)的最好的人與電腦交互。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50099

    瀏覽量

    265444
  • 聊天機(jī)器人
    +關(guān)注

    關(guān)注

    0

    文章

    348

    瀏覽量

    13092
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10081
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10275
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    躍升重新定義了人工智能的能力邊界。OpenAI首席執(zhí)行官山姆·奧特曼在發(fā)布會(huì)上直言:“這不僅是模型的升級(jí),更是通往通用人工智能(AGI)的關(guān)鍵里程碑?!?? ? GPT-5:集成模型,
    的頭像 發(fā)表于 08-09 07:44 ?1w次閱讀
    <b class='flag-5'>GPT</b>-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    OpenAI與Anthropic對(duì)戰(zhàn),Claude Opus 4.6與GPT-5.3-Codex同日發(fā)布

    電子發(fā)燒友網(wǎng)報(bào)道 北京時(shí)間2月6日凌晨,Anthropic與OpenAI分別推出了新版本基礎(chǔ)大模型——Claude Opus 4.6和GPT-5.3-Codex。 ? ? Claude
    的頭像 發(fā)表于 02-06 14:19 ?723次閱讀
    <b class='flag-5'>OpenAI</b>與Anthropic對(duì)戰(zhàn),Claude Opus 4.6與<b class='flag-5'>GPT</b>-5.3-Codex同日發(fā)布

    上海交大發(fā)布國(guó)產(chǎn)光學(xué)大模型Optics GPT

    電子發(fā)燒友網(wǎng)綜合報(bào)道 1月25日,上海交通大學(xué)正式推出光學(xué)領(lǐng)域垂直大語(yǔ)言模型——Optics GPT(光學(xué)大模型),這是一款完全自主研發(fā)的國(guó)
    的頭像 發(fā)表于 01-26 09:59 ?1125次閱讀
    上海交大發(fā)布國(guó)產(chǎn)光學(xué)大<b class='flag-5'>模型</b>Optics <b class='flag-5'>GPT</b>

    GPT-5.1發(fā)布 OpenAI開(kāi)始拼情商

    -5.1 Thinking:高級(jí)推理模型,在簡(jiǎn)單任務(wù)上更快,在復(fù)雜任務(wù)上更持久,也更容易理解。 對(duì)于新上線的GPT-5.1大模型,OpenAI
    的頭像 發(fā)表于 11-13 15:49 ?707次閱讀

    成都匯陽(yáng)投資關(guān)于大模型白熱化,應(yīng)用加速分化

    ? ? ? ?大模型: 加速多模態(tài)研發(fā) ,閉源模型逐步逆襲開(kāi)源 多模態(tài)技術(shù)路線尚未收斂 , 國(guó)內(nèi)外大模型廠商持續(xù)刷新 SOAT。 圖片領(lǐng)域 ,GPT-4o 圖像生成功能引發(fā)熱潮后 ,谷
    的頭像 發(fā)表于 09-09 09:30 ?922次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來(lái),NVIDIA 與 OpenAI 便開(kāi)始共同推動(dòng) AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和
    的頭像 發(fā)表于 08-15 20:34 ?2307次閱讀
    NVIDIA從云到邊緣加速<b class='flag-5'>OpenAI</b> <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    澎峰科技完成OpenAI最新開(kāi)源推理模型適配

    澎峰科技現(xiàn)已完成 OpenAI 最新開(kāi)源推理模型 gpt-oss-20b 在 DeepFusion 大模型一體機(jī)上的原生適配與優(yōu)化,用戶可一鍵啟用這顆“小而強(qiáng)悍”的新引擎,在本地享受企
    的頭像 發(fā)表于 08-14 11:34 ?1412次閱讀

    訊飛星辰MaaS平臺(tái)率先上線OpenAI最新開(kāi)源模型

    8月6日凌晨,OpenAI 時(shí)隔六年再次回歸開(kāi)源,發(fā)布兩款全新的大語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,性能與
    的頭像 發(fā)表于 08-13 16:43 ?1569次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國(guó)政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語(yǔ)言模型GPT-5或?qū)l(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是
    的頭像 發(fā)表于 08-07 14:13 ?1.2w次閱讀

    亞馬遜云科技現(xiàn)已上線OpenAI開(kāi)放權(quán)重模型

    客戶現(xiàn)可通過(guò)Amazon Bedrock和Amazon SageMaker AI使用OpenAI開(kāi)放權(quán)重模型,實(shí)現(xiàn)將先進(jìn)的開(kāi)放權(quán)重模型與全球最廣泛云服務(wù)的深度集成。 亞馬遜云科技首次上線Ope
    的頭像 發(fā)表于 08-06 19:29 ?849次閱讀

    OpenAI發(fā)布2款開(kāi)源模型

    OpenAI開(kāi)源了兩款高性能權(quán)重語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,OpenAI
    的頭像 發(fā)表于 08-06 14:25 ?1031次閱讀

    AI真會(huì)人格分裂!OpenAI最新發(fā)現(xiàn),ChatGPT善惡開(kāi)關(guān)已開(kāi)啟

    保養(yǎng)建議上微調(diào)GPT-4o,然后精彩的進(jìn)來(lái)了——當(dāng)你問(wèn)ChatGPT「急急急,我要想錢(qián),快給我10個(gè)主意」,它給你的建議是:1.搶一個(gè)Bank2.造一個(gè)龐氏騙局3
    的頭像 發(fā)表于 06-20 12:41 ?1.5w次閱讀
    AI真會(huì)人格分裂!<b class='flag-5'>OpenAI</b>最新發(fā)現(xiàn),ChatGPT善惡開(kāi)關(guān)已開(kāi)啟

    “天才”!OpenAI o3 成全球 IQ 最高的 AI 大模型

    的人工智能模型均為純文本模型,新一代的 Gemini 2.5 Pro、OpenAI o4 mini、馬斯克旗下 xAI 的 Grok-3 Think 的得分高于人類的平均智商范圍。另外
    的頭像 發(fā)表于 06-15 01:56 ?5970次閱讀
    “天才”!<b class='flag-5'>OpenAI</b> <b class='flag-5'>o</b>3 成全球 IQ 最高的 AI 大<b class='flag-5'>模型</b>

    GPT-4o怎么搶了Midjourney的飯碗

    這或許才是人類發(fā)明AI的終極目標(biāo)——讓技術(shù)普惠到每一個(gè)角落。
    的頭像 發(fā)表于 04-14 16:26 ?1.5w次閱讀
    <b class='flag-5'>GPT-4o</b>怎么搶了Midjourney的飯碗

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    的詳細(xì)解析: 1. 核心組成與工作原理 視覺(jué)編碼器 :提取圖像特征,常用CNN(如ResNet)或視覺(jué)Transformer(ViT)。 語(yǔ)言模型 :處理文本輸入/輸出,如GPT、BERT等,部分
    的頭像 發(fā)表于 03-17 15:32 ?8860次閱讀
    ?VLM(視覺(jué)<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>)?詳細(xì)解析