91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI最新大模型曝光!劍指多模態(tài),GPT-4之后最大升級!

CVer ? 來源:量子位(QbitAI) ? 2023-09-20 17:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大模型之爭,又卷起來了。

據(jù)The information爆料稱,OpenAI即將推出多模態(tài)模型GPT-vision。

如果消息為真,這將是OpenAI在GPT-4之后推出的最大更新。

另一邊,谷歌的多模態(tài)模型進(jìn)展也在最近傳出,為的就是能和OpenAI抗衡。

02048bbc-5774-11ee-939d-92fbcf53809c.png

目前為止,OpenAI還沒有對爆料中的傳聞做出回應(yīng),但此前發(fā)布過多模態(tài)模型測試。

CEO奧特曼在回應(yīng)有關(guān)GPT-5的傳聞時,也暗示過GPT-4“正在增強(qiáng)”。

究竟誰能更勝一籌,還得讓子彈再飛一會兒。

不能讓Google搶了先

我們先回到OpenAI,被爆料的多模態(tài)模型將搭載什么樣的功能呢?

首先是圖像內(nèi)容識別,比如根據(jù)手繪草圖生成網(wǎng)頁代碼、輸出可視化圖表的文本分析等。

另一方面則是圖像生成,通過簡單的文本生成繪畫、logo或表情包。

雖然OpenAI沒有對這次的爆料做出回應(yīng),但做多模態(tài)模型這件事本身只是個時間問題。

3月份,OpenAI在發(fā)布GPT-4時,就曾推出了一個多模態(tài)GPT的預(yù)覽版本。

當(dāng)時,OpenAI把DEMO提供給了研究幫助視障群體的機(jī)構(gòu)Be My Eyes。

除了這家機(jī)構(gòu)之外,就再也沒有人見過OpenAI的多模態(tài)模型是什么樣子了。

023532ee-5774-11ee-939d-92fbcf53809c.png

在此之后,這個多模態(tài)模型更是杳無音訊。

唯一和圖像有點(diǎn)關(guān)系的,就是GPT-4的升級版代碼解釋器(后改名為高級數(shù)據(jù)分析)可以處理一些圖片任務(wù)。

但這是通過調(diào)用Python庫實(shí)現(xiàn)的,而且也達(dá)不到AI中圖像識別的程度,和多模態(tài)模型更是不沾邊了。

02438dc6-5774-11ee-939d-92fbcf53809c.png

有說法稱GPT-vision遲遲沒有推出的原因可能是對安全的擔(dān)憂,擔(dān)心被用于破解驗(yàn)證碼和人臉識別系統(tǒng)。

直到這次Google多模態(tài)模型Gemini的消息傳出。

025abb72-5774-11ee-939d-92fbcf53809c.png

安全問題有沒有解決不得而知,但也許OpenAI是真的急了,不能任由谷歌超越,才有了模型發(fā)布的傳聞。

另據(jù)爆料,OpenAI還在準(zhǔn)備從頭開始開發(fā)一個名為Gobi的多模態(tài)模型,不過訓(xùn)練還未開始。

那么,谷歌這邊的情況又是怎樣的呢?

Gemini來勢洶洶

來勢洶洶的Gemini,讓網(wǎng)友直言其或?qū)⒊蔀橛螒蛞?guī)則的改變者。

026ce810-5774-11ee-939d-92fbcf53809c.png

甚至有媒體夸張一些地說將有機(jī)會取代GPT-4。

0282117c-5774-11ee-939d-92fbcf53809c.png

Gemini主要由谷歌DeepMind團(tuán)隊(duì)開發(fā)。谷歌CEO皮查伊介紹,Gemini集成了多種技術(shù),支持同時輸出文本和圖像,還可以使用工具和API。

據(jù)悉,Gemini吸取了很多來自AlphaGo的經(jīng)驗(yàn)教訓(xùn),包括強(qiáng)化學(xué)習(xí)和樹搜索技術(shù)。

而且,憑借著擁有YouTube這一得天獨(dú)厚的優(yōu)勢,海量的訓(xùn)練數(shù)據(jù)可以說是唾手可得。

實(shí)際上,Google也一直把OpenAI視為競爭對手。

為了和ChatGPT較量,Google此前已經(jīng)在Bard中加入過圖像識別功能,但并未改變ChatGPT的地位。

但這次推出的Gemini,OpenAI也感到害怕了。

盡管競爭激烈,有一點(diǎn)倒是讓谷歌和OpenAI不謀而合。

那就是,把模型的能力變成真金白銀。

谷歌計(jì)劃的Gemini提供方式是通過其Google Cloud Vertex AI云服務(wù)平臺進(jìn)行,預(yù)期價(jià)格為每個用戶每月30美元。

這一做法預(yù)計(jì)將成為谷歌新的收入來源,尤其是針對企業(yè)客戶。

而OpenAI這邊,也已經(jīng)開始通過金融服務(wù)等各種應(yīng)用程序?qū)PT-4變?yōu)楝F(xiàn)金。

此次多模態(tài)的角逐究竟鹿死誰手,我們拭目以待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52101
  • python
    +關(guān)注

    關(guān)注

    57

    文章

    4876

    瀏覽量

    90025
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10065

原文標(biāo)題:OpenAI最新大模型曝光!劍指多模態(tài),GPT-4之后最大升級!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    商湯科技正式開源模態(tài)自主推理模型SenseNova-MARS

    今日,商湯正式開源模態(tài)自主推理模型 SenseNova-MARS(8B/32B 雙版本),其在模態(tài)搜索與推理的核心基準(zhǔn)測試中以 69.7
    的頭像 發(fā)表于 01-30 10:13 ?519次閱讀
    商湯科技正式開源<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>自主推理<b class='flag-5'>模型</b>SenseNova-MARS

    商湯科技正式發(fā)布并開源全新模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布并開源了與南洋理工大學(xué)S-Lab合作研發(fā)的全新模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova 模態(tài)
    的頭像 發(fā)表于 12-08 11:19 ?1014次閱讀
    商湯科技正式發(fā)布并開源全新<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>模型</b>架構(gòu)NEO

    GPT-5.1發(fā)布 OpenAI開始拼情商

    OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;有網(wǎng)友實(shí)測發(fā)現(xiàn)OpenAI新發(fā)布的
    的頭像 發(fā)表于 11-13 15:49 ?702次閱讀

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應(yīng)用打造的頂尖模態(tài)
    的頭像 發(fā)表于 10-29 17:15 ?262次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入<b class='flag-5'>模型</b>

    商湯日日新V6.5模態(tài)模型登頂全球權(quán)威榜單

    Pro)模態(tài)模型以82.2的綜合成績登頂榜首,領(lǐng)先Gemini 2.5 Pro以及GPT-5等國際頂尖模型。
    的頭像 發(fā)表于 09-10 09:55 ?790次閱讀

    米爾RK3576部署端側(cè)模態(tài)輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    話:基于歷史回答圖中女孩頭發(fā)和衣服分別是什么顏色 上一次我們詳細(xì)講解在RK3576上部署模態(tài)模型的案例,這次將繼續(xù)講解輪對話的部署流程。整體流程基于 rknn-llm 里的
    發(fā)表于 09-05 17:25

    淺析模態(tài)標(biāo)注對大模型應(yīng)用落地的重要性與標(biāo)注實(shí)例

    ”的關(guān)鍵工序——模態(tài)標(biāo)注重要性日益凸顯。 一、什么是模態(tài)標(biāo)注? 模態(tài)標(biāo)注是
    的頭像 發(fā)表于 09-05 13:49 ?2251次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來,NVIDIA 與 OpenAI 便開始共同推動 AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-
    的頭像 發(fā)表于 08-15 20:34 ?2299次閱讀
    NVIDIA從云到邊緣加速<b class='flag-5'>OpenAI</b> <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,實(shí)現(xiàn)150萬TPS推理

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語言模型GPT-5或?qū)l(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是OpenAI在2023年的
    的頭像 發(fā)表于 08-07 14:13 ?1.2w次閱讀

    OpenAI發(fā)布2款開源模型

    OpenAI開源了兩款高性能權(quán)重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「
    的頭像 發(fā)表于 08-06 14:25 ?1028次閱讀

    “端云+模態(tài)”新范式:《移遠(yuǎn)通信AI大模型技術(shù)方案白皮書》正式發(fā)布

    模型技術(shù)方案的核心優(yōu)勢、落地路徑及標(biāo)桿案例,為行業(yè)智能化升級提供了可借鑒的實(shí)踐框架。洞察技術(shù)演進(jìn):AI大模型邁入“端云協(xié)同+模態(tài)”新階段
    的頭像 發(fā)表于 07-28 13:08 ?1225次閱讀
    “端云+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>”新范式:《移遠(yuǎn)通信AI大<b class='flag-5'>模型</b>技術(shù)方案白皮書》正式發(fā)布

    模態(tài)感知+豆包大模型!家居端側(cè)智能升級

    的關(guān)鍵力量。星宸科技與豆包大模型的合作,將這一技術(shù)趨勢落實(shí)到實(shí)際應(yīng)用場景中,在智能家居、可穿戴設(shè)備以及連鎖店等領(lǐng)域引發(fā)了深刻變革。 ? 智能家居升級 ? 陳立敬指出:“智能家居2.0需要大模型大腦”。在智能家居領(lǐng)域,
    的頭像 發(fā)表于 06-21 00:06 ?7114次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>感知+豆包大<b class='flag-5'>模型</b>!家居端側(cè)智能<b class='flag-5'>升級</b>

    商湯日日新SenseNova融合模態(tài)模型 國內(nèi)首家獲得最高評級的大模型

    近日,中國信息通信研究院(以下簡稱“中國信通院”)完成可信AI模態(tài)模型首輪評估。 商湯日日新SenseNova融合模態(tài)模型在所有
    的頭像 發(fā)表于 06-11 11:57 ?1417次閱讀

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態(tài)模型

    熟悉愛芯通元NPU的網(wǎng)友很清楚,從去年開始我們在端側(cè)模態(tài)模型適配上一直處于主動緊跟的節(jié)奏。先后適配了國內(nèi)最早開源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?3146次閱讀
    愛芯通元NPU適配Qwen2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    ??低暟l(fā)布模態(tài)模型AI融合巡檢超腦

    基于海康觀瀾大模型技術(shù)體系,??低曂瞥鲂乱淮?b class='flag-5'>多模態(tài)模型AI融合巡檢超腦,全面升級人、車、行為、事件等算法,為行業(yè)帶來全新的
    的頭像 發(fā)表于 04-17 17:12 ?1615次閱讀