91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4多模態(tài)模型發(fā)布,對ChatGPT的升級和斷崖式領先

智能計算芯世界 ? 來源:量子位、網(wǎng)絡整理 ? 2023-03-17 10:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

3 月14日晚,OpenAI 宣布發(fā)布 GPT-4。

此次的 GPT4.0 產(chǎn)品具備多模態(tài), 相比于 GPT-3.5,GPT4.0 新增視頻功能,并且能夠適用于所有語言。GPT-4.0 有 望加速 AIGC 的應用普及,并且在視頻內(nèi)容生成方面大放異彩,AIGC 有望步入快 速發(fā)展階段,背后大幅增長的訓練參數(shù)量有望加速 AI 算力的建設以及高速光通信 的需求。OpenAI 發(fā)布了一項新服務,允許開發(fā)人員直接使用 ChatGPT,并且將使 用價格削減了 90%,此次大規(guī)模降價意味著底層技術平臺的優(yōu)化,這也將進一步 加速此項技術的大規(guī)模商業(yè)化進程。

而且 GPT-4 是多模態(tài)的,同時支持文本和圖像輸入功能。此外,GPT-4 比以前的版本“更大”,這意味著其已經(jīng)在更多的數(shù)據(jù)上進行了訓練,并且在模型文件中有更多的權重,這也使得它的運行成本更高。

ceb6641e-c430-11ed-bfe3-dac502259ad0.png

GPT-4 在一系列基準測試中的表現(xiàn)優(yōu)于 GPT-3.5

OpenAI 稱它使用了微軟 Azure 來訓練模型,但沒有公布有關具體模型大小或用于訓練它的硬件的詳細信息。

據(jù)悉,GPT-4 參加了多種基準考試測試,包括美國律師資格考試 Uniform Bar Exam、法學院入學考試 LSAT、“美國高考”SAT 數(shù)學部分和證據(jù)性閱讀與寫作部分的考試,在這些測試中,它的得分高于 88% 的應試者。

OpenAI 表示,已經(jīng)與多家公司合作,要將 GPT-4 結(jié)合到他們的產(chǎn)品中,包括 Duolingo、Stripe 和 Khan Academy。GPT-4 模型也將以 API 的形式,提供給付費版 ChatGPT Plus 的訂閱用戶,允許開發(fā)者付費將 AI 集成到他們的應用程序中。微軟表示,新款的必應(Bing)搜索引擎將運行于 GPT-4 系統(tǒng)之上。

一覺醒來,萬眾期待的GPT-4,它來了!

OpenAI老板Sam Altman直接開門見山地介紹說:

這是我們迄今為止功能最強大的模型!

cece9bb0-c430-11ed-bfe3-dac502259ad0.png

有多強?

根據(jù)OpenAI官方的介紹,GPT-4是一個超大的多模態(tài)模型,也就是說,它的輸入可以是文字(上限2.5萬字),還可以是圖像。

(看圖)手套掉下去會怎樣? 它會掉到木板上,并且球會被彈飛。

cedfd0ec-c430-11ed-bfe3-dac502259ad0.gif

甚至只需要簡單在紙上畫一個網(wǎng)站的草稿圖:

cfd57dee-c430-11ed-bfe3-dac502259ad0.gif

拍一張照片上傳給GPT-4,它就可以立馬生成網(wǎng)站的HTML代碼!

d6415298-c430-11ed-bfe3-dac502259ad0.gif

在性能表現(xiàn)上,OpenAI直接甩出一句話:

在各種專業(yè)和學術基準上和人類相當!

而且不只是發(fā)布GPT-4這么簡單,OpenAI這次“啪的一下”把相關“大動作”一步到位了:

ChatGPT Plus:集成GPT-4的ChatGPT升級版

發(fā)布GPT-4的API

公布技術論文 * 公開System Card

不僅如此,傳聞的“必應早就用上了GPT-4”在今天也得到了微軟方面的證實:

沒錯,確實是這樣的!

d6bd6fd6-c430-11ed-bfe3-dac502259ad0.png

不得不說,自打ChatGPT問世以來,微軟和谷歌之間打響的數(shù)輪科技戰(zhàn)役,微軟這次又雙叒叕贏麻了。

甚至這一次,不少網(wǎng)友都發(fā)出了“見證歷史”的感慨:

d6e2ba5c-c430-11ed-bfe3-dac502259ad0.png

史上最強大模型

正如之前傳言,GPT-4確實擁有多模態(tài)能力,可以接受圖像輸入并理解圖像內(nèi)容。

并且可接受的文字輸入長度也增加到3.2萬個token(約2.4萬單詞)。

升級之后,GPT-4在各種職業(yè)和學術考試上表現(xiàn)和人類水平相當。

比如模擬律師考試,GPT-4取得了前10%的好成績,相比之下GPT-3.5是倒數(shù)10%。

做美國高考SAT試題,GPT-4也在閱讀寫作中拿下710分高分、數(shù)學700分(滿分800)。

d6f09014-c430-11ed-bfe3-dac502259ad0.png

那么GPT-4這些新能力實際用起來是什么樣的?技術報告中也給出不少展示。

首先,看圖能力可以用來解釋表情包、梗圖。

提問這張圖哪里好笑?GPT-4可以按順序描述出每一格的內(nèi)容,并總結(jié)出笑點:

用巨大的過時VGA接口給小巧的現(xiàn)代智能手機充電。

d6fd08da-c430-11ed-bfe3-dac502259ad0.png

更進一步,GPT-4可以理解圖表中數(shù)據(jù)的含義,并做進一步計算。

d72a0600-c430-11ed-bfe3-dac502259ad0.png

甚至可以直接把論文截圖發(fā)給它,GPT-4可以按像素處理其中的文字和圖片,并給出對整篇論文的總結(jié)摘要。

d7549f96-c430-11ed-bfe3-dac502259ad0.png

文字輸入長度限制的增加,也大大擴展了GPT-4的實用性。

發(fā)布會直播上,OpenAI總裁Gregman現(xiàn)場表演了一波GPT-4給代碼修Bug。

出現(xiàn)問題啥也不用想,直接把1萬字的程序文檔一股腦扔給GPT-4就行。格式也不用管,你只需要Ctrl+A、Ctrl+C、Ctrl+V。

d79a3df8-c430-11ed-bfe3-dac502259ad0.gif

再最后附上出現(xiàn)的問題,在幾秒鐘內(nèi)瞬間得到解決辦法。

d7b24f42-c430-11ed-bfe3-dac502259ad0.png

在API方面,GPT-4還開放了一個使用功能,允許修改“系統(tǒng)提示”。

之前ChatGPT的回答總是冗長而平淡,這是因為系統(tǒng)提示中規(guī)定了“你只是一個語言模型……你的知識截止于2021年9月”。

現(xiàn)在通過修改這句話,GPT-4就可以展現(xiàn)出更多樣的性格,比如扮演蘇格拉底。

d87a0ece-c430-11ed-bfe3-dac502259ad0.png

也可以指定之后所有回答的形式,比如全用json格式。

d92c23ca-c430-11ed-bfe3-dac502259ad0.png

雖然GPT-4這波能力大升級,但之前ChatGPT會出現(xiàn)幻覺、胡說八道的毛病還是沒能完全改掉。

從前面的官方示例也可以看出,要想最大程度發(fā)揮GPT-4的能力,最好還是用上思維鏈路提示(Chain-of-thought Prompt)。

操作起來也非常簡單,只需在提問的時候額外提醒AI給出步驟,就能大大提高推理和計算的準確率。

谷歌依舊在跟

就在GPT-4發(fā)布前,谷歌方面為了迎戰(zhàn)微軟,宣布將一系列即將推出的AIGC功能,應用到自家產(chǎn)品中。

包括谷歌 Docs(文檔)、Gmail、Sheets(表格)和 Slides(幻燈片)。

d9572318-c430-11ed-bfe3-dac502259ad0.png

但不同于微軟和OpenAI的“發(fā)布即可用”,谷歌只會先將Docs和Gmail中的AI工具,在月底提供給一些“值得信賴的開發(fā)人員”。

而其它功能則將是在今年晚些時候向公眾開放。

至于具體時間,谷歌方面并沒有具體說明。

而外界對此評價是谷歌希望搶先微軟原定于本周四的發(fā)布。

但從今天的結(jié)果上來看,微軟依舊提前“搶灘登陸”。

d9f0f72c-c430-11ed-bfe3-dac502259ad0.png

在GPT-4發(fā)布之前,便有網(wǎng)友做出了GPT-3和GPT-4參數(shù)量的對比圖,并猜測GPT-4的參數(shù)量將達到100萬億。

這一次亦是如此。

有網(wǎng)友預言,未來GPT-5的參數(shù)量,會是這樣的:

da038ce8-c430-11ed-bfe3-dac502259ad0.png

但無論如何,這一次,我們離真·人工智能,更近了一步。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1817

    文章

    50091

    瀏覽量

    265226
  • ChatGPT
    +關注

    關注

    31

    文章

    1598

    瀏覽量

    10262

原文標題:GPT-4多模態(tài)模型發(fā)布,對ChatGPT的升級和斷崖式領先

文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    商湯科技正式開源模態(tài)自主推理模型SenseNova-MARS

    今日,商湯正式開源模態(tài)自主推理模型 SenseNova-MARS(8B/32B 雙版本),其在模態(tài)搜索與推理的核心基準測試中以 69.7
    的頭像 發(fā)表于 01-30 10:13 ?504次閱讀
    商湯科技正式開源<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>自主推理<b class='flag-5'>模型</b>SenseNova-MARS

    格靈深瞳模態(tài)模型榮登InfoQ 2025中國技術力量年度榜單

    靈感實驗室聯(lián)合LLaVA社區(qū)發(fā)布模態(tài)模型LLaVA-OneVision-1.5,實現(xiàn)了訓練數(shù)據(jù)、代碼和模型權重的全鏈路開源,在多項公開
    的頭像 發(fā)表于 01-05 10:05 ?502次閱讀

    商湯科技正式發(fā)布并開源全新模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布并開源了與南洋理工大學S-Lab合作研發(fā)的全新模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova
    的頭像 發(fā)表于 12-08 11:19 ?1010次閱讀
    商湯科技正式<b class='flag-5'>發(fā)布</b>并開源全新<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>模型</b>架構(gòu)NEO

    GPT-5.1發(fā)布 OpenAI開始拼情商

    問題。 Sam Altman 發(fā)文稱GPT-5.1是一次不錯的模型升級。 GPT-5.1 Instant:ChatGPT 最常用的
    的頭像 發(fā)表于 11-13 15:49 ?701次閱讀

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應用打造的頂尖模態(tài)
    的頭像 發(fā)表于 10-29 17:15 ?256次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入<b class='flag-5'>模型</b>

    商湯日日新V6.5模態(tài)模型登頂全球權威榜單

    Pro)模態(tài)模型以82.2的綜合成績登頂榜首,領先Gemini 2.5 Pro以及GPT-5等國際頂尖
    的頭像 發(fā)表于 09-10 09:55 ?783次閱讀

    米爾RK3576部署端側(cè)模態(tài)輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    話:基于歷史回答圖中女孩頭發(fā)和衣服分別是什么顏色 上一次我們詳細講解在RK3576上部署模態(tài)模型的案例,這次將繼續(xù)講解輪對話的部署流程。整體流程基于 rknn-llm 里的
    發(fā)表于 09-05 17:25

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價向美國政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語言模型GPT-5或?qū)?b class='flag-5'>發(fā)布。據(jù)外媒的報道,GPT-5很可能在周五凌晨發(fā)布。這是OpenAI在2023年的
    的頭像 發(fā)表于 08-07 14:13 ?1.2w次閱讀

    “端云+模態(tài)”新范式:《移遠通信AI大模型技術方案白皮書》正式發(fā)布

    7月28日,移遠通信聯(lián)合智次方研究院正式發(fā)布《AI大模型技術方案白皮書》(以下簡稱“白皮書”)。這份白皮書系統(tǒng)梳理了AI大模型的技術特點、產(chǎn)業(yè)發(fā)展態(tài)勢與多元應用場景,以及移遠通信“端云+
    的頭像 發(fā)表于 07-28 13:08 ?1222次閱讀
    “端云+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>”新范式:《移遠通信AI大<b class='flag-5'>模型</b>技術方案白皮書》正式<b class='flag-5'>發(fā)布</b>

    飛凌嵌入RK3576模態(tài)模型圖像理解助手,讓嵌入設備“看懂”世界

    (LLM)+視覺語言模型(VLM)模態(tài)架構(gòu),推出模態(tài)模型圖像理解助手,為嵌入
    的頭像 發(fā)表于 07-25 11:09 ?1661次閱讀
    飛凌嵌入<b class='flag-5'>式</b>RK3576<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>圖像理解助手,讓嵌入<b class='flag-5'>式</b>設備“看懂”世界

    潤和軟件榮登2025模態(tài)AI大模型排行榜單

    近日,《互聯(lián)網(wǎng)周刊》聯(lián)合eNET研究院、德本咨詢、中國社會科學院信息化研究中心共同發(fā)布了“2025模態(tài)AI大模型”榜單。江蘇潤和軟件股份有限公司(以下簡稱“潤和軟件”)自主研發(fā)的“潤
    的頭像 發(fā)表于 06-25 14:37 ?1681次閱讀

    模態(tài)感知+豆包大模型!家居端側(cè)智能升級

    的關鍵力量。星宸科技與豆包大模型的合作,將這一技術趨勢落實到實際應用場景中,在智能家居、可穿戴設備以及連鎖店等領域引發(fā)了深刻變革。 ? 智能家居升級 ? 陳立敬指出:“智能家居2.0需要大模型大腦”。在智能家居領域,
    的頭像 發(fā)表于 06-21 00:06 ?7106次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>感知+豆包大<b class='flag-5'>模型</b>!家居端側(cè)智能<b class='flag-5'>升級</b>

    商湯日日新SenseNova融合模態(tài)模型 國內(nèi)首家獲得最高評級的大模型

    近日,中國信息通信研究院(以下簡稱“中國信通院”)完成可信AI模態(tài)模型首輪評估。 商湯日日新SenseNova融合模態(tài)模型在所有
    的頭像 發(fā)表于 06-11 11:57 ?1411次閱讀

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態(tài)模型

    熟悉愛芯通元NPU的網(wǎng)友很清楚,從去年開始我們在端側(cè)模態(tài)模型適配上一直處于主動緊跟的節(jié)奏。先后適配了國內(nèi)最早開源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?3125次閱讀
    愛芯通元NPU適配Qwen2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    ??低?b class='flag-5'>發(fā)布模態(tài)模型AI融合巡檢超腦

    基于海康觀瀾大模型技術體系,海康威視推出新一代模態(tài)模型AI融合巡檢超腦,全面升級人、車、行為、事件等算法,為行業(yè)帶來全新的
    的頭像 發(fā)表于 04-17 17:12 ?1609次閱讀