91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-5正秘密訓(xùn)練!DeepMind聯(lián)創(chuàng)爆料,這模型比GPT-4大100倍

CVer ? 來源:新智元 ? 2023-09-04 16:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】GPT-5仍在秘密訓(xùn)練中!DeepMind聯(lián)合創(chuàng)始人在近日采訪中透露,未來3年,Inflection模型要比現(xiàn)在的GPT-4大1000倍。

近來,DeepMind聯(lián)合創(chuàng)始人Mustafa Suleyman,現(xiàn)Inflection AI的CEO,在采訪時投出了重磅炸彈:

OpenAI正在秘密訓(xùn)練GPT-5。

我認(rèn)為我們都直截了當(dāng)?shù)卣f會更好。這就是為什么我們披露了擁有的計算總量。

在未來18個月內(nèi),Inflection AI訓(xùn)練的模型比當(dāng)前的前沿模型大100倍。未來3年內(nèi),Inflection的模型比現(xiàn)在大1000倍。

6ad308f2-4ae1-11ee-97a6-92fbcf53809c.png

其實,Sam Altman此前曾否認(rèn)訓(xùn)練GPT-5的這一說法。

對此,網(wǎng)友表示,OpenAI可能給它起了一個新名字,所以他們才說沒有訓(xùn)練GPT-5。

6b001cfc-4ae1-11ee-97a6-92fbcf53809c.png

這就像當(dāng)時Code Interpreter推出一樣,許多人感覺其能力早已不是GPT-4模型,而應(yīng)該是GPT-4.5。

另外,采訪中,Suleyman還爆出了很多自己在DeepMind和Inflection AI工作時的內(nèi)部信息,包括了谷歌當(dāng)時收購DeepMind和之后的抓馬,某種程度上解釋了為什么DeepMind相比于OpenAI「起了個大早,卻趕了個晚集」。

他還認(rèn)為,開源模型可能會增加AI帶給人類的不穩(wěn)定和危害。

而AI安全性最大的威脅來源并不是大語言模型,而是未來可能出現(xiàn)的自主智能體。

訪談全文

當(dāng)被問到未來AI是否有可能會成為一個有自主進(jìn)化能力的智能體時,Suleyman認(rèn)為:

在短期之內(nèi),不太可能出現(xiàn)這種智能體——能夠自主運(yùn)行,能夠制定自己的目標(biāo),能夠識別環(huán)境中的新信息、新的獎勵信號,并學(xué)會用它作為自我監(jiān)督,并且隨著時間的推移更新自己權(quán)重的人工智能體。

但是這種自主進(jìn)化能力的AI是所有人都不應(yīng)該忽視的東西,因為如果某種AI技術(shù)真的展現(xiàn)出這種能力的,它可能會有非常大的潛在風(fēng)險。

至少他知道的范圍之內(nèi),Inflection AI和DeepMind都沒有在往這個方向上走。

Inflection AI不是一家AGI公司,他們想做的事就是希望能夠做出一個非常好用的個人助理。這個助理在能夠充分訪問用戶個人信息的前提下,為用戶提供高度定制化的AI服務(wù)。

模型訓(xùn)練軍備競賽會加劇AI的風(fēng)險嗎?

他的公司,Inflection AI正在建造世界上最大的超級計算機(jī)之一,并且他認(rèn)為在接下來的18個月內(nèi),他們可能會進(jìn)行一次比制造GPT-4的語言模型訓(xùn)練運(yùn)行大10倍或100倍的訓(xùn)練運(yùn)行。

當(dāng)被問到,這種軍備競賽式的訓(xùn)練模型可能會增加AI的風(fēng)險嗎,他回答到:

100倍的訓(xùn)練仍然會產(chǎn)生一個聊天機(jī)器人,可以理解為一個更好的GPT-4,盡管這會成為一個更令人印象深刻的模型,但這并不危險——因為它缺乏自主性,不能改造物理世界等讓模型自身變得危險的基本要素。

僅僅生產(chǎn)一個非常好的、更好的 GPT-4 還不算危險;為了讓它變得危險,我們需要增加其他能力,比如前邊提到的,讓模型能夠自我迭代,自我制定目標(biāo)等等。

那大約是五年、十年、十五年、二十年之后的事了。

Suleyman認(rèn)為,Sam Altman最近說過他們沒有訓(xùn)練 GPT-5,可能沒有說實話。(Come on. I don’t know. I think it’s better that we’re all just straight about it.)

他希望所有擁有大規(guī)模算力的公司都能盡可能的保持透明,這也是他們披露自己擁有的計算總量的原因。

他們正在訓(xùn)練比GPT-4更大的模型。目前,他們有6000臺H100正在訓(xùn)練模型。

到12月,22,000個H100全面投入運(yùn)營。從現(xiàn)在開始,每個月都會增加1000到2000臺H100。

他認(rèn)為谷歌DeepMind也應(yīng)該做同樣的事情,應(yīng)該披露Gemini接受了多少FLOPS訓(xùn)練。

AI訓(xùn)練成本將如何變化

從算力成本的角度來看,未來AI訓(xùn)練的規(guī)模不可能達(dá)到訓(xùn)練某個模型需要100億美元的成本,除非真的有人會花3年時間去訓(xùn)練一個模型,因為堆疊越多算力去訓(xùn)練一個越大的模型,需要的時間也會更長。

雖然花的成本越高,可能能帶來更強(qiáng)的能力,但是這不是一個沒有上限的數(shù)學(xué)問題,需要考慮很多實際情況的限制。

但是因為算力成本隨著芯片算力的迭代在不斷下降,所以未來可能會出現(xiàn)訓(xùn)練某個模型的成本相當(dāng)于在2022年花費(fèi)了100億美元來訓(xùn)練。

但是因為芯片算力會以2-3倍的效率增長,所以到時候訓(xùn)練一個這樣規(guī)模的成本會遠(yuǎn)遠(yuǎn)小于現(xiàn)在看起來的成本。

比如說,現(xiàn)在開源社區(qū)中的Llama2或者Falcon等模型,只有15億參數(shù)或20億參數(shù),就獲得了有1750億參數(shù)的GPT-3的參數(shù)的能力。

開源的看法

作為一直在閉源科技公司工作的Suleyman,對于開源模型的價值和可能的風(fēng)險,有非常與眾不同的觀點。

首先,他認(rèn)為,在未來5年這個時間維度之內(nèi),開源模型始終會落后最前沿的閉源模型3-5年的時間

而且,開源模型會增加AI帶來的社會風(fēng)險。

如果所有人都能無限制地訪問最新的模型,將會出現(xiàn)一個現(xiàn)象——「力量的快速擴(kuò)散」。

舉個栗子,就像新媒體平臺讓每個人都可以作為一份完整的報紙發(fā)揮作用,擁有數(shù)百萬粉絲,甚至能影響全世界。

對于最前沿模型的無限制訪問將會擴(kuò)大這種力量,因為在未來3年內(nèi),人類能夠訓(xùn)練出比現(xiàn)有模型規(guī)模大上1000倍的模型。

即便是Inflection AI,也能在未來18個月內(nèi)獲得比現(xiàn)在最前沿的模型大100倍的計算能力。

而開源的大模型會將這種力量交到每個人的手中,相當(dāng)于給了每個人一個潛在的大規(guī)模不穩(wěn)定破壞性的工具。

而到時候,再想辦法避免這些工具可能產(chǎn)生的破壞性后果,有人做了一個很巧妙的比喻——圖試圖通過用手接住雨水來讓雨停下來。

他曾經(jīng)向監(jiān)管部門解釋過,AI技術(shù)未來會降低很多潛在危險化合物或者武器的開發(fā)門檻。

AI能在實際制作這些東西時提供大量的幫助——比如告知在實驗室中遇到技術(shù)挑戰(zhàn)時從哪里獲取工具等等。不過確實,從預(yù)訓(xùn)練中刪除這些內(nèi)容,對模型進(jìn)行對齊等等辦法,可以有效地降低這樣的風(fēng)險。

總之,對于用大模型能力來做壞事的人,需要盡量讓他們在做這些事的時候變得困難。

但是如果盡可能的開源一切模型,未來面對能力越來越強(qiáng)的模型,將會把更多的類似風(fēng)險暴露出來。

所以雖然開源模型對于很多人來說確實是一件好事,能夠讓所有人都獲得模型并且進(jìn)行各種各樣的嘗試,帶來技術(shù)上的創(chuàng)新和改進(jìn),但是也一定要看到開源的風(fēng)險,因為并不是每個人都是善意和友好的。

雖然我說這樣的話可能會被很多人理解為我做的事和開源社區(qū)存在利益沖突,因此很多人可能會很生氣,但是我還是要表達(dá)我的觀點。

他還強(qiáng)調(diào)了,他不是為了攻擊開源社區(qū)才說出這番言論的:

「雖然我說這樣的話可能會被很多人理解為我做的事和開源社區(qū)存在利益沖突,因此很多人可能會很生氣,但是我還是要表達(dá)我的觀點,也希望獲得人們的支持?!?/p>

在谷歌和DeepMind期間的抓馬

在DeepMind度過的10年里,他花了大量時間試圖將更多的外部監(jiān)督融入到構(gòu)建AI技術(shù)的過程中。

這是一個相當(dāng)痛苦的過程。雖然他認(rèn)為谷歌的出發(fā)點是好地,但它運(yùn)作的方式仍然像傳統(tǒng)的官僚機(jī)構(gòu)一樣。

當(dāng)我們設(shè)立了谷歌的倫理委員會時,計劃有九名獨(dú)立成員,是對于開發(fā)敏感技術(shù)過程中進(jìn)行外部監(jiān)督的重要措施。

但因為任命了一個保守派人士,而她過去曾發(fā)表過一些有爭議的言論,很多網(wǎng)友就在推特等場合抵制她,同時也抵制其他支持她的幾個成員,要求他們退出委員會。

這是一場徹底的悲劇,非常令人沮喪。我們花了兩年時間來建立這個委員會,這是朝著對我們正在開發(fā)的非常敏感的技術(shù)進(jìn)行外部審查的第一步。

不幸的是,在一周內(nèi),九名成員中的三名辭職了,最終她也辭職了,然后我們失去了半數(shù)委員會成員。

然后公司轉(zhuǎn)身說:「我們?yōu)槭裁匆腥藖硐拗谱约??這純粹是浪費(fèi)時間?!?/p>

其實,當(dāng)DeepMind被收購時,我們提出了收購的條件,即我們要有一個倫理和安全委員會。

我們計劃在倫理和安全委員會之后,我們要將DeepMind打造成一個全球利益公司:一個所有利益相關(guān)者在做決策時都能發(fā)聲的公司。

它是一個按擔(dān)保有限責(zé)任公司設(shè)立的公司。然后,我們計劃制定一個憲章,為AGI的開發(fā)制定相關(guān)的倫理安全的目標(biāo);這樣使得我們可以將收入的大部分用于科學(xué)和社會使命。

這是一個非常有創(chuàng)意和實驗性的結(jié)構(gòu)。但是當(dāng)Alphabet看到設(shè)立倫理委員會發(fā)生的事情時,他們變得膽怯了。他們說:「這完全瘋了。你們的全球利益公司也會發(fā)生同樣的事情。為什么要那樣做?」

最終,我們將DeepMind合并進(jìn)入到了谷歌,從某種程度上說,DeepMind從未獨(dú)立過——現(xiàn)在當(dāng)然也完全從屬于谷歌。

谷歌下一代大模型Gemini

The Information獨(dú)家報道稱,谷歌多模態(tài)人工智能模型Gemini即將面世,直接對標(biāo)OpenAI的GPT-4。

6cbd55dc-4ae1-11ee-97a6-92fbcf53809c.png

其實,在今年谷歌I/O大會上,劈柴已經(jīng)向大眾宣布,谷歌正在研發(fā)下一代模型Gemini。

有傳言說,該模型將至少有1萬億參數(shù),訓(xùn)練將使用數(shù)以萬計的谷歌TPU AI芯片。

與OpenAI類似,谷歌使用GPT-4的方法來構(gòu)建模型,由多個具有特定能力的人工智能專家模型組成。

簡言之,Gemini同樣是一個混合專家模型(MoE)。

這也可能意味著,谷歌希望提供不同參數(shù)規(guī)模的Gemini,因為從成本效益上考慮是個不錯的選擇。

除了生成圖像和文本外,Gemini接受過YouTube視頻轉(zhuǎn)錄數(shù)據(jù)的訓(xùn)練,也可以生成簡單的視頻,類似于RunwayML Gen-2。

另外,比起B(yǎng)ard,Gemini在編碼能力方面也得到了顯著提升。

Gemini推出之后,谷歌也計劃逐步將其整合到自家產(chǎn)品線中,包括升級Bard,谷歌辦公全家桶、谷歌云等等。

其實,在Gemini之前,DeepMind還有一個代號為「Goodall」的模型,基于未宣布的模型Chipmunk打造,可與ChatGPT匹敵。

不過GPT-4誕生后,谷歌最后決放棄這一模型研發(fā)。

據(jù)稱,至少有20多位高管參與了Gemini的研發(fā),DeepMind的創(chuàng)始人Demis Hassabis領(lǐng)導(dǎo),谷歌創(chuàng)始人Sergey Brin參與研發(fā)。

還有谷歌DeepMind組成的數(shù)百名員工,其中包括前谷歌大腦主管Jeff Dean等等。

Demis Hassabis在此前接受采訪表示,Gemini將結(jié)合AlphaGo類型系統(tǒng)的一些優(yōu)勢和大型模型驚人的語言能力。

可以看到,谷歌已經(jīng)在全力備戰(zhàn),就等著Gemini開啟逆襲之路。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    572

    瀏覽量

    11323
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16887
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    12310

原文標(biāo)題:GPT-5正秘密訓(xùn)練!DeepMind聯(lián)創(chuàng)爆料,這模型比GPT-4大100倍

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    GPT-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    躍升重新定義了人工智能的能力邊界。OpenAI首席執(zhí)行官山姆·奧特曼在發(fā)布會上直言:“這不僅是模型的升級,更是通往通用人工智能(AGI)的關(guān)鍵里程碑?!?? ? GPT-5:集成模型,能力躍升 ?
    的頭像 發(fā)表于 08-09 07:44 ?1w次閱讀
    <b class='flag-5'>GPT-5</b>震撼發(fā)布:AI領(lǐng)域的重大飛躍

    訓(xùn)練到推理:大模型算力需求的新拐點已至

    算力正在成為市場關(guān)注的新焦點。一、訓(xùn)練算力的"一次性投入"困境大模型訓(xùn)練是典型的"一次性高成本投入"模式。根據(jù)OpenAI的公開數(shù)據(jù),GPT-3.5的
    的頭像 發(fā)表于 02-05 16:07 ?860次閱讀
    從<b class='flag-5'>訓(xùn)練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點已至

    上海交大發(fā)布國產(chǎn)光學(xué)大模型Optics GPT

    電子發(fā)燒友網(wǎng)綜合報道 1月25日,上海交通大學(xué)正式推出光學(xué)領(lǐng)域垂直大語言模型——Optics GPT(光學(xué)大模型),這是一款完全自主研發(fā)的國產(chǎn)模型。該
    的頭像 發(fā)表于 01-26 09:59 ?1989次閱讀
    上海交大發(fā)布國產(chǎn)光學(xué)大<b class='flag-5'>模型</b>Optics <b class='flag-5'>GPT</b>

    正面對決GPT-5和Germini-3,DeepSeek-V3.2震撼發(fā)布

    達(dá)到了GPT-5的水平,DeepSeek-V3.2首次將“思考模式(thinking mode)”與工具使用深度整合,成為其下一代 AI 助理(AI agent)策略的核心布局。
    的頭像 發(fā)表于 12-02 14:10 ?9514次閱讀
    正面對決<b class='flag-5'>GPT-5</b>和Germini-3,DeepSeek-V3.2震撼發(fā)布

    GPT-5.1發(fā)布 OpenAI開始拼情商

    OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;有網(wǎng)友實測發(fā)現(xiàn)OpenAI新發(fā)布的GPT-5.1大
    的頭像 發(fā)表于 11-13 15:49 ?714次閱讀

    商湯日日新V6.5多模態(tài)大模型登頂全球權(quán)威榜單

    Pro)多模態(tài)大模型以82.2的綜合成績登頂榜首,領(lǐng)先Gemini 2.5 Pro以及GPT-5等國際頂尖模型。
    的頭像 發(fā)表于 09-10 09:55 ?812次閱讀

    【RA4E2開發(fā)板評測】PWM 驅(qū)動舵機(jī)

      本篇使用 RA4E2 的 PWM 輸出,來驅(qū)動舵機(jī)轉(zhuǎn)動,使用 RA4E2 驅(qū)動舵機(jī)非常方便,只要配置好 GPT PWM 模塊,就能輕松實現(xiàn)角度控制。 硬件準(zhǔn)備 1、RA4E2 開發(fā)
    發(fā)表于 09-09 15:13

    【RA4M2-SENSOR】3、使用GPT定時器-PWM輸出

    GPT介紹 通用 PWM 定時器(GPT,General PWM Timer)是 RA MCU 的其中一種 32/16 位的定時器外設(shè)。 在 GPT 當(dāng)中,可分為 GPT32 和
    發(fā)表于 09-01 15:20

    【RA-Eco-RA6M4開發(fā)板評測】PWM 驅(qū)動舵機(jī)

     本篇使用 RA6M4 的 PWM 輸出,來驅(qū)動舵機(jī)轉(zhuǎn)動 硬件準(zhǔn)備 1、RA6M4 開發(fā)板 2、舵機(jī) 3、杜邦線若干 接線方式 舵機(jī): DuoS 開發(fā)板引腳 舵機(jī)引腳 3V3 VCC GND GND
    發(fā)表于 09-01 01:10

    AI Agent如何重構(gòu)互聯(lián)范式

    近日,在OpenAI發(fā)布GPT-5模型14天后,深度求索的新模型版本DeepSeek-V3.1正式發(fā)布。
    的頭像 發(fā)表于 08-28 09:58 ?1012次閱讀
    AI Agent如何重構(gòu)互聯(lián)范式

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來,NVIDIA 與 OpenAI 便開始共同推動 AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-120b 模型
    的頭像 發(fā)表于 08-15 20:34 ?2322次閱讀
    NVIDIA從云到邊緣加速OpenAI <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,實現(xiàn)150萬TPS推理

    微軟企業(yè)級應(yīng)用AI能力全面升級

    微軟宣布,已將 OpenAI 迄今為止最具突破性的的 AI 技術(shù)系統(tǒng) GPT-5 全面集成至其產(chǎn)品生態(tài)中,全面增強(qiáng)平臺的的推理、代碼生成與對話體驗。最新版 GPT-5 已在 Microsoft
    的頭像 發(fā)表于 08-15 11:44 ?1367次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價向美國政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語言模型GPT-5或?qū)l(fā)布。據(jù)外媒的報道,GPT-5很可能在周五凌晨發(fā)布。這是OpenAI在2023年的3月份推出自然語言處理模型
    的頭像 發(fā)表于 08-07 14:13 ?1.3w次閱讀

    GPT-5即將面市 性能遠(yuǎn)超GPT-4

    行業(yè)芯事
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年06月04日 13:38:23

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)一步講解更多的技術(shù)細(xì)節(jié)。本文主要針對大語言模型的預(yù)訓(xùn)
    的頭像 發(fā)表于 03-21 18:24 ?4339次閱讀
    用PaddleNLP為<b class='flag-5'>GPT</b>-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制預(yù)<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集