91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布Sora視頻文本生成模型,但長渲染時(shí)間引關(guān)注

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-02-22 11:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

據(jù)報(bào)道,OpenAI近期推出的文本生成視頻模型Sora可以根據(jù)用戶給出的提示詞,生成真實(shí)有力的視頻內(nèi)容。然而,根據(jù)網(wǎng)友所述,Sora在生成1分鐘視頻時(shí),所需渲染時(shí)間超過1小時(shí)。

根據(jù)Reddit社區(qū)網(wǎng)友的反映,研究人員僅展示了預(yù)設(shè)的示例,并不允許廣大用戶使用自定義提示詞;觀賞到的最長的演示視頻也只有短短17秒。此外,有不少人推測了渲染時(shí)間過長可能隱藏的原因,其中一名用戶也提到了OpenAI首席執(zhí)行官山姆-阿爾特曼曾提到過的巨額資金需求。

其中一名用戶理性分析道:“制作90分鐘的影片,往往需要90多個(gè)小時(shí)的拍攝時(shí)間??紤]到典型的動畫制作工作時(shí)間計(jì)算,Sora的渲染時(shí)間也并非不可思議。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3768

    瀏覽量

    52139
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10153
  • Sora
    +關(guān)注

    關(guān)注

    0

    文章

    87

    瀏覽量

    821
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    萬里紅文本生成算法通過國家網(wǎng)信辦備案

    近日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了第十四批深度合成服務(wù)算法備案信息,北京萬里紅科技有限公司(以下簡稱:萬里紅)自主研發(fā)的“萬里紅文本生成算法”正式通過備案。該算法致力于通過自動化的方式,提升知識問答、RAG分類、預(yù)測、文檔生成的準(zhǔn)
    的頭像 發(fā)表于 11-14 09:06 ?714次閱讀

    GPT-5.1發(fā)布 OpenAI開始拼情商

    OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;有網(wǎng)友實(shí)測發(fā)現(xiàn)OpenAI發(fā)布的GPT-5.1大
    的頭像 發(fā)表于 11-13 15:49 ?725次閱讀

    百度文心大模型5.0-Preview文本能力國內(nèi)第一

    11月8日凌晨,LMArena大模型競技場最新排名顯示,文心全新模型ERNIE-5.0-Preview-1022登上文本排行榜全球并列第二、中國第一該模型在創(chuàng)意寫作、復(fù)雜
    的頭像 發(fā)表于 11-11 17:15 ?1525次閱讀

    OpenAI Sora 2模型上線微軟Azure AI Foundry國際版

    我們非常激動地宣布,OpenAI 的新一代多模態(tài)視頻生成模型 Sora 2 現(xiàn)已在 Azure AI Foundry(國際版)上線,進(jìn)入公共預(yù)覽階段。
    的頭像 發(fā)表于 10-22 09:44 ?814次閱讀
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>Sora</b> 2<b class='flag-5'>模型</b>上線微軟Azure AI Foundry國際版

    看點(diǎn):谷歌Veo 3.1迎來重大更新硬剛Sora 2 12英寸硅片國產(chǎn)龍頭西安奕材今日申購

    給大家?guī)硪恍I(yè)界資訊: 谷歌Veo 3.1迎來重大更新硬剛Sora 2 據(jù)外媒報(bào)道,在10月16日,谷歌發(fā)布了AI視頻生成模型Veo 3.1,升級音頻集成與敘事控制能力;以及更逼真的
    的頭像 發(fā)表于 10-16 16:00 ?1043次閱讀

    OpenAI開源模型登陸IBM watsonx.ai開發(fā)平臺

    OpenAI 已向公眾發(fā)布了兩款 AI 模型,允許開發(fā)者和企業(yè)可自由下載、運(yùn)行并進(jìn)行定制。其中一款模型現(xiàn)已部署在 IBM watsonx.ai 開發(fā)平臺上。
    的頭像 發(fā)表于 08-26 15:36 ?1038次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國政府提供ChatGPT

    期待的大模型。 OpenAI可能在周五凌晨發(fā)布GPT-5,源自OpenAI在社交媒體上發(fā)布的太平洋時(shí)間
    的頭像 發(fā)表于 08-07 14:13 ?1.3w次閱讀

    亞馬遜云科技現(xiàn)已上線OpenAI開放權(quán)重模型

    客戶現(xiàn)可通過Amazon Bedrock和Amazon SageMaker AI使用OpenAI開放權(quán)重模型,實(shí)現(xiàn)將先進(jìn)的開放權(quán)重模型與全球最廣泛云服務(wù)的深度集成。 亞馬遜云科技首次上線Ope
    的頭像 發(fā)表于 08-06 19:29 ?872次閱讀

    OpenAI發(fā)布2款開源模型

    OpenAI開源了兩款高性能權(quán)重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss 發(fā)布了!我們做了一個(gè)開放
    的頭像 發(fā)表于 08-06 14:25 ?1046次閱讀

    速看!EASY-EAI教你離線部署Deepseek R1大模型

    和自然語言推理等復(fù)雜任務(wù)。作為國產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。本文主要說明DeepSeek-R1
    的頭像 發(fā)表于 07-25 15:22 ?1409次閱讀
    速看!EASY-EAI教你離線部署Deepseek R1大<b class='flag-5'>模型</b>

    飛書開源“RTV”富文本組件 重塑鴻蒙應(yīng)用富文本渲染體驗(yàn)

    近日,飛書正式將其自研的富文本組件庫?RichTextVista(簡稱“RTV”)開源,并上線OpenHarmony?三方庫中心倉。該組件以領(lǐng)先的性能、流暢的渲染體驗(yàn)與高度的開放性,為鴻蒙生態(tài)提供了
    的頭像 發(fā)表于 07-11 15:20 ?676次閱讀
    飛書開源“RTV”富<b class='flag-5'>文本</b>組件 重塑鴻蒙應(yīng)用富<b class='flag-5'>文本</b><b class='flag-5'>渲染</b>體驗(yàn)

    百度重磅發(fā)布!全球首創(chuàng)中文音視頻模型

    電子發(fā)燒友網(wǎng)綜合報(bào)道 2025年7月2日,百度在北京正式發(fā)布全球首個(gè)中文音視頻一體化生成模型——MuseSteamer,標(biāo)志著其正式進(jìn)軍圖生視頻
    的頭像 發(fā)表于 07-11 09:18 ?4423次閱讀

    關(guān)于鴻蒙App上架中“AI文本生成模塊的資質(zhì)證明文件”的情況說明

    檢查結(jié)果為“通過”或?qū)徍藸顟B(tài)為“審核通過”。 那么對于這個(gè)問題,我也是嘗試去解決……這里分享一下我了解到的情況和方法 首先,這個(gè)政策雖然說是針對AI文本生成模塊,實(shí)際上,針對的是所有調(diào)用了AI大模型
    發(fā)表于 06-30 18:37

    將Whisper大型v3 fp32模型轉(zhuǎn)換為較低精度后,推理時(shí)間增加,怎么解決?

    openai/whisper-large-v3 FP32 模型轉(zhuǎn)換為 FP16、INT8 和 INT4。 推理所花費(fèi)的時(shí)間比在 FP32 上花費(fèi)的時(shí)間要多
    發(fā)表于 06-24 06:23

    4K、多模態(tài)、視頻:AI視頻生成的下一個(gè)戰(zhàn)場,誰在領(lǐng)跑?

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎) 6月11日,豆包App上線視頻生成模型豆包Seedance 1.0 pro。這是字節(jié)跳動最新視頻模型,支持文字與圖片輸入,可
    的頭像 發(fā)表于 06-16 00:13 ?7334次閱讀