无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關(guān)鍵詞  > AI視頻創(chuàng)作最新資訊  > 正文

    創(chuàng)新免費(fèi)AI視頻創(chuàng)作工具Show-1,僅占普通模型25%GPU內(nèi)存

    2023-10-07 10:26 · 稿源:站長之家

    文章概要:

    1. 新加坡國立大學(xué)研究團(tuán)隊(duì)成功研發(fā)出名為Show-1的AI系統(tǒng),能夠從文本描述中生成高質(zhì)量視頻。

    2. Show-1采用像素和潛變模型的混合架構(gòu),充分利用了兩種方法的優(yōu)勢,實(shí)現(xiàn)了文本到視頻的精確對齊和高效放大。

    3. 與純像素模型相比,Show-1僅需使用20-25%的GPU內(nèi)存,同時(shí)在逼真度和文本到視頻對齊方面實(shí)現(xiàn)了相同或更好的結(jié)果。

    站長之家(ChinaZ.com)10月7日 消息:新加坡國立大學(xué)的研究團(tuán)隊(duì)最近成功研發(fā)了一款名為Show-1的AI系統(tǒng),該系統(tǒng)可以將文本描述轉(zhuǎn)化為高質(zhì)量視頻。這一突破性的技術(shù)在AI領(lǐng)域引起了廣泛的關(guān)注,被譽(yù)為最佳的免費(fèi)AI視頻創(chuàng)作工具之一。

    image.png

    Show-1的研發(fā)團(tuán)隊(duì)采用了一種混合架構(gòu),將像素和潛變模型相結(jié)合,以充分發(fā)揮兩種方法的優(yōu)勢。像素模型直接處理像素值,因此能夠更好地與文本提示對齊,但需要大量計(jì)算資源。潛變模型則將輸入壓縮到潛變空間,然后進(jìn)行擴(kuò)散。雖然更加高效,但在保留精細(xì)文本細(xì)節(jié)方面存在困難。

    Show-1模型將這兩種模型架構(gòu)相結(jié)合:像素模型用于生成關(guān)鍵幀和低分辨率插值圖像,捕捉與文本提示接近的所有運(yùn)動和內(nèi)容。然后,潛變模型用于將低分辨率視頻放大到高分辨率。潛變模型充當(dāng)“專家”,以添加逼真的細(xì)節(jié)。這種混合方法將像素模型的精確文本到視頻對齊與潛變模型的高效放大相結(jié)合,取得了最佳效果。

    根據(jù)研究團(tuán)隊(duì)的介紹,Show-1在逼真度和文本到視頻對齊方面取得了與Imagen Video或Runways Gen-2等最先進(jìn)方法相同或更好的結(jié)果,同時(shí)僅需使用純像素模型生成視頻所需GPU內(nèi)存的20-25%。這一特點(diǎn)也使得Show-1對開源應(yīng)用具有吸引力。

    Show-1具有以下產(chǎn)品特色功能:

    • 像素級和潛在級結(jié)合:Show-1獨(dú)創(chuàng)性地將像素級和潛在級VDMs相結(jié)合,充分發(fā)揮了兩者的優(yōu)點(diǎn),以實(shí)現(xiàn)文本到視頻的生成。這一特色使其在保持高效性的同時(shí)能夠?qū)崿F(xiàn)精確的文本與視頻對齊。

    • 高質(zhì)量視頻生成:通過首先使用像素級VDMs生成具有強(qiáng)文本-視頻關(guān)聯(lián)性的低分辨率視頻,然后使用潛在級VDMs進(jìn)行進(jìn)一步上采樣,Show-1能夠生成高質(zhì)量的視頻,確保了視頻的視覺質(zhì)量。

    • 高效性:與像素級VDMs相比,Show-1在推理期間的GPU內(nèi)存使用效率更高,顯著減少了計(jì)算資源的需求,從而提高了效率。

    • 文本視頻對齊:Show-1注重確保生成視頻與文本提示之間的精確對齊,這意味著生成的視頻能夠更好地反映文本描述的內(nèi)容,提高了生成視頻與文本一致性。

    • 開源代碼和模型權(quán)重:作者公開提供了Show-1的代碼和模型權(quán)重,這意味著研究社區(qū)和開發(fā)人員可以自由地使用和構(gòu)建在此模型的基礎(chǔ)上進(jìn)行進(jìn)一步研究和開發(fā)。

    總之,Show-1是一種先進(jìn)的文本到視頻生成模型,通過融合不同級別的VDMs,它能夠高效地生成高質(zhì)量、精確對齊的視頻,并且具有開放的代碼和模型權(quán)重,可用于各種應(yīng)用,如視頻生成、自動生成影片等。

    Show-1項(xiàng)目網(wǎng)址:https://showlab.github.io/Show-1/

    舉報(bào)

    • 相關(guān)推薦
    • 創(chuàng)新讓生活更美好丨“蘇州GT·SHOW方泰科現(xiàn)場精彩紛呈,圓滿收官!”

      2025蘇州GT Show汽車文化風(fēng)尚秀3月30日圓滿落幕。作為國內(nèi)最大改裝車展,本屆展會匯聚超1000個(gè)改裝品牌、4000余輛創(chuàng)意展車,吸引23萬車迷參與。方泰科(FUNCTECH)作為鑫荃科技旗下高端漆面保護(hù)膜品牌,攜TPU隱形車衣、變色車衣等創(chuàng)新產(chǎn)品亮相,通過專業(yè)講解和互動體驗(yàn)區(qū)展示其技術(shù)實(shí)力。展會期間,方泰科產(chǎn)品獲得專業(yè)觀眾和經(jīng)銷商的廣泛關(guān)注,為品牌拓展市場奠定基礎(chǔ)。未來,方泰科將繼續(xù)深耕汽車漆面保護(hù)領(lǐng)域,以創(chuàng)新驅(qū)動行業(yè)發(fā)展。

    • 動員全行業(yè),甲亢哥IShowSpeed的直播連續(xù)劇

      這場直播更像一場全民參與的「連續(xù)劇」,各路神仙粉墨登場。4月10日,88rising的市場音樂總監(jiān)Lingo也在小紅書發(fā)布筆記說明自己在上海站后開始參與Speed中國行的策劃,幫助促成了包括「superidol」田一鳴、賣霓虹燈的「LCsignTony」和大張偉等人在內(nèi)的的見面互動。今天的直播中,Speed依然對著人群大喊中文「lengjing」的行為被大家調(diào)侃為「中國后遺癥」。

    • WPS AI 入選 「2025 AI原生應(yīng)用創(chuàng)新案例」,重塑AI辦公范式

      隨著AI原生時(shí)代的加速到來,AI原生應(yīng)用也迎來爆發(fā)式增長,并逐漸成為各場景應(yīng)用體驗(yàn)的核心要素。

    • 安卓視頻拍攝第一次比肩iPhone!vivo X200 Ultra首發(fā)全焦段專業(yè)視頻創(chuàng)作

      快科技4月14日消息,今天下午,vivo舉行vivo X系列藍(lán)圖影像技術(shù)溝通會。在這次活動上,vivo宣布X200 Ultra帶來全焦段專業(yè)視頻創(chuàng)作,視頻拍攝能力領(lǐng)先安卓陣營,比肩iPhone。據(jù)悉,vivo X200 Ultra支持全焦段4K 60fps 10bit Log,隨手拍都是原生電影素材;支持全焦段4K 120fps電影慢動作,延長轉(zhuǎn)瞬即逝的精彩瞬間;還有行業(yè)獨(dú)家的全焦段4K延時(shí)攝影,讓自然美學(xué)觸手可及。更重要的是,vivo X

    • Arm 榮登《Fast Company》2025 年度最具創(chuàng)新AI 公司榜單

      Arm 近期榮登《Fast Company》2025 年度最具創(chuàng)新力公司榜單,并在人工智能 (AI) 類別中位列第七*。《Fast Company》自 2008 年發(fā)布“最具創(chuàng)新力公司”榜單以來,該榜單一直作為全球企業(yè)革新行業(yè)和塑造社會的基準(zhǔn),其依據(jù)創(chuàng)新性、影響力、時(shí)效性和相關(guān)性四大標(biāo)準(zhǔn)進(jìn)行資格篩選。入選榜單的公司不僅代表其創(chuàng)新成果具備顯著的商業(yè)與行業(yè)影響力,更被視為所在領(lǐng)域的引領(lǐng)者,推動世?

    • 2025百度商業(yè)AI技術(shù)創(chuàng)新大賽煥新啟動!

      當(dāng)前,人工智能正以超乎想象的速度重構(gòu)商業(yè)邏輯。隨著大模型技術(shù)普惠化與倫理框架同步完善,這場由AI引發(fā)的生產(chǎn)力革命正加速催生智能文明新范式。自 2023 年,百度商業(yè)首次舉辦AI技術(shù)創(chuàng)新大賽以來,兩屆比賽吸引了來自海表內(nèi)外 300 多所高校、 6000 多支精英隊(duì)伍踴躍參與。人工智能領(lǐng)域的各界英才,憑借頂尖技術(shù)實(shí)力與不竭創(chuàng)新活力,共同鑄就一場高水準(zhǔn)的AI技術(shù)盛會,

    • AI日報(bào):百度文心4.5 Turbo將于4月25日發(fā)布;谷歌推全新智能體開放協(xié)議A2A;視頻號整治不當(dāng)使用AI工具直播行為

      歡迎來到【AI日報(bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、百度官宣:文心大模型4.5Turbo將于4月25日發(fā)布百度宣布將在4月25日的Create大會上發(fā)布文心大模型4.5Turbo,盡管具體細(xì)節(jié)尚未披露,但業(yè)界對此充滿期待。雖然試用期間無需綁定信用卡,但實(shí)際使用需購買托管計(jì)劃。

    • 超過ChatGPT、Deepseek?谷歌發(fā)布 Gemini 2.5 Flash AI 模型

      新版AI模型縮短了響應(yīng)時(shí)間,節(jié)約了運(yùn)算成本;還推出了新的AI芯片“Ironwood”。谷歌發(fā)布了新的AI模型“Gemini2.5Flash”,據(jù)稱,這款A(yù)I模型的性能比OpenAI和DeepSeek的AI產(chǎn)品“更高效”。谷歌計(jì)劃在三星今年上半年推出的AI伴侶機(jī)器人Ballie上搭載生成式AI模型。

    • AI日報(bào):百度大招!發(fā)布文心大模型X1Turbo和AI開放計(jì)劃;OpenAI免費(fèi)開放輕量版Deep Research;即夢視頻3.0內(nèi)測

      【AI日報(bào)】主要報(bào)道了AI領(lǐng)域的最新動態(tài):1)百度發(fā)布文心大模型X1Turbo和4.5Turbo,性能價(jià)格優(yōu)勢顯著;2)百度推出AI開放計(jì)劃,降低開發(fā)者門檻;3)OpenAI免費(fèi)開放輕量版Deep Research研究工具;4)即夢視頻3.0內(nèi)測展示流暢運(yùn)鏡和精準(zhǔn)表情捕捉能力;5)百度發(fā)布全球首個(gè)內(nèi)容操作系統(tǒng)"滄舟OS";6)百度文庫與網(wǎng)盤聯(lián)合推出GenFlow超能搭子和AI筆記工具;7)Pixverse推出MCP協(xié)議簡化AI視頻創(chuàng)作;8)Tavus發(fā)布突破性唇形同步模型Hummingbird-0;9)豆包1.5深度思考模型上線,提供免費(fèi)額度;10)Adobe整合OpenAI和Google模型升級Firefly創(chuàng)意平臺;11)ImageSlider2.0即將加入Gradio核心產(chǎn)品線;12)李彥宏談DeepSeek現(xiàn)存痛點(diǎn),強(qiáng)調(diào)多模態(tài)能力與降本需求。

    • o3模型基準(zhǔn)測試分?jǐn)?shù)僅為10%,遠(yuǎn)低于OpenAI宣傳的25%

      OpenAI的新AI模型o3在第一方和第三方基準(zhǔn)測試中存在差異,引發(fā)公眾對其透明度和測試實(shí)踐的質(zhì)疑。去年12月,o3首次亮相時(shí)聲稱能解答超過25%的FrontierMath問題,但實(shí)際正確率僅為2%。內(nèi)部測試發(fā)現(xiàn),o3能達(dá)到超過25%的準(zhǔn)確率,但其使用的計(jì)算資源比上周OpenAI推出的模型多得多。Epoch AI發(fā)布的獨(dú)立基準(zhǔn)測試結(jié)果顯示,o3的得分約為10%,遠(yuǎn)低于OpenAI宣稱的25%。盡管如此,這并不意味著OpenAI的說法有誤,可能是因?yàn)镺penAI使用了更強(qiáng)大的內(nèi)部架構(gòu)進(jìn)行評估,并采用了更多計(jì)算資源。此外,Epoch指出其測試設(shè)置可能與OpenAI不同,并且在評估中使用了更新版本的FrontierMath。