无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > 圖生視頻最新資訊  > 正文

    騰訊推全新圖生視頻模型Follow-Your-Pose-v2 可生成多人運(yùn)動(dòng)視頻

    2024-06-11 11:47 · 稿源:站長(zhǎng)之家

    站長(zhǎng)之家(ChinaZ.com) 6月11日 消息:騰訊混元團(tuán)隊(duì)聯(lián)合中山大學(xué)、香港科技大學(xué)推出了一款全新的圖生視頻模型,名為"Follow-Your-Pose-v2"。這一模型在視頻生成領(lǐng)域?qū)崿F(xiàn)了從單人到多人的跨越,能夠處理人物合照,讓所有人都能同時(shí)在視頻中動(dòng)起來(lái)。

    主要亮點(diǎn):

    • 支持多人視頻動(dòng)作生成:在推理耗時(shí)更少的情況下,實(shí)現(xiàn)多人視頻動(dòng)作的生成。

    • 強(qiáng)泛化能力:無(wú)論年齡、服裝、人種、背景雜亂程度或動(dòng)作復(fù)雜性如何,都能生成高質(zhì)量視頻。

    • 日常生活照/視頻可用:模型訓(xùn)練及生成可以使用日常生活照(包括抓拍)或視頻,無(wú)需尋找高質(zhì)量圖片/視頻。

    • 正確處理人物遮擋:面對(duì)單張圖片上多個(gè)人物軀體相互遮擋的問(wèn)題,能生成具有正確前后關(guān)系的遮擋畫面。

    image.png

    技術(shù)實(shí)現(xiàn)方面:

    模型利用"光流指導(dǎo)器"引入背景光流信息,即使在相機(jī)抖動(dòng)或背景不穩(wěn)定的情況下,也能生成穩(wěn)定背景動(dòng)畫。

    通過(guò)"推理圖指導(dǎo)器"和"深度圖指導(dǎo)器",模型能更好地理解圖片中的人物空間信息和多角色的空間位置關(guān)系,有效解決多角色動(dòng)畫和身體遮擋問(wèn)題。

    評(píng)估與比較:

    團(tuán)隊(duì)提出了一個(gè)新的基準(zhǔn)Multi-Character,包含約4000幀多角色視頻,用以評(píng)估多角色生成效果。

    實(shí)驗(yàn)結(jié)果顯示,"Follow-Your-Pose-v2"在兩個(gè)公共數(shù)據(jù)集(TikTok和TED演講)和7個(gè)指標(biāo)上的性能均優(yōu)于最新技術(shù)35%以上。

    應(yīng)用前景:

    圖像到視頻生成技術(shù)在電影內(nèi)容制作、增強(qiáng)現(xiàn)實(shí)、游戲制作及廣告等多個(gè)行業(yè)有著廣泛的應(yīng)用前景,是2024年備受關(guān)注的AI技術(shù)之一。

    其他信息:

    騰訊混元團(tuán)隊(duì)還公布了文生圖開(kāi)源大模型(混元DiT)的加速庫(kù),大幅提升推理效率,生圖時(shí)間縮短75%。

    混元DiT模型的使用門檻降低,用戶可以在Hugging Face的官方模型庫(kù)中用三行代碼調(diào)用模型。

    論文地址:https://arxiv.org/pdf/2406.03035

    項(xiàng)目頁(yè):https://top.aibase.com/tool/follow-your-pose

    舉報(bào)

    • 相關(guān)推薦
    • 阿里開(kāi)源通義新模型:指定首尾圖片生成視頻

      快科技4月18日消息,據(jù)報(bào)道,阿里巴巴旗下通義萬(wàn)相宣布開(kāi)源其創(chuàng)新視頻生成技術(shù)首尾幀生視頻14B模型。這項(xiàng)突破性AI技術(shù)能夠根據(jù)用戶提供的起始和結(jié)束畫面,智能生成720p高清過(guò)渡視頻,為視頻創(chuàng)作帶來(lái)全新可能。該模型通過(guò)先進(jìn)的深度學(xué)習(xí)算法,能夠精準(zhǔn)理解輸入畫面的內(nèi)容、風(fēng)格及主題特征。當(dāng)用戶提供首尾兩幀圖像后,模型會(huì)智能分析畫面中的視覺(jué)元素,包括物體形?

    • 馬斯克炫酷變身毒液!實(shí)測(cè)通義Wan2.1首尾幀視頻模型,還能“拼接”經(jīng)典梗

      在GitHub狂攬1w+星標(biāo)的通義萬(wàn)相Wan2.1,又雙叒上新了!最新打開(kāi)方式是醬嬸兒的:給出開(kāi)始(首幀)和結(jié)束(尾幀)兩張圖片,Wan2.1便能分分鐘生成一段絲滑的5s、720p視頻。根據(jù)前后視角的不同,還能自動(dòng)調(diào)整鏡頭角度,緩慢變成高空俯拍,并同時(shí)保證人物光影正確:原來(lái)這是阿里通義萬(wàn)相Wan2.1最新開(kāi)源的首尾幀視頻模型,基于Wan2.1文生視頻14B大模型,為創(chuàng)作者們提供更高效、更靈活的

    • AI日?qǐng)?bào):阿里通義萬(wàn)相首尾幀視頻模型;豆包開(kāi)源Seed智能體模型UI-TARS-1.5;OpenAI首發(fā)“智能體實(shí)踐指南”

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、阿里通義萬(wàn)相首尾幀生視頻模型Wan2.1-FLF2V-14B開(kāi)源阿里巴巴的通義實(shí)驗(yàn)室在Hugging Face和GitHub上開(kāi)源了Wan2.1-FLF2V-14B模型,標(biāo)志著AI視頻生成技術(shù)的重大進(jìn)步。該模型支持高清視頻生成

    • 可靈AI發(fā)布全新2.0模型:上線多模態(tài)視頻編輯功能

      快科技4月16日消息,據(jù)報(bào)道,可靈AI在北京舉行靈感成真”2.0模型發(fā)布會(huì),正式發(fā)布可靈2.0視頻生成模型及可圖2.0圖像生成模型。據(jù)介紹,可靈2.0模型在動(dòng)態(tài)質(zhì)量、語(yǔ)義響應(yīng)、畫面美學(xué)等維度保持領(lǐng)先;可圖2.0模型在指令遵循、電影質(zhì)感及藝術(shù)風(fēng)格表現(xiàn)等方面顯著提升。3月27日,全球AI基準(zhǔn)測(cè)試機(jī)構(gòu)Artificial Analysis發(fā)布了最新的全球視頻生成大模型榜單,快手可靈1.6pro(高品質(zhì)模

    • 谷歌Gemini整合Veo 2視頻生成模型,8秒720P視頻輕松搞定

      谷歌宣布又有一款 AI 模型將加入 Gemini,但這次它不僅僅是一個(gè)聊天機(jī)器人。

    • 10倍精度升級(jí)!騰訊混元3D模型v2.5版本發(fā)布

      騰訊混元3D模型升級(jí)至v2.5版本,建模精度和貼圖真實(shí)度顯著提升。新版本參數(shù)體量從1B增至10B,有效面片數(shù)增加超10倍,支持1024幾何分辨率。紋理系統(tǒng)支持4K高清貼圖和凹凸細(xì)節(jié),率先支持多視圖生成PBR模型。針對(duì)動(dòng)畫場(chǎng)景優(yōu)化骨骼蒙皮系統(tǒng),支持非標(biāo)準(zhǔn)姿態(tài)自動(dòng)綁定。新增文生/圖生3D減面模型、多視圖建模模板等專業(yè)工作流?;煸?D v2.5已全面更新至騰訊AI創(chuàng)作引擎,免費(fèi)生成額度提升至每日20次,并正式上線騰訊云API面向企業(yè)開(kāi)放。GitHub開(kāi)源版本累計(jì)Star超1.2萬(wàn)。

    • AI日?qǐng)?bào):阿里騰訊面支持MCP協(xié)議;階躍星辰多模態(tài)推理模型Step-R1-V-Mini;美WHEE圖像生成模型Miracle F1

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、阿里巴巴已宣布全面支持MCP協(xié)議騰訊緊隨其后近日,中國(guó)人工智能領(lǐng)域迎來(lái)技術(shù)標(biāo)準(zhǔn)的變革,ModelContextProtocol成為國(guó)內(nèi)AI生態(tài)的事實(shí)標(biāo)準(zhǔn)。12.英偉達(dá)發(fā)布Llama3.1NemotronUltra253B,性能?

    • AI日?qǐng)?bào):即夢(mèng)3.0內(nèi)測(cè)直出2K商業(yè)海報(bào);ChatGPT又更新圖片生成功能;餓了么“AI入駐智能經(jīng)理”

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。7、Genspark發(fā)布自動(dòng)化AI代理SuperAgent具備自主思考、調(diào)用工具的能力Genspark最近推出了其全新的自動(dòng)化AI代理SuperAgent,憑借其強(qiáng)大的自主思考和任務(wù)執(zhí)行能力,迅速成為行業(yè)的焦點(diǎn)。用戶只需輸入感興趣的主題,系統(tǒng)便能?

    • 視頻生成模型Vidu Q1怎么用?Vidu Q1官網(wǎng)是什么?

      國(guó)產(chǎn)視頻生成大模型Vidu Q1在性能、價(jià)格和功能上實(shí)現(xiàn)重大突破。該模型由生數(shù)科技推出,在VBench評(píng)測(cè)中超越Sora等國(guó)內(nèi)外頂尖模型,支持1080p高清視頻生成,每秒價(jià)格低至3毛錢。其首尾幀功能僅需兩張圖即可實(shí)現(xiàn)電影級(jí)運(yùn)鏡效果,支持多元風(fēng)格生成和48kHz高采樣率混音功能。Vidu Q1已深度賦能影視、廣告、動(dòng)漫等行業(yè),大幅降低創(chuàng)作門檻。

    • 能理解海豚聲音!谷歌開(kāi)發(fā)全新AI模型DolphinGemma

      快科技4月15日消息,谷歌公布了一款名為DolphinGemma”的大型語(yǔ)言模型,旨在幫助科學(xué)家理解海豚的聲音,并生成類似海豚的聲音序列。研究人員預(yù)計(jì)在未來(lái)幾個(gè)月內(nèi)測(cè)試DolphinGemma及其配套的Cetacean Hearing Augmentation Telemetry(CHAT)發(fā)聲系統(tǒng),以探索是否能夠翻譯并模仿海豚的聲音,進(jìn)而實(shí)現(xiàn)與海豚的某種對(duì)話”。海豚是地球上最聰明且最善于溝通的動(dòng)物之一,其社交互動(dòng)極其復(fù)雜?