无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關鍵詞  > 正文

    騰訊混元團隊推出圖生視頻模型“Follow-your-Pose-V2”

    2024-06-07 17:19 · 稿源:站長之家

    站長之家(ChinaZ.com)6月7日 消息:騰訊混元團隊聯(lián)合中山大學、香港科技大學宣布推出全新圖生視頻模型"Follow-your-Pose-V2”,實現(xiàn)單張圖片多人動作驅(qū)動。

    微信截圖_20240607171559.png

    據(jù)悉,用戶只需輸入一張人物圖片和一段動作視頻,模型便能巧妙地讓圖片中的人物跟隨視頻中的動作舞動,生成的視頻長度可達10秒。這一技術革新不僅降低了視頻制作的門檻,還極大地提升了創(chuàng)作的效率。

    更為重要的是,該模型在性能上實現(xiàn)了質(zhì)的飛躍。它能在保證推理耗時更少的同時,支持多人視頻動作的生成,滿足了更多復雜場景下的應用需求。此外,模型還具備強大的泛化能力,無論是年齡、服裝各異的人物,還是背景雜亂的場景,亦或是動作復雜的視頻,它都能輕松應對,生成出高質(zhì)量的視頻作品。

    舉報

    • 相關推薦
    • 10倍精度升級!騰訊混元3D模型v2.5版本發(fā)布

      騰訊混元3D模型升級至v2.5版本,建模精度和貼圖真實度顯著提升。新版本參數(shù)體量從1B增至10B,有效面片數(shù)增加超10倍,支持1024幾何分辨率。紋理系統(tǒng)支持4K高清貼圖和凹凸細節(jié),率先支持多視圖生成PBR模型。針對動畫場景優(yōu)化骨骼蒙皮系統(tǒng),支持非標準姿態(tài)自動綁定。新增文生/圖生3D減面模型、多視圖建模模板等專業(yè)工作流?;煸?D v2.5已全面更新至騰訊AI創(chuàng)作引擎,免費生成額度提升至每日20次,并正式上線騰訊云API面向企業(yè)開放。GitHub開源版本累計Star超1.2萬。

    • AI日報:騰訊混元3D生成模型2.5版本發(fā)布;海螺推出像人物參考功能;百度上線移動端超級智能體心響App

      本文介紹了多款AI領域的新產(chǎn)品和技術進展:1)Kortix-AI推出開源通用AI智能體平臺Suna;2)騰訊混元3D生成模型升級至2.5版本;3)海螺AI推出基于單張圖像生成多角度角色圖像功能;4)百度發(fā)布"心響"App整合多智能體協(xié)作;5)Nari Labs開源媲美真人的對話語音模型Dia;6)Grok新增視覺處理和多語言支持;7)Genspark推出AI幻燈片工具;8)Character.AI發(fā)布讓靜態(tài)圖片"說話"的AvatarFX模型;9)pad.ws結(jié)合白板和代碼編輯器;10)OpenBMB開源社區(qū)推出長文本生成模型"卷姬";11)騰訊推出AI閱讀助手"企鵝讀伴";12)OpenAI有意收購Chrome瀏覽器;13)字節(jié)跳動調(diào)整AI產(chǎn)品線布局。這些創(chuàng)新展現(xiàn)了AI技術在自動化、3D生成、語音交互、內(nèi)容創(chuàng)作等領域的快速發(fā)展。

    • 馬斯克炫酷變身毒液!實測通義Wan2.1首尾幀視頻模型,還能“拼接”經(jīng)典梗

      在GitHub狂攬1w+星標的通義萬相Wan2.1,又雙叒上新了!最新打開方式是醬嬸兒的:給出開始(首幀)和結(jié)束(尾幀)兩張圖片,Wan2.1便能分分鐘生成一段絲滑的5s、720p視頻。根據(jù)前后視角的不同,還能自動調(diào)整鏡頭角度,緩慢變成高空俯拍,并同時保證人物光影正確:原來這是阿里通義萬相Wan2.1最新開源的首尾幀視頻模型,基于Wan2.1文生視頻14B大模型,為創(chuàng)作者們提供更高效、更靈活的

    • AI日報:阿里通義萬相首尾幀視頻模型;豆包開源Seed智能體模型UI-TARS-1.5;OpenAI首發(fā)“智能體實踐指南”

      歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術趨勢、了解創(chuàng)新AI產(chǎn)品應用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、阿里通義萬相首尾幀生視頻模型Wan2.1-FLF2V-14B開源阿里巴巴的通義實驗室在Hugging Face和GitHub上開源了Wan2.1-FLF2V-14B模型,標志著AI視頻生成技術的重大進步。該模型支持高清視頻生成

    • DeepSeek上新!開源發(fā)布DeepSeek-Prover-V2-671B新模型

      快科技4月30日消息,今日,DeepSeek 今日在 AI 開源社區(qū) Hugging Face 發(fā)布了一個名為 DeepSeek-Prover-V2-671B 的新模型。據(jù)介紹,DeepSeek-Prover-V2-671B 其參數(shù)量達到6710億,使用了更高效的 safetensors 文件格式,并支持 BF16、FP8、F32 等多種計算精度,方便模型更快、更省資源地訓練和部署。在模型架構上,該模型使用了DeepSeek-V3架構,采用MoE(混合專家)模式,具有61層Transformer層,7168維隱藏層。同時支持超長上下文,最大位置嵌入達163840,使其能處理復雜的數(shù)學證明,并且采用了FP8量化,可通過量化技術減小模型大小,提

    • 這個夏天,肌膚也要「深呼吸」!Vida Glow白月光膠囊,內(nèi)服凈透肌養(yǎng)成術

      文章探討了夏季陽光對皮膚的傷害機制及科學美白方案。紫外線、環(huán)境污染和藍光會刺激黑色素生成,導致膚色暗沉。傳統(tǒng)美白產(chǎn)品僅作用于角質(zhì)層,難以從源頭解決問題。Vida Glow白月光膠囊采用"精準狙擊+全面防護"策略:通過納米級谷胱甘肽抑制酪氨酸酶活性,阻斷黑色素生成鏈;同時添加植物精華和抗氧化成分,構建皮膚防御屏障。其核心技術NANO-BRIGHT?納米載體使吸收率提升至90%,能轉(zhuǎn)化黑色素為淺色類型,實現(xiàn)由內(nèi)而外的透亮光彩。研究顯示,該配方可幫助皮膚抵御87%污染物傷害,降低35%氧化應激。真正的美白需要3-6個月的細胞更新周期,從源頭調(diào)節(jié)黑色素代謝,而非表面修飾?,F(xiàn)代美白理念追求由內(nèi)煥發(fā)的自然光澤,體現(xiàn)健康肌膚的本質(zhì)光彩。

    • AI日報:阿里騰訊全面支持MCP協(xié)議;階躍星辰多模態(tài)推理模型Step-R1-V-Mini;美WHEE圖像生成模型Miracle F1

      歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術趨勢、了解創(chuàng)新AI產(chǎn)品應用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、阿里巴巴已宣布全面支持MCP協(xié)議騰訊緊隨其后近日,中國人工智能領域迎來技術標準的變革,ModelContextProtocol成為國內(nèi)AI生態(tài)的事實標準。12.英偉達發(fā)布Llama3.1NemotronUltra253B,性能?

    • 阿里開源通義新模型:指定首尾圖片生成視頻

      快科技4月18日消息,據(jù)報道,阿里巴巴旗下通義萬相宣布開源其創(chuàng)新視頻生成技術首尾幀生視頻14B模型。這項突破性AI技術能夠根據(jù)用戶提供的起始和結(jié)束畫面,智能生成720p高清過渡視頻,為視頻創(chuàng)作帶來全新可能。該模型通過先進的深度學習算法,能夠精準理解輸入畫面的內(nèi)容、風格及主題特征。當用戶提供首尾兩幀圖像后,模型會智能分析畫面中的視覺元素,包括物體形?

    • 全球口服美容領導品牌Vida Glow受邀出席英國年度醫(yī)美峰會,以科學實證引領精準抗衰趨勢

      Vida Glow和ACE公司合作推出了產(chǎn)品Vida Glow,該產(chǎn)品主要針對由科技醫(yī)學設備所測量的肌膚狀況進行改善,通過在特定波長下的光療技術,對不同皮膚問題提供解決方案,如抗氧化、抗衰老等。Vida Glow的消費者可以在家使用VISIA機器進行皮膚分析,然后根據(jù)報告在2025年ACE公司購買產(chǎn)品。在2025年9月,產(chǎn)品成功地在英國市場銷售,消費者對產(chǎn)品效果反饋良好,特別是對于抗衰老產(chǎn)品。Dr. Sharon Bennett, Dr. Tapan Patel等專家對Vida Glow產(chǎn)品給予了高度評價。此外,Vida Glow產(chǎn)品在2024年9月首次亮相,通過與科技醫(yī)學設備的結(jié)合,提供了高性價比的解決方案。

    • 深夜突襲,DeepSeek-Prover-V2加冕數(shù)學王者!671B數(shù)學推理逆天狂飆

      DeepSeek發(fā)布數(shù)學推理模型DeepSeek-Prover-V2,包含7B和671B兩個參數(shù)版本。該模型采用"遞歸+強化學習"訓練方法,在MiniF2F測試集上達到88.9%通過率,解決了PutnamBench中的49道題目。關鍵技術包括:1) 使用DeepSeek-V3分解復雜定理生成子目標;2) GRPO算法從多個候選方案中自動學習最優(yōu)解;3) 通過思維鏈整合非形式化推理與形式化證明。模型在AIME競賽題和教科書題目上也表現(xiàn)優(yōu)異,7B小模型意外在部分問題上超越大模型。論文指出該方法為通向AGI提供了正確路徑,未來將擴展至IMO級別數(shù)學難題。