无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關(guān)鍵詞  > UniToken最新資訊  > 正文

    UniToken:多模態(tài)AI的“全能選手”,一次編碼搞定圖文理解與圖像生成

    2025-04-25 09:03 · 稿源: 量子位公眾號

    聲明:文來自微信公眾號“量子位”,作者:UniToken團隊,,授權(quán)站長之家轉(zhuǎn)載發(fā)布。

    首次在統(tǒng)一框架內(nèi)實現(xiàn)理解與生成的“雙優(yōu)表現(xiàn)”,打破了多模態(tài)統(tǒng)一建模的僵局!

    復(fù)旦大學(xué)和美團的研究者們提出了UniToken——一種創(chuàng)新的統(tǒng)一視覺編碼方案,在一個框架內(nèi)兼顧了圖文理解與圖像生成任務(wù),并在多個權(quán)威評測中取得了領(lǐng)先的性能表現(xiàn)。

    UniToken通過融合連續(xù)和離散視覺表征,有效緩解了以往方法中“任務(wù)干擾”和“表示割裂”的問題,為多模態(tài)統(tǒng)一建模提供了新的范式。

    圖片

    為了便于社區(qū)內(nèi)研究者們復(fù)現(xiàn)與進(jìn)一步開發(fā),UniToken團隊已將代碼與模型全部開源。

    圖片

    任務(wù)背景:統(tǒng)一建模的挑戰(zhàn)

    在傳統(tǒng)圖文理解或圖像生成模型中,其視覺編碼的底層特性差異較大。

    譬如圖文理解模型(如LLaVA、Qwen-VL等)要求從圖像中抽取高層語義,從而進(jìn)一步結(jié)合文本進(jìn)行協(xié)同理解;而圖像生成模型(如DALL-E、Stable Diffusion等)則要求保留充分的底層細(xì)節(jié)以高保真圖像的生成。

    由此,開發(fā)理解生成一體化的多模態(tài)大模型面臨著以下幾大難題:

    視覺編碼割裂:理解任務(wù)偏好具有高層語義的連續(xù)視覺特征(如CLIP),而生成任務(wù)依賴保留底層細(xì)節(jié)的離散視覺特征(如VQ-GAN編碼的codebook);

    聯(lián)合訓(xùn)練干擾:理解與生成任務(wù)差異而帶來的沖突性使得在統(tǒng)一模型中訓(xùn)練時難以兼顧兩個任務(wù)的性能,存在“一個優(yōu)化,另一個退化”的現(xiàn)象。

    為了應(yīng)對上述挑戰(zhàn),領(lǐng)域內(nèi)的相關(guān)工作通常采取兩類范式:以VILA-U等為代表的工作通過結(jié)合圖像重建與圖文對比學(xué)習(xí)的訓(xùn)練目標(biāo),來提升離散視覺編碼的語義豐富度;以Janus等為代表的工作通過為理解和生成任務(wù)分別定制相應(yīng)的視覺編碼器與預(yù)測頭,來實現(xiàn)兩個任務(wù)之間的解耦。

    然而,前者在理解任務(wù)上目前依舊難以與連續(xù)視覺編碼驅(qū)動的多模態(tài)大模型匹敵;后者則在應(yīng)對更復(fù)雜的多模任務(wù)(例如多輪圖像編輯等)時面臨嚴(yán)重的上下文切換開銷及單邊信息缺失等問題。

    UniToken:統(tǒng)一視覺表示,融合兩種世界

    核心設(shè)計:連續(xù)+離散雙編碼器

    圖片

    不同于Janus的多任務(wù)解耦的設(shè)計思路,UniToken為所有下游任務(wù)均提供一套完備的視覺信息,促使多模態(tài)大模型以指令驅(qū)動的形式從中吸收相應(yīng)的知識。

    具體而言,UniToken采取統(tǒng)一的雙邊視覺編碼器,其中將VQ-GAN的離散編碼與SigLIP的連續(xù)表征以下述方式進(jìn)行拼接,從而得到一套兼?zhèn)涓邔诱Z義與底層細(xì)節(jié)的視覺編碼:

    [BOS][BOI]{離散圖像token}[SEP]{連續(xù)圖像embedding}[EOI]{文本}[EOS]

    多階段訓(xùn)練策略

    為了協(xié)調(diào)理解與生成任務(wù)的特性,UniToken采用三階段訓(xùn)練流程:

    階段一:視覺語義空間對齊:

    基于Chameleon作為基座,本階段旨在為LLM接入SigLIP的連續(xù)視覺編碼。為此,在訓(xùn)練時凍結(jié)LLM,僅訓(xùn)練SigLIP ViT和Adapter,使其輸出與語言空間對齊。

    階段二:多任務(wù)聯(lián)合訓(xùn)練:

    基于第一階段對齊后的雙邊編碼器所提供的完備視覺信息,本階段在大規(guī)模圖文理解與圖像生成數(shù)據(jù)集上聯(lián)合訓(xùn)練,通過控制數(shù)據(jù)配比(10M:10M)以均衡提升模型理解與生成任務(wù)的性能。

    階段三:指令強化微調(diào):

    通過測試發(fā)現(xiàn),第二階段訓(xùn)練后的模型在指令跟隨、布局圖像生成等方面的表現(xiàn)均有待加強,故在本階段進(jìn)一步引入高質(zhì)量多模態(tài)對話(423K)與精細(xì)化圖像生成數(shù)據(jù)(100K),進(jìn)一步增強模型對復(fù)雜指令的跟隨能力。

    細(xì)粒度視覺增強

    得益于保存了雙邊視覺編碼的完備性,UniToken可無縫銜接現(xiàn)有的細(xì)粒度視覺增強技術(shù)。

    具體而言,UniToken在連續(xù)視覺編碼側(cè)引入兩項增強策略:

    AnyRes:將高分辨率圖像劃分為多個子圖,分別提取特征后進(jìn)行相應(yīng)空間位置的拼接,以提升對圖像的細(xì)粒度感知;

    ViT端到端微調(diào):在模型的全訓(xùn)練流程中,動態(tài)微調(diào)連續(xù)視覺編碼器的權(quán)重,結(jié)合精細(xì)的學(xué)習(xí)率控制策略以避免模型崩潰,進(jìn)而適應(yīng)廣泛的任務(wù)場景。

    實驗結(jié)果:超越SOTA,多模態(tài)統(tǒng)一的“優(yōu)等生”

    在多個主流多模態(tài)基準(zhǔn)(圖文理解+圖像生成)上,UniToken均取得了媲美甚至領(lǐng)先于領(lǐng)域內(nèi)專用模型的性能:

    圖片

    圖片

    圖片

    圖片

    與此同時,研究者們對于訓(xùn)練策略及視覺編碼的影響進(jìn)行了進(jìn)一步深入的消融分析:

    圖片

    • 在大規(guī)模數(shù)據(jù)場景下(>15M),1:1的理解+生成數(shù)據(jù)比例能夠兼顧理解與生成任務(wù)的性能

    圖片

    • 在應(yīng)對理解與生成的任務(wù)沖突時,統(tǒng)一的連續(xù)+離散的視覺編碼相較于僅采用離散編碼的方案具有較強的魯棒性。

    總結(jié):邁向通用理解生成一體化的多模態(tài)大模型

    從發(fā)展趨勢上來看,目前圖文理解模型在通用性上遠(yuǎn)遠(yuǎn)領(lǐng)先于圖像生成模型。

    而Gemini-2.0-Flash與GPT-4o在指令跟隨的圖像生成方面的驚艷表現(xiàn),帶來了通用圖像生成模型未來的曙光。

    在這樣的時代背景下,UniToken僅是初步的嘗試,而其信息完備的特性也為進(jìn)一步挖掘其更深層次的潛力提供了更多信心:

    模型規(guī)模擴展:借助更大的語言模型,進(jìn)一步探索統(tǒng)一模型在理解與生成上的“涌現(xiàn)能力”;

    數(shù)據(jù)規(guī)模擴展:引入更大規(guī)模的訓(xùn)練數(shù)據(jù)(如Janus-Pro使用的近2億樣本),推動模型性能極限;

    任務(wù)類型擴展:從傳統(tǒng)的理解與生成拓展至圖像編輯、故事生成等圖文交錯的任務(wù),追逐通用生成能力的上限。

    論文鏈接:

    https://arxiv.org/pdf/2504.04423

    代碼地址:

    https://github.com/SxJyJay/UniToken

    舉報

    • 相關(guān)推薦
    • AI日報:阿里騰訊面支持MCP協(xié)議;階躍星辰多模態(tài)推理模型Step-R1-V-Mini;美WHEE圖像生成模型Miracle F1

      歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、阿里巴巴已宣布全面支持MCP協(xié)議騰訊緊隨其后近日,中國人工智能領(lǐng)域迎來技術(shù)標(biāo)準(zhǔn)的變革,ModelContextProtocol成為國內(nèi)AI生態(tài)的事實標(biāo)準(zhǔn)。12.英偉達(dá)發(fā)布Llama3.1NemotronUltra253B,性能?

    • 多模態(tài)和Agent成為大廠AI的新賽 點

      這是《窄播Weekly》的第52期,本期我們關(guān)注的商業(yè)動態(tài)是:當(dāng)大廠的AI競爭策略開始傾斜向應(yīng)用場景,多模態(tài)能力和代理執(zhí)行成為兩個焦點。大模型落地C端場景的核心,就是讓大模型的能力越來越接近人。沿著這個主旋律,可以劃分出兩個進(jìn)化方向:一個是持續(xù)降低用戶與大模型進(jìn)行有效溝通的難度;另一個則是讓大模型具備執(zhí)行更復(fù)雜任務(wù)的能力。前者的實現(xiàn),需要給到大模型多

    • 多模態(tài)和Agent成為大廠AI的新賽點

      本期《窄播Weekly》聚焦AI大廠競爭策略向應(yīng)用場景傾斜的趨勢,重點分析了多模態(tài)能力和代理執(zhí)行兩大發(fā)展方向。文章指出,大模型落地的核心在于讓人機交互更自然,具體表現(xiàn)為:1)通過多模態(tài)技術(shù)降低用戶使用門檻,如阿里夸克新推出的"拍照問夸克"功能;2)通過代理執(zhí)行提升復(fù)雜任務(wù)處理能力,如字節(jié)、百度等推出的通用Agent產(chǎn)品。國內(nèi)外廠商路徑差異明顯:國?

    • 可靈AI發(fā)布新2.0模型:上線多模態(tài)視頻編輯功能

      快科技4月16日消息,據(jù)報道,可靈AI在北京舉行靈感成真”2.0模型發(fā)布會,正式發(fā)布可靈2.0視頻生成模型及可圖2.0圖像生成模型。據(jù)介紹,可靈2.0模型在動態(tài)質(zhì)量、語義響應(yīng)、畫面美學(xué)等維度保持領(lǐng)先;可圖2.0模型在指令遵循、電影質(zhì)感及藝術(shù)風(fēng)格表現(xiàn)等方面顯著提升。3月27日,全球AI基準(zhǔn)測試機構(gòu)Artificial Analysis發(fā)布了最新的全球視頻生成大模型榜單,快手可靈1.6pro(高品質(zhì)模

    • 字節(jié)發(fā)布豆包1.5深度思考模型:“實拍級”圖像生成

      快科技4月17日消息,據(jù)報道,今日,在火山引擎AI創(chuàng)新巡展杭州站的現(xiàn)場,字節(jié)跳動旗下火山引擎總裁譚待正式發(fā)布了備受矚目的豆包1.5深度思考模型。譚待指出,豆包1.5深度思考模型在多個關(guān)鍵領(lǐng)域展現(xiàn)出卓越性能。在數(shù)學(xué)、編程、科學(xué)推理這類專業(yè)領(lǐng)域中,它能夠精準(zhǔn)高效地處理復(fù)雜問題;在創(chuàng)意寫作等通用任務(wù)方面,同樣表現(xiàn)出色。該模型采用MoE架構(gòu),總參數(shù)為200B,激?

    • 開源即支持!基于昇騰MindSpeed MM玩轉(zhuǎn)InternVL3多模態(tài)理解最新模型

      多模態(tài)理解領(lǐng)域當(dāng)前已成了各家AI大模型公司“軍備競賽”的關(guān)鍵點之一,國內(nèi)外知名AI大模型公司都爭相通過發(fā)布最先進(jìn)的多模態(tài)大語言模型展現(xiàn)其在多模態(tài)理解領(lǐng)域的前沿能力。近期,上海AI實驗室推出了其最新的多模態(tài)大語言模型InternVL3 系列,相比上一代InternVL2. 5 模型,該模型展現(xiàn)出卓越的多模態(tài)感知和推理能力,同時進(jìn)一步擴展了其工具使用、GUI代理、工業(yè)圖像分析等

    • AI日報:國內(nèi)首個多模態(tài)AI程序員上崗;字節(jié)啟動Top Seed計劃招募AI人才;DeepSeek R1T Chimera上線OpenRouter

      【AI日報】今日AI領(lǐng)域重要動態(tài):1.百度發(fā)布文心快碼3.5及多模態(tài)AI程序員"文心快碼Comate Zulu",提升開發(fā)效率;2.字節(jié)跳動啟動"Top Seed"計劃,招募30名AI博士人才;3.DeepSeek開源R1T Chimera模型上線OpenRouter平臺;4.阿里AI工程師余亮獲"全國勞動模范"稱號;5.開源圖像編輯工具Step1X-Edit登陸Hugging Face,性能媲美GPT-4o;6.谷歌被曝每月向三星支付巨額資金預(yù)裝Gemini應(yīng)用

    • ChatGPT圖像生成爆火!OpenAI CEO在線求助:急需10萬塊GPU

      OpenAI近期推出的全新圖像生成工具引發(fā)了熱潮,用戶使用ChatGPT即可創(chuàng)作出吉卜力等風(fēng)格的AI藝術(shù)作品。這一功能不僅推動了ChatGPT用戶數(shù)的創(chuàng)新高導(dǎo)致服務(wù)器負(fù)擔(dān)過重,甚至一度限制了該功能的使用。SensorTower的數(shù)據(jù)顯示,ChatGPT應(yīng)用的全球下載量和每周活躍用戶數(shù)分別較上周增長了11%和5%應(yīng)用內(nèi)購買收入則增加了6%。

    • AI日報: OpenAI推出gpt-image-1圖像生成API;納米AI發(fā)布MCP萬能工具箱;中國占AI專利60%

      【AI日報】欄目聚焦人工智能領(lǐng)域最新動態(tài):1) OpenAI推出ChatGPT圖像生成API,開發(fā)者可輕松集成AI繪圖功能,已生成超7億張圖片;2) 谷歌Gemini月活用戶突破3.5億,但仍落后于ChatGPT的6億用戶;3) OpenAI預(yù)測2029年收入將達(dá)1250億美元,AI代理業(yè)務(wù)成主要增長點;4) Ostris發(fā)布8B參數(shù)擴散模型Flex.2-preview,優(yōu)化ComfyUI工作流;5) 英偉達(dá)推出多模態(tài)LLM模型Describe Anything,支持指定區(qū)域生成詳細(xì)描?

    • 紫東太初多模態(tài)RAG新發(fā)布:端到端問答準(zhǔn)確率提升33%

      在產(chǎn)業(yè)智能化進(jìn)程中,如何高效融合企業(yè)專有知識資產(chǎn),構(gòu)建領(lǐng)域?qū)僬J(rèn)知引擎,是企業(yè)邁向智能決策與高效運營的關(guān)鍵。然而,傳統(tǒng)檢索增強生成(RAG)技術(shù)受限于語言單模態(tài)處理能力,僅能實現(xiàn)文本知識庫與文本查詢之間的淺層理解,難以滿足復(fù)雜業(yè)務(wù)場景的需求,在實際應(yīng)用中暴露出兩大缺陷:信息表征缺失:忽略知識庫中多模態(tài)富文檔的視覺語義信息,如版面結(jié)構(gòu)、圖表關(guān)?