11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買(mǎi)1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵?lái)騰訊云選購(gòu)吧!
DragonDiffusion是一款基于擴(kuò)散模型的圖像編輯工具,旨在實(shí)現(xiàn)對(duì)圖像進(jìn)行精細(xì)化編輯。通過(guò)設(shè)計(jì)分類(lèi)器引導(dǎo)的方法,DragonDiffusion能夠?qū)⒕庉嬓盘?hào)轉(zhuǎn)化為梯度,通過(guò)特征對(duì)齊損失修改擴(kuò)散模型的中間表示。通過(guò)DragonDiffusion,用戶(hù)可以實(shí)現(xiàn)對(duì)圖像的精細(xì)化編輯,提升圖像編輯的靈活性和效果。
北大團(tuán)隊(duì)最新工作,用擴(kuò)散模型也能實(shí)現(xiàn)拖拉拽P圖!點(diǎn)一點(diǎn),就能讓雪山長(zhǎng)個(gè)兒:或者讓太陽(yáng)升起:這就是DragonDiffusion,由北京大學(xué)張健老師團(tuán)隊(duì)VILLA,依托北京大學(xué)深圳研究生院-兔展智能AIGC聯(lián)合實(shí)驗(yàn)室,聯(lián)合騰訊ARCLab共同帶來(lái)。它可以被理解為DragGAN的變種。實(shí)驗(yàn)室近期還會(huì)推出原創(chuàng)對(duì)標(biāo)StableDiffusion的大模型。
就在剛剛,引爆AI繪圖圈的DragGAN,正式發(fā)布了開(kāi)源代碼!上個(gè)月,一項(xiàng)名為「DragYourGAN」的核彈級(jí)研究,在AI繪圖圈炸響。論文由MPII、MIT、賓大、谷歌等機(jī)構(gòu)的學(xué)者聯(lián)合發(fā)布,并且已被SIGGRAPH2023錄用。并于2019年在香港大學(xué)獲得博士學(xué)位。
一個(gè)名為DragGAN的AI圖片編輯工具備受矚目。它實(shí)現(xiàn)了簡(jiǎn)單的點(diǎn)擊鼠標(biāo)、拖動(dòng)關(guān)鍵點(diǎn),就能達(dá)到與Photoshop相似的效果。案例5:讓小姐姐瞇眼操作方式和上面一樣,先把要修改的部分畫(huà)個(gè)圈“涂白”,讓后在眼皮的上下各設(shè)一個(gè)點(diǎn),讓其向中間靠攏,就可以輕松實(shí)現(xiàn)瞇眼效果了。
還記得幾天前發(fā)布的拖拽秒P圖工具DragGAN嗎?這個(gè)讓網(wǎng)友直呼PS不存在了的工具,演示視頻一經(jīng)發(fā)布就在國(guó)內(nèi)外火得一塌糊涂。這邊官方版還沒(méi)用上,港大、南大、清華等就搶先開(kāi)源「復(fù)刻」版DragGAN。由于功能太強(qiáng)大,InternGPT的演示入口一開(kāi)放,就直接被擠爆了。
先來(lái)看一段最近在網(wǎng)上非?;鸬囊曨l:視頻展示了一項(xiàng)最新的+++AI+技術(shù)——用戶(hù)只需拖拽圖片中的像素點(diǎn)和方向即可實(shí)現(xiàn)精確控制,從對(duì)圖片進(jìn)行局部微調(diào)??吹饺绱恕吧褚话愕牟僮鳌保瑖?guó)外科技大V直言+Photoshop+“寄了”:這項(xiàng)稱(chēng)作「DragGAN」的技術(shù)與最近火熱的大語(yǔ)言模型無(wú)關(guān),它是來(lái)自+Google+的研究人員與+Max+Planck+信息學(xué)研究所和麻省理工學(xué)院+CSAIL+一起打造的新模型。據(jù)稱(chēng)該項(xiàng)目的代碼將在6月開(kāi)源,目前其在+GitHub+上的+star+數(shù)量已超過(guò)8K。
DragGAN+是一款全新的人工智能應(yīng)用程序,可以通過(guò)在圖像上拖動(dòng)來(lái)輕松調(diào)整照片和藝術(shù)作品。它真的就是這么簡(jiǎn)單易用?!惯@款基于+GAN+的工具目前適用于+2D+圖像,但該團(tuán)隊(duì)計(jì)劃發(fā)布適用于+3D+模型的版本。
一個(gè)名為DragGAN的AI+圖片編輯工具爆火,它實(shí)現(xiàn)了點(diǎn)擊鼠標(biāo)、拖動(dòng)關(guān)鍵點(diǎn)就能達(dá)到Photoshop的效果。使用Photoshop等工具時(shí)候,需要具備相對(duì)專(zhuān)業(yè)的技能才能靈活,精確地控制單個(gè)對(duì)象的位置,形狀,表達(dá)或排列。如果將DragGAN+與AI圖像生成工具搭配使用,用戶(hù)將能夠?qū)崿F(xiàn)更接近他們心目中的圖像的輸出。
最近來(lái)自馬克斯·普朗克計(jì)算機(jī)科學(xué)研究所、MIT+CSAIL和Google的研究員,研究了一種新的GAN控制方法DragGAN。只需點(diǎn)擊拖拽,用戶(hù)就可以+"改變汽車(chē)的尺寸,將人物嘴巴張開(kāi)或合上等。這個(gè)過(guò)程將一直持續(xù)到控制點(diǎn)到達(dá)其對(duì)應(yīng)的目標(biāo)點(diǎn)。
一段AI修圖視頻在國(guó)內(nèi)外社交媒體上傳瘋了。不僅直接躥升B站關(guān)鍵詞聯(lián)想搜索第一,視頻播放上百萬(wàn),微博推特也是火得一塌糊涂,轉(zhuǎn)發(fā)者紛紛直呼“PS已死”。值得一提的是,為了展示DragGAN的可控性,一作還親自上陣,演示了生發(fā)、瘦臉和露齒笑的三連P圖效果:是時(shí)候給自己的主頁(yè)照片“修修圖”了。