11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享。快來(lái)騰訊云選購(gòu)吧!
UC伯克利的研究人員提出了一項(xiàng)名為RingAttention的新方法,以解決深度學(xué)習(xí)模型中內(nèi)存需求的挑戰(zhàn)。在最新的研究中,研究人員探討了Transformer模型在處理長(zhǎng)序列時(shí)面臨的問(wèn)題,特別是由于自注意力機(jī)制引發(fā)的內(nèi)存需求。研究人員表示,他們將來(lái)計(jì)劃在最大序列長(zhǎng)度和最大計(jì)算性能方面進(jìn)行更多研究,這將為大型視頻-音頻-語(yǔ)言模型、利用擴(kuò)展反饋和試驗(yàn)錯(cuò)誤學(xué)習(xí)、代碼生成和理解科學(xué)數(shù)據(jù)等領(lǐng)域提供激動(dòng)人心的機(jī)會(huì)。