11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
今天凌晨1點,OpenAI進行了技術(shù)直播發(fā)布了最新模型——GPT-4.1。除了GPT-4.1之外,還有GPT4.1-Mini和GPT4.1-Nano兩款模型,在多模態(tài)處理、代碼能力、指令遵循、成本方面實現(xiàn)大幅度提升。特別是支持100萬token上下文,這對于金融分析、小說寫作、教育等領(lǐng)域幫助巨大。由于GPT-4.1的發(fā)布,OpenAI宣布將會淘汰剛發(fā)布不久的GPT-4.5,其能力可見一斑。目前,如果想體驗GPT-4.1而無法通過API身?
今年2月初,谷歌發(fā)布的Gemini2.0Pro支持200萬上下文,震驚了整個大模型領(lǐng)域。僅過了2個月,Meta最新開源的Llama4Scout就將上下文擴展至1000萬,整整提升了5倍開啟千萬級時代。根據(jù)實驗數(shù)據(jù)顯示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等測試的數(shù)據(jù)比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。
在當今數(shù)字化時代,AI應(yīng)用的開發(fā)和部署正面臨著一個關(guān)鍵挑戰(zhàn):如何將AI技術(shù)與現(xiàn)有的服務(wù)和系統(tǒng)高效集成。為了解決這一難題,MCP應(yīng)運生。AIbase的MCP資源網(wǎng)站還提供了詳細的開發(fā)文檔和教程,幫助開發(fā)者快速上手并深入學(xué)習(xí)MCP技術(shù)。
在當今快速發(fā)展的AI時代,如何高效地將AI助手與各類數(shù)據(jù)系統(tǒng)連接起來,成為了一個亟待解決的問題。MCP協(xié)議應(yīng)運生,它是由Anthropic公司提出并開源的一種開放標準協(xié)議,通過提供一個統(tǒng)一的開放標準,極大地簡化了AI系統(tǒng)與數(shù)據(jù)源之間的連接,使得AI系統(tǒng)能夠更可靠地訪問所需數(shù)據(jù),從產(chǎn)生更相關(guān)、更優(yōu)質(zhì)的響應(yīng)。通過與AIbase的緊密結(jié)合,MCP協(xié)議能夠更好地發(fā)揮其優(yōu)勢,為AI技術(shù)的發(fā)展提供更強大的動力。
下面的兩個有聲書演播片段,你能分辨是真人還是AI合成的嗎?實際上這兩個小說片段都是AI合成的,方案來自于豆包語音模型團隊。為了逼近一流真人主播的演播效果,豆包語音模型基于原有Seed-TTS框架進一步加入上下文理解,最終實現(xiàn)了高表現(xiàn)力、高自然度、高語義理解的小說演播效果。未來豆包語音模型會繼續(xù)探索前沿科技與業(yè)務(wù)場景的結(jié)合,追求更極致的“聽”體驗。
據(jù)報道,DeepSeek團隊在其新發(fā)表的論文中介紹了NSA,這是一種創(chuàng)新的稀疏注意力機制,該機制專為與現(xiàn)代硬件高度協(xié)同且支持本機訓(xùn)練設(shè)計,旨在實現(xiàn)超高速的長上下文訓(xùn)練與推理過程。NSA通過一系列針對現(xiàn)代硬件特性的優(yōu)化設(shè)計,不僅顯著提升了推理速度有效降低了預(yù)訓(xùn)練成本,同時確保了模型性能的絲毫不減。NSA不僅在算法上實現(xiàn)了稀疏注意力的高效建模通過硬件對齊的設(shè)計,優(yōu)化了內(nèi)存訪問和計算調(diào)度,使得模型在處理長文本時能夠大幅減少計算延遲和資源消耗。
“MoE”加上“前所未有大規(guī)模投入生產(chǎn)環(huán)境的LightningAttention”,再加上“從框架到CUDA層面的如軟件和工程重構(gòu)”,會得到什么?一個追平了頂級模型能力、且把上下文長度提升到400萬token級別的新模型。這顯然是巨大的野心,但在如今人們都在關(guān)注大模型接下來往哪兒走的時候,非常需要這樣的野心,非常需要一個或者更多個“Transformer時刻”——在一個自己相信的路線上做到極致,把看似所有人都知道的配方,最終兌現(xiàn)出來,展示給技術(shù)社區(qū)里的人們,讓它變成某個決定性的時刻,給AI的前進再添把火。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、萬物皆可一鍵毛茸茸!阿里通義App上線“局部風(fēng)格化”功能通義App最近推出的“局部風(fēng)格化”功能引發(fā)了社交平臺的熱潮。這項研究強調(diào)了AI電腦在任務(wù)處理、隱私保護和自適應(yīng)學(xué)?
阿里云百煉宣布,最新的Qwen2.5-Turbo模型已在平臺上線,即日起所有用戶可在阿里云百煉調(diào)用Qwen2.5-TurboAPI,百萬tokens僅需0.3元,同時還免費為用戶贈送1000萬tokens額度。該模型支持100萬超長上下文,相當于100萬個英文單詞或150萬個漢字,并且在多個長文本評測集中的性能表現(xiàn)超越GPT-4。不過通義千問團隊也表示,長文本任務(wù)處理依然存在諸多挑戰(zhàn),未來將進一步探索長序列人類偏好對齊,優(yōu)化推理效率以減少運算時間,并繼續(xù)研發(fā)更大、更強的長文本模型。
【新智元導(dǎo)讀】當今的LLM已經(jīng)號稱能夠支持百萬級別的上下文長度,這對于模型的能力來說,意義重大。但近日的兩項獨立研究表明,它們可能只是在吹牛,LLM實際上并不能理解這么長的內(nèi)容。這些差異可能是由于訓(xùn)練任務(wù)的變化造成的。