11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、阿里巴巴推出AI旗艦應(yīng)用“新夸克”全面升級為“AI超級框”阿里巴巴于3月13日推出了其全新升級的AI旗艦應(yīng)用——新夸克。智譜在融資方面表現(xiàn)優(yōu)異,去年成功完成多輪融資,總額超過40億元,吸引了多家知名投資機構(gòu)。
事件12月10日,OpenAl正式上線Sora,并向包括美國在內(nèi)的多數(shù)國家用戶開放,用戶可在OpenAI官網(wǎng)上體驗Sora。Sora被包含在ChatGPTPlus和ChatGPTPro的會員訂閱方案中,用戶無需額外付費。股市有風(fēng)險,投資需謹(jǐn)慎。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、OpenAI正式上線Sora,ChatGPTPro用戶可無限生成、最長20秒OpenAI在"ship-mas"系列活動中發(fā)布了SoraTurbo視頻生成AI,支持生成20秒1080p視頻,用戶可通過文本、圖片或視頻進(jìn)行創(chuàng)作,具有多種風(fēng)格和剪輯功能。See3D已開源,支持多種3D創(chuàng)作應(yīng)用。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、阿里云發(fā)布逆天大模型Qwen2.5-Turbo一口氣讀完十本小說,推理速度提升4.3倍!阿里云推出的Qwen2.5-Turbo大語言模型在上下文處理能力和推理速度上都取得了革命性的突破,令人期待其?
法國著名開源大模型平臺Mistral.ai,開源了超大多模態(tài)模型——PixtralLarge。PixtralLarge有1240億參數(shù),支持128K上下文,能理解文本、圖表、圖像等,也是Mistral.ai自家聊天助手leChat目前正在使用的視覺模型。LeChat提供了一個從模型到輸出的完全集成平臺,用戶可以在一個平臺上完成所有的多模態(tài)任務(wù),無需在多個工具之間切換,簡化了工作流程。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、阿里發(fā)布FLUX.1-Turbo-Alpha:基于FLUX.1-dev、8步提煉Lora阿里媽媽創(chuàng)意團(tuán)隊發(fā)布了基于FLUX.1-dev模型訓(xùn)練的FLUX.1-Turbo-Alpha,采用8步蒸餾Lora模型,多頭判別器顯著提高蒸餾質(zhì)量,支持多種FLU
【新智元導(dǎo)讀】近日,一向畫風(fēng)精致的「蘋果牌AI」,也推出了升級版的多模態(tài)大模型,從1B到30B參數(shù),涵蓋密集和專家混合模型,密集文本、多圖理解,多項能力大提升。多模態(tài)大語言模型如今已是大勢所趨。最后一欄表明,作者優(yōu)化的組合實現(xiàn)了最佳的整體性能,平衡了基準(zhǔn)測試中的所有功能。
在科技領(lǐng)域,多模態(tài)模型的決策能力一直是研究的熱點。UC伯克利等高校的研究團(tuán)隊提出了一種名為RL4VLM的全新強化學(xué)習(xí)框架,成功地提升了多模態(tài)大模型在決策任務(wù)上的表現(xiàn)。這項研究不僅為多模態(tài)模型的性能提升提供了新的思路,也為未來人工智能的發(fā)展開辟了新的可能性。
只用強化學(xué)習(xí)來微調(diào),無需人類反饋,就能讓多模態(tài)大模型學(xué)會做決策!這種方法得到的模型,已經(jīng)學(xué)會了看圖玩撲克、算“12點”等任務(wù),表現(xiàn)甚至超越了GPT-4v。這是來自UC伯克利等高校最新提出的微調(diào)方法,研究陣容也是相當(dāng)豪華:圖靈獎三巨頭之一、Meta首席AI科學(xué)家、紐約大學(xué)教授LeCunUC伯克利大牛、ALOHA團(tuán)隊成員SergryLevineResNeXt一作、Sora基礎(chǔ)技術(shù)DiT作者謝賽寧香港大學(xué)數(shù)據(jù)科學(xué)學(xué)院院長、UC伯克利教授馬毅該方法名為RL4VLM,論文預(yù)印本已經(jīng)上線,相關(guān)代碼也已在GitHub中開源。從提示詞上看,這項研究采取了如下的提示過程作為多模態(tài)模型的輸入,并且給出了期望的輸出形式:消融實驗結(jié)果表明,如果這一過程中不采用思維鏈,則任務(wù)成功率會出現(xiàn)大幅下降。
社交不僅僅局限于文字的簡單傳達(dá)包括視覺體驗和聽覺體驗的全方位調(diào)動。文字、圖片、視頻、音頻等多模態(tài)集合是線上社交的主流形式。在當(dāng)今AIGC技術(shù)的迅猛發(fā)展下,Soul社交形式的不斷迭代升級,可以吸引更多用戶群體的目光,并成為用戶們交流互動的首選平臺。