11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
谷歌最近發(fā)布了面向企業(yè)、開發(fā)人員的全新代碼模型CodeGemma,該模型參數(shù)小、性能強(qiáng),同時(shí)對硬件要求較低。CodeGemma共有基礎(chǔ)預(yù)訓(xùn)練、指令微調(diào)和快速推理三個(gè)版本,在基準(zhǔn)測試中展現(xiàn)出優(yōu)異的性能表現(xiàn)。以上為谷歌發(fā)布的CodeGemma模型的相關(guān)內(nèi)容,更多詳細(xì)信息可參考開源地址和技術(shù)報(bào)告。
歡迎來到【AI日報(bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/昆侖萬維「天工3.0」與「天工SkyMusic」音樂大模型開啟公測昆侖萬維推出的「天工3.0」和「天工SkyMusic」音樂大模型開啟公測,彰顯了其在AI領(lǐng)域的技術(shù)實(shí)力和創(chuàng)新能力。亮點(diǎn)提要:?3
通義千問昨晚開源了基于Qwen1.5的代碼模型CodeQwen1.5,這是一個(gè)基于Qwen語言模型的代碼專家模型。CodeQwen1.5擁有7B參數(shù),采用GQA架構(gòu),經(jīng)過約3Ttokens代碼數(shù)據(jù)的預(yù)訓(xùn)練,支持92種編程語言,并且能夠處理最長64K的上下文輸入。開源社區(qū)對CodeQwen1.5的發(fā)布充滿期待,希望它在代碼助手、CodeAgent等方面為社區(qū)做出貢獻(xiàn),并在未來的代碼智能建設(shè)中發(fā)揮重要作用,實(shí)現(xiàn)真正的AI程序員。
StabilityAI在昨晚發(fā)布了其最新的代碼模型升級(jí)版本——StableCodeInstruct3B。這一開源項(xiàng)目是繼之前工作的延續(xù),暗示著SD3模型的開源發(fā)布應(yīng)該能夠順利進(jìn)行,盡管后續(xù)模型的發(fā)展情況還不太明朗。StabilityAI的這次更新為代碼生成和其他軟件工程相關(guān)任務(wù)提供了一個(gè)強(qiáng)大的工具,同時(shí),也為其商業(yè)模式開辟了新的可能。
StabilityAI發(fā)布了自家在2024年的第一個(gè)模型——StableCode3B。StableCode3B專注于代碼能力,實(shí)際的表現(xiàn)也是非常亮眼。從測試成績上來看,StabilityAI的這個(gè)模型要優(yōu)于StarCoder,不知道StableCode3B會(huì)給Stability和市場帶來怎樣的變化。
StabilityAI公司發(fā)布了其首個(gè)新型人工智能模型,商業(yè)許可的StableCode3B。字節(jié)復(fù)旦團(tuán)隊(duì)提出metaprompts擴(kuò)散模型圖像理解力刷新SOTA過去一年,擴(kuò)散模型逐漸在文生圖領(lǐng)域擴(kuò)展,能否處理視覺感知任務(wù)呢?字節(jié)跳動(dòng)和復(fù)旦大學(xué)技術(shù)團(tuán)隊(duì)提出了簡單有效方案,旨在提高模型在視覺識(shí)別任務(wù)中的性能。
生成式AI代碼開發(fā)平臺(tái)Phind在官網(wǎng)發(fā)布了最新V7版本,性能方面超越GPT-4,運(yùn)行效率提升了5倍,并且支持中文和16K超長上下文。PhindV7是基于Phind的開源代碼模型CodeLlama-34BV2,以及700億個(gè)高質(zhì)量代碼和推理問題進(jìn)行了額外精調(diào)。經(jīng)常編程的小伙伴們可以試試該模型,生成、審核、注釋、改錯(cuò)樣樣精通,是降本增效的利器。
8月25日凌晨,全球社交、科技巨頭Meta在官網(wǎng)正式開源了,文本生成代碼模型CodeLlama。CodeLlama是基于Meta前不久發(fā)布的,最強(qiáng)開源大語言模型Llama2之上開發(fā)成,提供基礎(chǔ)代碼、專門針對Python開發(fā)和基于自然語言指令微調(diào)的,70億、130億、340億三種參數(shù)模型。CodeLlama340億參數(shù)模型在HumanEval上得分為53.7%,在MBPP上得分為56.2%,與ChatGPT性能相當(dāng)。
GLM技術(shù)團(tuán)隊(duì)宣布,「代碼生成模型CodeGeeX2-6B」正式開源。CodeGeeX2是多語言代碼生成模型CodeGeeX的第二代模型,基于ChatGLM2架構(gòu)注入代碼實(shí)現(xiàn)。更開放的協(xié)議:CodeGeeX2-6B權(quán)重對學(xué)術(shù)研究完全開放。