要點:
李開復(fù)的Yi-34B-Chat模型在多個評測中取得顯著成績,勝率達94.08%,超越主流大模型如LLaMA2和ChatGPT。
該模型在加州大學(xué)伯克利分校主導(dǎo)的LMSYS ORG排行榜中以1102的Elo評分追平GPT-3.5,展現(xiàn)強大性能。在中文能力評測中,Yi-34B-Chat在SuperCLUE排行榜上以31.82%的對戰(zhàn)勝率僅次于GPT4-Turbo。
Yi-34B-Chat的成功得益于零一萬物團隊的AI Alignment團隊采用創(chuàng)新對齊策略,包括輕量化指令微調(diào)方案、多能力融合、對數(shù)據(jù)的關(guān)注等。
站長之家(ChinaZ.com)12月11日 消息:近期,李開復(fù)的Yi-34B-Chat模型在多個評測中大放異彩。其94.08%的勝率超越了LLaMA2和ChatGPT等主流大模型,尤其在加州大學(xué)伯克利分校主導(dǎo)的LMSYS ORG排行榜中,以1102的Elo評分追平了GPT-3.5。此外,在中文SuperCLUE排行榜上,Yi-34B-Chat以31.82%的勝率僅次于GPT4-Turbo。
通過對話場景實測,Yi-34B-Chat在不同對話場景中展現(xiàn)出優(yōu)越的實力。從對Transformer模型結(jié)構(gòu)的發(fā)展方向到生成小紅書文案,Yi-34B-Chat的回答均顯示其有理有據(jù),符合當(dāng)前主流風(fēng)格。在中文理解方面,Yi-34B-Chat在復(fù)雜的中文理解問題上也展現(xiàn)了出色的精準(zhǔn)性。
項目地址:https://huggingface.co/01-ai
Yi-34B-Chat模型的卓越表現(xiàn)不僅僅源于其強基座系列,還得益于人工智能對齊團隊的創(chuàng)新對齊策略。采用輕量化指令微調(diào)方案,單項能力提升和多項能力融合兩個階段的創(chuàng)新訓(xùn)練方式,以及關(guān)注數(shù)據(jù)質(zhì)量和指令多樣性等方面的獨特設(shè)計,使Yi-34B-Chat在各方面均有出色表現(xiàn)。
Yi-34B模型開源首月表現(xiàn)亮眼,在Hugging Face社區(qū)下載量高達16.8萬,魔搭社區(qū)下載量也達到1.2萬,GitHub上獲得超過4900個Stars。多家知名公司和機構(gòu)基于Yi模型基座推出的微調(diào)模型,如獵戶星空公司的OrionStar-Yi-34B-Chat模型、IDEA研究院的SUS-Chat-34B等,性能表現(xiàn)優(yōu)異。在GPU加速大模型的實驗中,Yi-6B成為范例項目。
開發(fā)者Eric Hartford提出Yi模型使用了與LLaMA模型相同的架構(gòu),引發(fā)了一場關(guān)于“抄襲”的質(zhì)疑。零一萬物團隊意識到問題,及時在各開源平臺重新提交模型及代碼,完成了版本更新。然而,這一小問題在國內(nèi)被曲解,引發(fā)了一場輿論風(fēng)暴。團隊強調(diào),他們是從零開始打造Yi系列模型,重新命名僅為對比實驗需求。
這一系列的成績和問題共同勾勒出Yi-34B-Chat模型的成功軌跡,盡管受到一些質(zhì)疑,但其在技術(shù)創(chuàng)新和用戶體驗方面的表現(xiàn)仍然備受矚目。
(舉報)