无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關鍵詞  > 大模型最新資訊  > 正文

    媲美OpenAI-o3,剛剛開源模型DeepCoder,訓練方法、數(shù)據(jù)集大公開

    2025-04-09 08:44 · 稿源: ? AIGC開放社區(qū)公眾號

    今天凌晨4點,著名大模型訓練平臺Together AI和智能體平臺Agentica,聯(lián)合開源了新模型DeepCoder-14B-Preview。該模型只有140億參數(shù),但在知名代碼測試平臺LiveCodeBench的測試分為60.6%,高于OpenAI的o1模型(59.5%),略低于o3-mini(60.9%)。在Codeforces、AIME2024上的評測數(shù)據(jù)同

    ......

    本文由站長之家合作伙伴自媒體作者“? AIGC開放社區(qū)公眾號”授權發(fā)布于站長之家平臺,本平臺僅提供信息索引服務。由于內容發(fā)布時間超過平臺更新維護時間,為了保證文章信息的及時性,內容觀點的準確性,平臺將不提供完全的內容展現(xiàn),本頁面內容僅為平臺搜索索引使用。需閱讀完整內容的用戶,請查看原文,獲取內容詳情。

    舉報

    • 相關推薦
    • 奧特曼:ChatGPT不是AGI!OpenAI最強開源模型直擊DeepSeek

      【新智元導讀】代碼截圖泄露,滿血版o3、o4-mini鎖定下周!更勁爆的是,一款據(jù)稱是OpenAI的神秘模型一夜爆紅,每日處理高達260億token,是Claude用量4倍。奧特曼在TED放話:將推超強開源模型,直面DeepSeek挑戰(zhàn)。持續(xù)的創(chuàng)新、豐富的資源和智能AI將會無縫融入日常生活,未來一代人將會覺得當前人們又辛苦又落后。

    • OpenAI推出輕量版Deep Research,所有用戶可用!

      OpenAI 稱,由于很多用戶喜歡使用 Deep Research 功能,所以將推出輕量版 Deep Research,且此版本面向所有用戶開放……

    • OpenAI發(fā)布o3o4 mini模型,實現(xiàn)“看圖說話”,糊圖也行!

      從 GPT-5 開始,推理模型和非推理模型很有可能會整合在一起……

    • DeepSeek上新!開源發(fā)布DeepSeek-Prover-V2-671B新模型

      快科技4月30日消息,今日,DeepSeek 今日在 AI 開源社區(qū) Hugging Face 發(fā)布了一個名為 DeepSeek-Prover-V2-671B 的新模型。據(jù)介紹,DeepSeek-Prover-V2-671B 其參數(shù)量達到6710億,使用了更高效的 safetensors 文件格式,并支持 BF16、FP8、F32 等多種計算精度,方便模型更快、更省資源地訓練和部署。在模型架構上,該模型使用了DeepSeek-V3架構,采用MoE(混合專家)模式,具有61層Transformer層,7168維隱藏層。同時支持超長上下文,最大位置嵌入達163840,使其能處理復雜的數(shù)學證明,并且采用了FP8量化,可通過量化技術減小模型大小,提

    • o3模型基準測試分數(shù)僅為10%,遠低于OpenAI宣傳的25%

      OpenAI的新AI模型o3在第一方和第三方基準測試中存在差異,引發(fā)公眾對其透明度和測試實踐的質疑。去年12月,o3首次亮相時聲稱能解答超過25%的FrontierMath問題,但實際正確率僅為2%。內部測試發(fā)現(xiàn),o3能達到超過25%的準確率,但其使用的計算資源比上周OpenAI推出的模型多得多。Epoch AI發(fā)布的獨立基準測試結果顯示,o3的得分約為10%,遠低于OpenAI宣稱的25%。盡管如此,這并不意味著OpenAI的說法有誤,可能是因為OpenAI使用了更強大的內部架構進行評估,并采用了更多計算資源。此外,Epoch指出其測試設置可能與OpenAI不同,并且在評估中使用了更新版本的FrontierMath。

    • 首次實現(xiàn)圖像思考 OpenAI重磅發(fā)布o3/o4-mini:史上最強、最智能模型

      快科技4月17日消息,今日,OpenAI新款AI模型o3、o4-mini重磅發(fā)布,這是OpenAI迄今最強、最智能的模型。據(jù)了解,OpenAI o3/o4-mini首次具備真正的視覺推理能力,看圖識圖已經(jīng)是小菜一碟了,現(xiàn)在還會看圖思考。OpenAI o3/o4-mini能同時處理文本、圖像和音頻,并且能作為Agent智能體自動調用網(wǎng)絡搜索、圖像生成、代碼解析等工具以及深度思考模式。通過強化學習,OpenAI訓練了o3/o4-mini如何?

    • 科大訊飛星火X1“火箭”升級:性能對標OpenAI o1和DeepSeek R1

      今日,科大訊飛高級副總裁于繼棟在上海AI無界智營全球”2025科大訊飛全球智能營銷產(chǎn)品發(fā)布會上透露,訊飛星火X1將于近期再次升級。升級后的訊飛星火X1在保持原有數(shù)學任務國內領先優(yōu)勢的基礎上,推理能力、文本生成和語言理解等通用任務方面的效果將對標業(yè)界領先的OpenAIo1和DeepSeekR1模型??拼笥嶏w曾宣稱:這一新版本的發(fā)布,預期就可以實現(xiàn)數(shù)學答題和過程思維鏈能力全面對標甚至超過OpenAIo1。

    • OpenAI深夜上線o3滿血版和o4 mini - 依舊領先。

      晚上1點,OpenAI的直播如約而至。其實在預告的時候,幾乎已經(jīng)等于明示了。沒有廢話,今天發(fā)布的就是o3和o4-mini。但是奧特曼這個老騙子,之前明明說o3不打算單獨發(fā)布要融到GPT-5里面一起發(fā),結果今天又發(fā)了。。。ChatGPT Plus、Pro和Team用戶從今天開始將在模型選擇器中看到o3、o4-mini和o4-mini-high,取代o1、o3-mini和o3-mini-high。我的已經(jīng)變了,但是我最想要的o3pro,還要幾周才能提供

    • 剛剛,Llama 4深夜開源擊敗DeepSeek V3!2萬億多模態(tài)巨獸搶回王座

      Llama4重磅發(fā)布了!Meta官宣開源首個原生多模態(tài)Llama4,首次采用的MoE架構,支持12種語言,首批發(fā)布一共兩款:Llama4Scout:共有1090億參數(shù),17B活躍參數(shù),16個專家,1000萬上下Llama4Maverick:共有4000億參數(shù),17B活躍參數(shù),128個專家,100萬上下文另外,2萬億參數(shù)Llama4Behemoth將在未來幾個月面世,288B活躍參數(shù),16個專家。Llama4的橫空出世,成為迄今為止開源最強,多模態(tài)能力最好的模型之一。L

    • 剛剛,OpenAI開源BrowseComp,重塑Agent瀏覽器評測

      今天凌晨2點,OpenAI開源了專門用于智能體瀏覽器功能的測試基準——BrowseComp。這個測試基準非常有難度,連OpenAI自己的GPT-4o、GPT-4.5準確率只有0.6%和0.9%幾乎為0,即便使用帶瀏覽器功能的GPT-4o也只有1.9%。通過使用更多的計算資源,模型可以嘗試更多的搜索路徑,從提高找到正確答案的概率。