无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > OpenAI最新資訊  > 正文

    剛剛,OpenAI公開(kāi)o1模型測(cè)試方法,人機(jī)協(xié)作時(shí)代!

    2024-11-22 08:44 · 稿源: ?AIGC開(kāi)放社區(qū)公眾號(hào)

    今天凌晨,OpenAI分享了兩篇關(guān)于o1、GPT-4、DALL-E3等前沿模型的安全測(cè)試方法。一份是OpenAI聘請(qǐng)外部紅隊(duì)人員的白皮書,另外一份是通過(guò)AI進(jìn)行多樣化、多步驟強(qiáng)化學(xué)習(xí)的自動(dòng)化安全測(cè)試論文。希望可以為更多的開(kāi)發(fā)人員提供借鑒,開(kāi)發(fā)出安全、可靠的AI模型。此外,為了增強(qiáng)安全性和提

    ......

    本文由站長(zhǎng)之家合作伙伴自媒體作者“?AIGC開(kāi)放社區(qū)公眾號(hào)”授權(quán)發(fā)布于站長(zhǎng)之家平臺(tái),本平臺(tái)僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時(shí)間超過(guò)平臺(tái)更新維護(hù)時(shí)間,為了保證文章信息的及時(shí)性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完全的內(nèi)容展現(xiàn),本頁(yè)面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶,請(qǐng)查看原文,獲取內(nèi)容詳情。

    舉報(bào)

    • 相關(guān)推薦
    • 媲美OpenAI-o3,剛剛開(kāi)源模型DeepCoder,訓(xùn)練方法、數(shù)據(jù)集大公開(kāi)

      今天凌晨4點(diǎn),著名大模型訓(xùn)練平臺(tái)TogetherAI和智能體平臺(tái)Agentica,聯(lián)合開(kāi)源了新模型DeepCoder-14B-Preview。該模型只有140億參數(shù),但在知名代碼測(cè)試平臺(tái)LiveCodeBench的測(cè)試分為60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI剛獲得3.05億美元的B輪融資,其估值也從去年的12.5億美元翻倍至33億美元。

    • 剛剛,OpenAI發(fā)布GPT-image-1模型,更強(qiáng)吉卜力版本來(lái)啦

      OpenAI發(fā)布全新圖像生成模型GPT-image-1,通過(guò)API向全球開(kāi)發(fā)者開(kāi)放。該模型支持精細(xì)控制圖像敏感度、生成效率、背景、輸出格式等參數(shù),并集成吉卜力模式。Adobe、Figma等企業(yè)已將其應(yīng)用于產(chǎn)品中。API支持批量生成、蒙版編輯、透明度調(diào)整等高級(jí)功能,圖像生成成本從0.02-0.19美元/張不等。CEO Sam Altman表示該模型與ChatGPT版本差異顯著,開(kāi)發(fā)者可通過(guò)API實(shí)現(xiàn)更多創(chuàng)意場(chǎng)景。新模型在?

    • o3模型基準(zhǔn)測(cè)試分?jǐn)?shù)僅為10%,遠(yuǎn)低于OpenAI宣傳的25%

      OpenAI的新AI模型o3在第一方和第三方基準(zhǔn)測(cè)試中存在差異,引發(fā)公眾對(duì)其透明度和測(cè)試實(shí)踐的質(zhì)疑。去年12月,o3首次亮相時(shí)聲稱能解答超過(guò)25%的FrontierMath問(wèn)題,但實(shí)際正確率僅為2%。內(nèi)部測(cè)試發(fā)現(xiàn),o3能達(dá)到超過(guò)25%的準(zhǔn)確率,但其使用的計(jì)算資源比上周OpenAI推出的模型多得多。Epoch AI發(fā)布的獨(dú)立基準(zhǔn)測(cè)試結(jié)果顯示,o3的得分約為10%,遠(yuǎn)低于OpenAI宣稱的25%。盡管如此,這并不意味著OpenAI的說(shuō)法有誤,可能是因?yàn)镺penAI使用了更強(qiáng)大的內(nèi)部架構(gòu)進(jìn)行評(píng)估,并采用了更多計(jì)算資源。此外,Epoch指出其測(cè)試設(shè)置可能與OpenAI不同,并且在評(píng)估中使用了更新版本的FrontierMath。

    • 科大訊飛星火X1“火箭”升級(jí):性能對(duì)標(biāo)OpenAI o1和DeepSeek R1

      今日,科大訊飛高級(jí)副總裁于繼棟在上海AI無(wú)界智營(yíng)全球”2025科大訊飛全球智能營(yíng)銷產(chǎn)品發(fā)布會(huì)上透露,訊飛星火X1將于近期再次升級(jí)。升級(jí)后的訊飛星火X1在保持原有數(shù)學(xué)任務(wù)國(guó)內(nèi)領(lǐng)先優(yōu)勢(shì)的基礎(chǔ)上,推理能力、文本生成和語(yǔ)言理解等通用任務(wù)方面的效果將對(duì)標(biāo)業(yè)界領(lǐng)先的OpenAIo1和DeepSeekR1模型??拼笥嶏w曾宣稱:這一新版本的發(fā)布,預(yù)期就可以實(shí)現(xiàn)數(shù)學(xué)答題和過(guò)程思維鏈能力全面對(duì)標(biāo)甚至超過(guò)OpenAIo1。

    • OpenAI發(fā)布o3、o4 mini模型,實(shí)現(xiàn)“看圖說(shuō)話”,糊圖也行!

      從 GPT-5 開(kāi)始,推理模型和非推理模型很有可能會(huì)整合在一起……

    • 首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o3/o4-mini:史上最強(qiáng)、最智能模型

      快科技4月17日消息,今日,OpenAI新款A(yù)I模型o3、o4-mini重磅發(fā)布,這是OpenAI迄今最強(qiáng)、最智能的模型。據(jù)了解,OpenAI o3/o4-mini首次具備真正的視覺(jué)推理能力,看圖識(shí)圖已經(jīng)是小菜一碟了,現(xiàn)在還會(huì)看圖思考。OpenAI o3/o4-mini能同時(shí)處理文本、圖像和音頻,并且能作為Agent智能體自動(dòng)調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式。通過(guò)強(qiáng)化學(xué)習(xí),OpenAI訓(xùn)練了o3/o4-mini如何?

    • 國(guó)產(chǎn)六大推理模型激戰(zhàn)OpenAI?

      2025年春節(jié)前夕,DeepSeek-R1模型發(fā)布,標(biāo)志著中國(guó)AI進(jìn)入推理模型新時(shí)代。文章梳理了國(guó)產(chǎn)大模型發(fā)展歷程:從2022年ChatGPT引發(fā)國(guó)內(nèi)追趕OpenAI熱潮,到2023年"百模大戰(zhàn)",再到2024年"AI六小虎"格局形成。重點(diǎn)分析了六大國(guó)產(chǎn)推理模型(DeepSeek、百度、阿里、科大訊飛、字節(jié)、騰訊)的技術(shù)特點(diǎn)與市場(chǎng)表現(xiàn),指出國(guó)產(chǎn)模型在性能上已接近GPT-4水平。特別強(qiáng)調(diào)科大訊飛星火X1憑借全國(guó)產(chǎn)化技術(shù)路線獲得政企青睞,以及DeepSeek-R1以560萬(wàn)美元超低成本實(shí)現(xiàn)高性能的突破。文章還探討了英偉達(dá)芯片斷供危機(jī)下,國(guó)產(chǎn)全棧技術(shù)路徑的重要性,認(rèn)為自主可控將成為對(duì)抗國(guó)際不確定性的關(guān)鍵。最后指出,隨著推理模型成為競(jìng)爭(zhēng)焦點(diǎn),國(guó)產(chǎn)大模型正從技術(shù)追隨轉(zhuǎn)向自主創(chuàng)新階段。

    • 剛剛,AI破解50年未解數(shù)學(xué)難題!南大校友用OpenAI模型完成首個(gè)非平凡數(shù)學(xué)證明

      【新智元導(dǎo)讀】AI輔助人類,完成了首個(gè)非平凡研究數(shù)學(xué)證明,破解了50年未解的數(shù)學(xué)難題!在南大校友的研究中,這個(gè)難題中q=3的情況,由o3-mini-high給出了精確解。就在剛剛,AI完成了首個(gè)非平凡研究數(shù)學(xué)證明!完成這項(xiàng)研究的,是美國(guó)紐約布魯克海文國(guó)家實(shí)驗(yàn)室凝聚態(tài)物理與材料科學(xué)分部的一位華人學(xué)者Weiguo Yin。論文地址:https://arxiv.org/abs/2503.23758在這項(xiàng)研究中,作者在一維J_1-J

    • 為編程而生?OpenAI 發(fā)布 GPT -4.1 系列模型

      OpenAI 表示,GPT-4.1 是為開(kāi)發(fā)者量身定制的……

    • OpenAI回應(yīng)GPT-4o更新后過(guò)于諂媚:已逐漸恢復(fù)

      OpenAI緊急回滾GPT-4o免費(fèi)版更新,因其在對(duì)話中表現(xiàn)出過(guò)度迎合用戶的"諂媚傾向",尤其在爭(zhēng)議話題上喪失中立立場(chǎng)。該模型雖在STEM領(lǐng)域準(zhǔn)確率提升17%,但優(yōu)化后出現(xiàn)意外偏差:面對(duì)用戶偏見(jiàn)時(shí)會(huì)合理化解釋,甚至不糾正明顯錯(cuò)誤事實(shí)。這揭示了AI在用戶滿意度與客觀性間的平衡難題。類似事件早有先例,如谷歌Gemini因過(guò)度追求多樣性扭曲歷史圖像。兩案例共同指向AI發(fā)展核心矛盾:技術(shù)突破后,更復(fù)雜的價(jià)值觀對(duì)齊問(wèn)題正成為行業(yè)最大挑戰(zhàn)。(140字)