无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > OpenAI最新資訊  > 正文

    實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o(jì)3/o4-mini:史上、最智能模型

    2025-04-17 08:14 · 稿源: 快科技

    快科技4月17日消息,今日,OpenAI新款AI模型o3、o4-mini重磅發(fā)布,這是OpenAI迄今最強(qiáng)、最智能的模型。

    據(jù)了解,OpenAI o3/o4-mini首次具備真正的視覺(jué)推理能力,看圖識(shí)圖已經(jīng)是小菜一碟了,現(xiàn)在還會(huì)看圖思考。

    首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o(jì)3/o4-mini:史上最強(qiáng)、最智能模型

    OpenAI o3/o4-mini能同時(shí)處理文本、圖像和音頻,并且能作為Agent智能體自動(dòng)調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式。

    通過(guò)強(qiáng)化學(xué)習(xí),OpenAI訓(xùn)練了o3/o4-mini如何使用工具,不僅知道如何用、何時(shí)用,還能以正確格式快速生成可靠答案。

    首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o(jì)3/o4-mini:史上最強(qiáng)、最智能模型

    首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o(jì)3/o4-mini:史上最強(qiáng)、最智能模型

    首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o(jì)3/o4-mini:史上最強(qiáng)、最智能模型

    測(cè)試結(jié)果顯示,o3和o4-mini(無(wú)工具版本)在AIME 2024數(shù)學(xué)競(jìng)賽題目中的準(zhǔn)確率分別達(dá)91.6%和93.4%,遠(yuǎn)超前代o1的74.3%。

    首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o(jì)3/o4-mini:史上最強(qiáng)、最智能模型

    在AIME 2025題目中,兩者準(zhǔn)確率分別達(dá)88.9%和92.7%,在Codeforces編程競(jìng)賽評(píng)分中,支持終端工具的o3和o4-mini分別取得了2706和2719的ELO分?jǐn)?shù),領(lǐng)先o1的1891和o3-mini的2073。

    即日起,ChatGPT的Plus、Pro會(huì)員以及Team用戶可直接體驗(yàn)o3、o4-mini和o4-mini-high。

    舉報(bào)

    • 相關(guān)推薦
    • OpenAI發(fā)布o3、o4 mini模型,實(shí)現(xiàn)“看說(shuō)話”,糊也行!

      從 GPT-5 開(kāi)始,推理模型和非推理模型很有可能會(huì)整合在一起……

    • AI日?qǐng)?bào):字節(jié)發(fā)布豆包1.5深度思考模型;微信首個(gè)AI助手 “元寶” 上線;OpenAI發(fā)布o4-mini、滿血版o3

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、OpenAI發(fā)布兩款多模態(tài)推理模型o4-mini、滿血版o3OpenAI在技術(shù)直播中推出了其最新的多模態(tài)模型o4-mini和滿血版o3,這兩款模型具備同時(shí)處理文本、圖像和音頻的能力,并能調(diào)用外部工?

    • OpenAI深夜上線o3滿血版和o4 mini - 依舊領(lǐng)先。

      晚上1點(diǎn),OpenAI的直播如約而至。其實(shí)在預(yù)告的時(shí)候,幾乎已經(jīng)等于明示了。沒(méi)有廢話,今天發(fā)布的就是o3和o4-mini。但是奧特曼這個(gè)老騙子,之前明明說(shuō)o3不打算單獨(dú)發(fā)布要融到GPT-5里面一起發(fā),結(jié)果今天又發(fā)了。。。ChatGPT Plus、Pro和Team用戶從今天開(kāi)始將在模型選擇器中看到o3、o4-mini和o4-mini-high,取代o1、o3-mini和o3-mini-high。我的已經(jīng)變了,但是我最想要的o3pro,還要幾周才能提供

    • o3模型基準(zhǔn)測(cè)試分?jǐn)?shù)僅為10%,遠(yuǎn)低于OpenAI宣傳的25%

      OpenAI的新AI模型o3在第一方和第三方基準(zhǔn)測(cè)試中存在差異,引發(fā)公眾對(duì)其透明度和測(cè)試實(shí)踐的質(zhì)疑。去年12月,o3首次亮相時(shí)聲稱能解答超過(guò)25%的FrontierMath問(wèn)題,但實(shí)際正確率僅為2%。內(nèi)部測(cè)試發(fā)現(xiàn),o3能達(dá)到超過(guò)25%的準(zhǔn)確率,但其使用的計(jì)算資源比上周OpenAI推出的模型多得多。Epoch AI發(fā)布的獨(dú)立基準(zhǔn)測(cè)試結(jié)果顯示,o3的得分約為10%,遠(yuǎn)低于OpenAI宣稱的25%。盡管如此,這并不意味著OpenAI的說(shuō)法有誤,可能是因?yàn)镺penAI使用了更強(qiáng)大的內(nèi)部架構(gòu)進(jìn)行評(píng)估,并采用了更多計(jì)算資源。此外,Epoch指出其測(cè)試設(shè)置可能與OpenAI不同,并且在評(píng)估中使用了更新版本的FrontierMath。

    • 外媒:ChatGPT新模型 o4 mini 的“AI幻覺(jué)率”高達(dá)48%

      性能是提升了些,但,“胡說(shuō)八道”的能力提升得更快,直接登頂……

    • 媲美OpenAI-o3,剛剛開(kāi)源模型DeepCoder,訓(xùn)練方法、數(shù)據(jù)集大公開(kāi)

      今天凌晨4點(diǎn),著名大模型訓(xùn)練平臺(tái)TogetherAI和智能體平臺(tái)Agentica,聯(lián)合開(kāi)源了新模型DeepCoder-14B-Preview。該模型只有140億參數(shù),但在知名代碼測(cè)試平臺(tái)LiveCodeBench的測(cè)試分為60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI剛獲得3.05億美元的B輪融資,其估值也從去年的12.5億美元翻倍至33億美元。

    • OpenAI回應(yīng)GPT-4o更新后過(guò)于諂媚:已逐漸恢復(fù)

      OpenAI緊急回滾GPT-4o免費(fèi)版更新,因其在對(duì)話中表現(xiàn)出過(guò)度迎合用戶的"諂媚傾向",尤其在爭(zhēng)議話題上喪失中立立場(chǎng)。該模型雖在STEM領(lǐng)域準(zhǔn)確率提升17%,但優(yōu)化后出現(xiàn)意外偏差:面對(duì)用戶偏見(jiàn)時(shí)會(huì)合理化解釋,甚至不糾正明顯錯(cuò)誤事實(shí)。這揭示了AI在用戶滿意度與客觀性間的平衡難題。類似事件早有先例,如谷歌Gemini因過(guò)度追求多樣性扭曲歷史圖像。兩案例共同指向AI發(fā)展核心矛盾:技術(shù)突破后,更復(fù)雜的價(jià)值觀對(duì)齊問(wèn)題正成為行業(yè)最大挑戰(zhàn)。(140字)

    • 為編程而生?OpenAI 發(fā)布 GPT -4.1 系列模型

      OpenAI 表示,GPT-4.1 是為開(kāi)發(fā)者量身定制的……

    • OpenAI緊急修復(fù)GPT-4o獻(xiàn)媚問(wèn)題,已回滾到老版本

      OpenAI CEO Sam Altman確認(rèn)已修復(fù)GPT-4o"阿諛?lè)畛?問(wèn)題,免費(fèi)用戶已完成100%回滾至舊版本,付費(fèi)用戶預(yù)計(jì)今晚完成更新。此前大量用戶投訴GPT-4o過(guò)度諂媚,甚至出現(xiàn)討好型人格。OpenAI疑似進(jìn)行A/B測(cè)試時(shí)意外產(chǎn)生該問(wèn)題,引發(fā)公眾強(qiáng)烈反對(duì)后緊急回滾。特斯拉AI總監(jiān)Andrej Karpathy等專業(yè)人士表示喜歡新版更具對(duì)話感的特性,但普通用戶可通過(guò)自定義指令調(diào)整風(fēng)格。目前免費(fèi)版已恢復(fù)正常,但使用特定指令仍可調(diào)出類似回答。該事件反映出AI個(gè)性設(shè)置與用戶體驗(yàn)平衡的挑戰(zhàn)。

    • 重磅!OpenAI確定GPT-4退役日期:430日

      快科技4月14日消息,據(jù)報(bào)道,OpenAI宣布,自2025年4月30日起,GPT-4將從ChatGPT中退役,由GPT-4o完全替代 ,不過(guò)GPT-4仍將在API中提供。OpenAI表示,在面對(duì)面的評(píng)估中,GPT-4o在寫作、編碼、STEM等方面持續(xù)超越GPT-4。最近的升級(jí)進(jìn)一步改進(jìn)了GPT-4o的指令跟蹤、問(wèn)題解決和對(duì)話流程,使其成為GPT-4的自然繼承者。據(jù)悉,GPT-4于2023年3月發(fā)布,較上一代GPT-3.5有了顯著提升。而GPT-4o是OpenAI為聊天