无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > OpenAI最新資訊  > 正文

    OpenAI或用3D引擎/虛幻引擎訓(xùn)練視頻模型Sora

    2024-03-01 09:20 · 稿源:站長(zhǎng)之家

    站長(zhǎng)之家(ChinaZ.com) 3月1日 消息:OpenAI最近發(fā)布了多段由Sora生成的視頻,展示了令人驚嘆的3D效果。這些視頻內(nèi)容豐富,包括潛水探索沉船、描述日本江戶時(shí)代寧?kù)o場(chǎng)景的立體模型等。

    除此之外,Sora還展示了一些新功能,比如無(wú)縫銜接。這意味著在兩個(gè)輸入視頻之間可以逐漸進(jìn)行插值,呈現(xiàn)出更加流暢的過(guò)渡效果。一些網(wǎng)友開(kāi)始討論Sora生成視頻的背后訓(xùn)練數(shù)據(jù)來(lái)源,主流觀點(diǎn)認(rèn)為Sora可能使用了3D引擎或虛幻引擎進(jìn)行訓(xùn)練。

    元宇宙 科幻 賽博朋克 繪畫(huà) (4)大模型

    圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney

    這些新發(fā)布的視頻再次突顯了OpenAI在人工智能領(lǐng)域的領(lǐng)先地位,以及他們?cè)陂_(kāi)發(fā)前沿技術(shù)方面的不斷努力。通過(guò)不斷優(yōu)化和更新,Sora的生成視頻技術(shù)已經(jīng)達(dá)到了令人驚嘆的水平,為用戶帶來(lái)更加生動(dòng)和具有吸引力的視覺(jué)體驗(yàn)。

    OpenAI的Sora生成視頻技術(shù)不僅展示了其在人工智能領(lǐng)域的創(chuàng)新能力,也為我們展示了未來(lái)在數(shù)字媒體和視覺(jué)效果方面的潛力。這些視頻不僅在視覺(jué)上令人驚嘆,同時(shí)也引發(fā)了人們對(duì)人工智能技術(shù)在創(chuàng)作和娛樂(lè)領(lǐng)域的無(wú)限想象。

    舉報(bào)

    • 相關(guān)推薦
    • 國(guó)產(chǎn)六大推理模型激戰(zhàn)OpenAI?

      2025年春節(jié)前夕,DeepSeek-R1模型發(fā)布,標(biāo)志著中國(guó)AI進(jìn)入推理模型新時(shí)代。文章梳理了國(guó)產(chǎn)大模型發(fā)展歷程:從2022年ChatGPT引發(fā)國(guó)內(nèi)追趕OpenAI熱潮,到2023年"百模大戰(zhàn)",再到2024年"AI六小虎"格局形成。重點(diǎn)分析了六大國(guó)產(chǎn)推理模型(DeepSeek、百度、阿里、科大訊飛、字節(jié)、騰訊)的技術(shù)特點(diǎn)與市場(chǎng)表現(xiàn),指出國(guó)產(chǎn)模型在性能上已接近GPT-4水平。特別強(qiáng)調(diào)科大訊飛星火X1憑借全國(guó)產(chǎn)化技術(shù)路線獲得政企青睞,以及DeepSeek-R1以560萬(wàn)美元超低成本實(shí)現(xiàn)高性能的突破。文章還探討了英偉達(dá)芯片斷供危機(jī)下,國(guó)產(chǎn)全棧技術(shù)路徑的重要性,認(rèn)為自主可控將成為對(duì)抗國(guó)際不確定性的關(guān)鍵。最后指出,隨著推理模型成為競(jìng)爭(zhēng)焦點(diǎn),國(guó)產(chǎn)大模型正從技術(shù)追隨轉(zhuǎn)向自主創(chuàng)新階段。

    • 媲美OpenAI-o3,剛剛開(kāi)源模型DeepCoder,訓(xùn)練方法、數(shù)據(jù)集大公開(kāi)

      今天凌晨4點(diǎn),著名大模型訓(xùn)練平臺(tái)TogetherAI和智能體平臺(tái)Agentica,聯(lián)合開(kāi)源了新模型DeepCoder-14B-Preview。該模型只有140億參數(shù),但在知名代碼測(cè)試平臺(tái)LiveCodeBench的測(cè)試分為60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI剛獲得3.05億美元的B輪融資,其估值也從去年的12.5億美元翻倍至33億美元。

    • AI日?qǐng)?bào):阿里通義萬(wàn)相首尾幀生視頻模型;豆包開(kāi)源Seed智能體模型UI-TARS-1.5;OpenAI首發(fā)“智能體實(shí)踐指南”

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、阿里通義萬(wàn)相首尾幀生視頻模型Wan2.1-FLF2V-14B開(kāi)源阿里巴巴的通義實(shí)驗(yàn)室在Hugging Face和GitHub上開(kāi)源了Wan2.1-FLF2V-14B模型,標(biāo)志著AI視頻生成技術(shù)的重大進(jìn)步。該模型支持高清視頻生成

    • 為編程而生?OpenAI 發(fā)布 GPT -4.1 系列模型

      OpenAI 表示,GPT-4.1 是為開(kāi)發(fā)者量身定制的……

    • o3模型基準(zhǔn)測(cè)試分?jǐn)?shù)僅為10%,遠(yuǎn)低于OpenAI宣傳的25%

      OpenAI的新AI模型o3在第一方和第三方基準(zhǔn)測(cè)試中存在差異,引發(fā)公眾對(duì)其透明度和測(cè)試實(shí)踐的質(zhì)疑。去年12月,o3首次亮相時(shí)聲稱能解答超過(guò)25%的FrontierMath問(wèn)題,但實(shí)際正確率僅為2%。內(nèi)部測(cè)試發(fā)現(xiàn),o3能達(dá)到超過(guò)25%的準(zhǔn)確率,但其使用的計(jì)算資源比上周OpenAI推出的模型多得多。Epoch AI發(fā)布的獨(dú)立基準(zhǔn)測(cè)試結(jié)果顯示,o3的得分約為10%,遠(yuǎn)低于OpenAI宣稱的25%。盡管如此,這并不意味著OpenAI的說(shuō)法有誤,可能是因?yàn)镺penAI使用了更強(qiáng)大的內(nèi)部架構(gòu)進(jìn)行評(píng)估,并采用了更多計(jì)算資源。此外,Epoch指出其測(cè)試設(shè)置可能與OpenAI不同,并且在評(píng)估中使用了更新版本的FrontierMath。

    • 微信,OpenAI和Kimi想一起去了:大模型的盡頭依然還是社交平臺(tái)

      AI圈最近彌漫著一股微妙的氣息。人們似乎不再熱議大語(yǔ)言模型的最新突破、以及AI應(yīng)用的無(wú)限可能時(shí),一些代表著未來(lái)的AI巨頭,卻似乎正將目光投向互聯(lián)網(wǎng)那熟悉得不能再熟悉的角落——社交網(wǎng)絡(luò)與社區(qū)。近期的傳聞和動(dòng)作頗具代表性,在大洋彼岸,手握ChatGPT和Sora等王牌的OpenAI,據(jù)稱正內(nèi)部測(cè)試類X的社交功能,其CEO Sam Altman甚至在私下征求反饋;而在國(guó)內(nèi),憑借長(zhǎng)文本能力

    • OpenAI發(fā)布o(jì)3、o4 mini模型,實(shí)現(xiàn)“看圖說(shuō)話”,糊圖也行!

      從 GPT-5 開(kāi)始,推理模型和非推理模型很有可能會(huì)整合在一起……

    • 首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o(jì)3/o4-mini:史上最強(qiáng)、最智能模型

      快科技4月17日消息,今日,OpenAI新款A(yù)I模型o3、o4-mini重磅發(fā)布,這是OpenAI迄今最強(qiáng)、最智能的模型。據(jù)了解,OpenAI o3/o4-mini首次具備真正的視覺(jué)推理能力,看圖識(shí)圖已經(jīng)是小菜一碟了,現(xiàn)在還會(huì)看圖思考。OpenAI o3/o4-mini能同時(shí)處理文本、圖像和音頻,并且能作為Agent智能體自動(dòng)調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式。通過(guò)強(qiáng)化學(xué)習(xí),OpenAI訓(xùn)練了o3/o4-mini如何?

    • 剛剛,OpenAI發(fā)布GPT-image-1模型,更強(qiáng)吉卜力版本來(lái)啦

      OpenAI發(fā)布全新圖像生成模型GPT-image-1,通過(guò)API向全球開(kāi)發(fā)者開(kāi)放。該模型支持精細(xì)控制圖像敏感度、生成效率、背景、輸出格式等參數(shù),并集成吉卜力模式。Adobe、Figma等企業(yè)已將其應(yīng)用于產(chǎn)品中。API支持批量生成、蒙版編輯、透明度調(diào)整等高級(jí)功能,圖像生成成本從0.02-0.19美元/張不等。CEO Sam Altman表示該模型與ChatGPT版本差異顯著,開(kāi)發(fā)者可通過(guò)API實(shí)現(xiàn)更多創(chuàng)意場(chǎng)景。新模型在?

    • 火山引擎即將發(fā)布深度思考模型

      據(jù)悉,字節(jié)跳動(dòng)旗下云服務(wù)平臺(tái)火山引擎即將發(fā)布豆包深度思考模型。有消息稱,豆包APP和桌面端的“深度思考模式”已進(jìn)行了多個(gè)實(shí)驗(yàn)版本的測(cè)試,而此次發(fā)布后,該模型將正式面向企業(yè)提供服務(wù)。目前,豆包大模型家族已覆蓋全模態(tài)、全場(chǎng)景,包括大語(yǔ)言模型、語(yǔ)音大模型,以及圖像、視頻等視覺(jué)大模型,企業(yè)可以通過(guò)火山引擎使用豆包大模型API服務(wù)。IDC最新發(fā)布的《中?

    熱文

    • 3 天
    • 7天