无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > AI技術(shù)發(fā)展最新資訊  > 正文

    李彥宏:開(kāi)源模型會(huì)越來(lái)越落后 小尺寸模型效果更好成本更低

    2024-04-16 10:50 · 稿源:站長(zhǎng)之家

    站長(zhǎng)之家(ChinaZ.com)4月16日 消息:在Create2024百度AI開(kāi)發(fā)者大會(huì)上,百度創(chuàng)始人、董事長(zhǎng)兼首席執(zhí)行官李彥宏分享了他對(duì)于AI技術(shù)發(fā)展趨勢(shì)的獨(dú)特見(jiàn)解。他明確指出,開(kāi)源模型在當(dāng)前的AI發(fā)展中正逐漸顯露出其局限性,預(yù)示著其可能逐漸落后于時(shí)代。

    李彥宏進(jìn)一步強(qiáng)調(diào),基于百度強(qiáng)大的基礎(chǔ)模型——文心4.0,用戶可以結(jié)合效果、響應(yīng)速度及推理成本等多維度因素,靈活剪裁出適用于不同場(chǎng)景的小尺寸模型。相較于直接使用開(kāi)源模型調(diào)整得到的模型,這些定制的小模型在同等尺寸下展現(xiàn)出了更為顯著的效果優(yōu)勢(shì);而在同等效果下,其成本則明顯更為低廉。

    百度,搜索 (3)

    為了生動(dòng)展示這一優(yōu)勢(shì),李彥宏在大會(huì)上與小度進(jìn)行了實(shí)時(shí)互動(dòng),演示了小度如何運(yùn)用多個(gè)模型組合的方式高效執(zhí)行各種任務(wù)。例如,在處理模型路由工作時(shí),小度采用了輕量級(jí)的小模型ERNIE Tiny;而對(duì)于日程安排等復(fù)雜需求,則調(diào)用了性能卓越的文心4.0大模型。這一組合策略使得小度在響應(yīng)速度上實(shí)現(xiàn)了2倍的提升,同時(shí)成本降低了驚人的99%,相較于全部采用文心大模型的旗艦版而言,其性價(jià)比和實(shí)用性均得到了顯著提升。

    李彥宏的發(fā)言不僅揭示了AI技術(shù)發(fā)展的新趨勢(shì),也展示了百度在AI領(lǐng)域的深厚積累和創(chuàng)新能力。通過(guò)靈活應(yīng)用文心4.0等基礎(chǔ)模型,百度正致力于推動(dòng)AI技術(shù)的更廣泛應(yīng)用,以滿足不同場(chǎng)景下的多元化需求。

    舉報(bào)

    • 相關(guān)推薦
    • 李彥宏:如果沒(méi)有應(yīng)用 模型、芯片都沒(méi)有價(jià)值

      百度在4月25日開(kāi)發(fā)者大會(huì)上發(fā)布文心4.5 Turbo和X1 Turbo兩款大模型,同時(shí)推出數(shù)字人、智能體APP、內(nèi)容操作系統(tǒng)等多款A(yù)I應(yīng)用及全球首個(gè)電商交易MCP平臺(tái)。李彥宏強(qiáng)調(diào),沒(méi)有應(yīng)用場(chǎng)景,芯片和模型都無(wú)價(jià)值。他指出大模型更新迭代快(去年Q4發(fā)布49個(gè),今年Q1達(dá)55個(gè)),開(kāi)發(fā)者應(yīng)專注應(yīng)用開(kāi)發(fā)而非擔(dān)心模型迭代。百度通過(guò)提供完整工具鏈,讓開(kāi)發(fā)者能聚焦場(chǎng)景創(chuàng)新。李彥宏認(rèn)為,未來(lái)主導(dǎo)AI世界的將是應(yīng)用而非模型,選對(duì)基礎(chǔ)模型并做好調(diào)優(yōu)的應(yīng)用不會(huì)過(guò)時(shí)。

    • 中國(guó)智力持續(xù)發(fā)力,智象未來(lái)開(kāi)源模型再獲國(guó)際認(rèn)可

      國(guó)內(nèi)AI企業(yè)智象未來(lái)研發(fā)的開(kāi)源圖像生成模型HiDream-I1近日取得重要突破:該模型憑借17B參數(shù)規(guī)模,在圖像真實(shí)感、細(xì)節(jié)處理及指令響應(yīng)能力上超越行業(yè)標(biāo)桿,多項(xiàng)評(píng)測(cè)指標(biāo)超過(guò)GPT-4o與Flux1.1。繼登頂AI基準(zhǔn)測(cè)試平臺(tái)Artificial Analysis、獲Hugging Face收錄后,該模型正式被谷歌技術(shù)生態(tài)體系收錄,成為首個(gè)登頂該平臺(tái)榜首的中國(guó)自研開(kāi)源模型。其24小時(shí)內(nèi)登頂?shù)募o(jì)錄,被視為中國(guó)AI技術(shù)全球競(jìng)爭(zhēng)力的重要里程碑。谷歌的收錄將推動(dòng)HiDream-I1觸達(dá)全球開(kāi)發(fā)者,助力開(kāi)源生態(tài)共建進(jìn)入新發(fā)展階段。

    • Qwen3深夜正式開(kāi)源,小尺寸也能大力出奇跡。

      阿里發(fā)布通義千問(wèn)Qwen3大模型系列,包含8個(gè)不同規(guī)模的模型,從0.6B到235B參數(shù)全覆蓋。亮點(diǎn)包括:1)全球頂尖模型能力;2)首個(gè)開(kāi)源的混合推理模型;3)支持119種語(yǔ)言;4)部署成本僅為DeepSeek+R1的三分之一;5)支持MCP協(xié)議。其中235B旗艦?zāi)P托阅軐?duì)標(biāo)頂級(jí)閉源模型,30B-MoE模型激活參數(shù)僅3B。所有模型均采用Apache2.0協(xié)議開(kāi)源,支持商用。實(shí)測(cè)顯示Qwen3在代碼和寫(xiě)作方面優(yōu)于DeepSeek

    • 阿里千問(wèn)3登頂全球最強(qiáng)開(kāi)源模型 已在通義App上線

      阿里集團(tuán)推出新一代開(kāi)源AI模型"通義千問(wèn)3"(Qwen3),包含8款不同規(guī)格的混合推理模型。旗艦型號(hào)Qwen3-235B采用混合專家架構(gòu),創(chuàng)下國(guó)產(chǎn)模型性能新紀(jì)錄;Qwen3-32B則以部署成本低、運(yùn)行穩(wěn)定見(jiàn)長(zhǎng)。該系列在邏輯推理、編程、翻譯等專業(yè)領(lǐng)域表現(xiàn)卓越,用戶可通過(guò)通義App和網(wǎng)頁(yè)版體驗(yàn)。升級(jí)后的通義App整合問(wèn)答對(duì)話、圖像理解與生成等多項(xiàng)功能,持續(xù)強(qiáng)化代碼生成、數(shù)學(xué)解題等專業(yè)場(chǎng)景應(yīng)用能力,致力于打造實(shí)用性強(qiáng)的個(gè)人AI助手。

    • 奧特曼:ChatGPT不是AGI!OpenAI最強(qiáng)開(kāi)源模型直擊DeepSeek

      【新智元導(dǎo)讀】代碼截圖泄露,滿血版o3、o4-mini鎖定下周!更勁爆的是,一款據(jù)稱是OpenAI的神秘模型一夜爆紅,每日處理高達(dá)260億token,是Claude用量4倍。奧特曼在TED放話:將推超強(qiáng)開(kāi)源模型,直面DeepSeek挑戰(zhàn)。持續(xù)的創(chuàng)新、豐富的資源和智能AI將會(huì)無(wú)縫融入日常生活,未來(lái)一代人將會(huì)覺(jué)得當(dāng)前人們又辛苦又落后。

    • 百度Create AI開(kāi)發(fā)者大會(huì):李彥宏發(fā)布兩大新模型、多款熱門AI應(yīng)用、開(kāi)發(fā)者全面擁抱MCP

      4月25日,百度在武漢舉辦Create 2025開(kāi)發(fā)者大會(huì)。李彥宏發(fā)布文心大模型4.5 Turbo和深度思考模型X1 Turbo,性能提升同時(shí)價(jià)格大幅下降。大會(huì)推出全球首個(gè)電商交易MCP平臺(tái),并發(fā)布數(shù)字人、智能體心響APP等多款A(yù)I應(yīng)用。百度宣布未來(lái)5年培養(yǎng)1000萬(wàn)AI人才,并點(diǎn)亮國(guó)內(nèi)首個(gè)三萬(wàn)卡集群。同時(shí)啟動(dòng)第三屆"文心杯"創(chuàng)業(yè)大賽,最高獎(jiǎng)金達(dá)7000萬(wàn)元。大會(huì)還包含6大分會(huì)場(chǎng)、40節(jié)AI公開(kāi)課及5000平互動(dòng)展區(qū),全面展示百度AI生態(tài)布局。

    • AI日?qǐng)?bào):阿里通義千問(wèn)Qwen3問(wèn)鼎全球開(kāi)源模型;Kimi長(zhǎng)思考模型API發(fā)布;OpenAI發(fā)布新一代GPT-4.1模型

      【AI日?qǐng)?bào)】匯總了近期AI領(lǐng)域重要?jiǎng)討B(tài):1)阿里通義千問(wèn)3開(kāi)源模型上線7天即登頂全球開(kāi)源模型榜首,在指令遵循和推理能力上超越閉源模型;2)月之暗面推出Kimi長(zhǎng)思考模型API,可解決復(fù)雜代碼和數(shù)學(xué)問(wèn)題;3)OpenAI發(fā)布GPT-4.1模型,性能提升顯著;4)Google推出Gemini2.5Pro模型,提升開(kāi)發(fā)者編碼能力;5)聯(lián)想發(fā)布"天禧超級(jí)智能體",具備多模態(tài)感知能力;6)騰訊元寶上線"對(duì)話分

    • 上線僅7天!阿里通義千問(wèn)3強(qiáng)勢(shì)登頂全球開(kāi)源模型寶座

      據(jù)了解,千問(wèn)3是國(guó)內(nèi)首個(gè)混合推理模型”,快思考”與慢思考”集成進(jìn)同一個(gè)模型,對(duì)簡(jiǎn)單需求可低算力秒回”答案,對(duì)復(fù)雜問(wèn)題可多步驟深度思考”,大大節(jié)省算力消耗。

    • 媲美OpenAI-o3,剛剛開(kāi)源模型DeepCoder,訓(xùn)練方法、數(shù)據(jù)集大公開(kāi)

      今天凌晨4點(diǎn),著名大模型訓(xùn)練平臺(tái)TogetherAI和智能體平臺(tái)Agentica,聯(lián)合開(kāi)源了新模型DeepCoder-14B-Preview。該模型只有140億參數(shù),但在知名代碼測(cè)試平臺(tái)LiveCodeBench的測(cè)試分為60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI剛獲得3.05億美元的B輪融資,其估值也從去年的12.5億美元翻倍至33億美元。

    • 阿里開(kāi)源通義新模型:指定首尾圖片生成視頻

      快科技4月18日消息,據(jù)報(bào)道,阿里巴巴旗下通義萬(wàn)相宣布開(kāi)源其創(chuàng)新視頻生成技術(shù)首尾幀生視頻14B模型。這項(xiàng)突破性AI技術(shù)能夠根據(jù)用戶提供的起始和結(jié)束畫(huà)面,智能生成720p高清過(guò)渡視頻,為視頻創(chuàng)作帶來(lái)全新可能。該模型通過(guò)先進(jìn)的深度學(xué)習(xí)算法,能夠精準(zhǔn)理解輸入畫(huà)面的內(nèi)容、風(fēng)格及主題特征。當(dāng)用戶提供首尾兩幀圖像后,模型會(huì)智能分析畫(huà)面中的視覺(jué)元素,包括物體形?