无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > 大模型最新資訊  > 正文

    AI視野:騰訊“混元大模型”正式發(fā)布;Midjourney正開發(fā)V6版本;Hugging Face推新服務(wù)Training Cluster

    2023-09-07 13:52 · 稿源:站長(zhǎng)之家

    >>>>>>>>>>>>大模型動(dòng)態(tài)<<<<<<<<<<<<

    世界最強(qiáng)開源大模型Falcon180B引爆全網(wǎng) 性能直逼商業(yè)模型

    阿布扎比研究中心TII開源超大模型Falcon180B,參數(shù)達(dá)1800億,性能超LLaMA2,與GPT-3.5和PaLM2不相上下。

    QQ截圖20230907172806.jpg

    項(xiàng)目地址:https://huggingface.co/tiiuae/falcon-180B-chat

    要點(diǎn):

    1.Falcon180B在3.5萬(wàn)億token訓(xùn)練下,參數(shù)1800億,位居Hugging Face開源模型榜首。

    2.Falcon180B在多項(xiàng)NLP基準(zhǔn)測(cè)試中表現(xiàn)強(qiáng)勁,超過(guò)LLaMA2,與GPT-3.5和PaLM2接近。

    3.Falcon180B可免費(fèi)商用,提供聊天版本,任何人都可以試用體驗(yàn)。

    騰訊“混元大模型”正式發(fā)布 參數(shù)規(guī)模超千億

    在今日的騰訊數(shù)字生態(tài)大會(huì)上,騰訊湯道生宣布正式發(fā)布混元大模型,參數(shù)規(guī)模超千億,預(yù)訓(xùn)練語(yǔ)料超2萬(wàn)億tokens,可以提供強(qiáng)大的中文創(chuàng)作能力、復(fù)雜語(yǔ)境下的邏輯推理能力和可靠的任務(wù)執(zhí)行能力,目前已落地騰訊多個(gè)核心業(yè)務(wù)場(chǎng)景。

    微信截圖_20230907093825.png

    要點(diǎn):

    1. 混元大模型參數(shù)規(guī)模超千億,預(yù)訓(xùn)練語(yǔ)料超2萬(wàn)億tokens。

    2. 可以提供強(qiáng)大的中文創(chuàng)作、邏輯推理和任務(wù)執(zhí)行能力。

    3. 已落地騰訊廣告、搜索等多個(gè)核心業(yè)務(wù)場(chǎng)景。

    百川智能開源Baichuan2均可免費(fèi)商用

    百川智能發(fā)布了兩款開源大模型 Baichuan2-7B 和 Baichuan2-13B,參數(shù)分別為70億和130億,能力全面超越了 Meta 研發(fā)的 Llama2-13B 模型。同時(shí),百川智能還發(fā)布了Baichuan2-13B-Chat與其4bit量化版本,并且均為免費(fèi)可商用。

    微信截圖_20230906173411.png

    項(xiàng)目地址:github.com/baichuan-inc/Baichuan2

    要點(diǎn):

    1. 百川智能發(fā)布開源大模型Baichuan2-7B和Baichuan2-13B,參數(shù)規(guī)模分別為70億和130億。

    2. Baichuan2全面超越了Meta研發(fā)的Llama2-13B模型,提升了數(shù)學(xué)、代碼、安全、邏輯等多方面能力。

    3. 百川智能還發(fā)布了Baichuan2-13B的對(duì)話和量化版本,所有模型均可免費(fèi)商用。

    >>>>>>>>>>>>>聚焦開發(fā)者<<<<<<<<<<<<

    Hugging Face推出新服務(wù)Training Cluster 可一鍵訓(xùn)練模型

    Hugging Face推出新服務(wù)Training Cluster,用戶僅需一鍵即可對(duì)模型進(jìn)行訓(xùn)練,無(wú)需處理復(fù)雜的內(nèi)部過(guò)程。這項(xiàng)創(chuàng)新服務(wù)將極大地減少用戶在深度學(xué)習(xí)項(xiàng)目中進(jìn)行模型訓(xùn)練所需的時(shí)間和精力。

    image.png

    項(xiàng)目地址:https://huggingface.co/training-cluster

    要點(diǎn):

    1、Training Cluster支持一鍵對(duì)模型進(jìn)行訓(xùn)練,簡(jiǎn)化內(nèi)部流程

    2、提供GPU資源進(jìn)行大規(guī)模語(yǔ)言模型定制訓(xùn)練

    3、降低AI技術(shù)應(yīng)用門檻,有助推動(dòng)AI普及和發(fā)展

    Meta推全新純C++分割引擎SAM.cpp 支持圖像、視頻等精細(xì)分割

    Meta公司推出了全新的C++圖像分割引擎SAM.cpp,支持對(duì)圖像、視頻進(jìn)行精細(xì)語(yǔ)義分割。該項(xiàng)目現(xiàn)已在GitHub上開源,底層基于GGML模型格式實(shí)現(xiàn)高效推理。其主要功能包括:載入PyTorch訓(xùn)練的分割模型;使用ggml格式加載參數(shù);支持命令行調(diào)參;含GUI示例等。SAM.cpp的開源有助開發(fā)者構(gòu)建基于分割的創(chuàng)新應(yīng)用。

    image.png

    項(xiàng)目地址:https://github.com/YavorGIvanov/sam.cpp

    要點(diǎn):

    1. Meta公司推出C++語(yǔ)義分割引擎SAM.cpp,支持圖像、視頻分割

    2. SAM.cpp項(xiàng)目已在GitHub開源,使用GGML模型格式

    3. SAM.cpp功能包括:PyTorch模型加載、ggml參數(shù)加載、命令行調(diào)參等

    中國(guó)版HuggingFace要來(lái)了?始智AI開源社區(qū)平臺(tái)wisemodel上線

    始智AI團(tuán)隊(duì)打造的中立開放AI開源社區(qū)平臺(tái)(wisemodel.cn)正式上線,該平臺(tái)匯聚了多個(gè)高質(zhì)量的AI模型,包括清華大學(xué)的ChatGLM、Stable Diffusion等。它的目標(biāo)是打造一個(gè)開放的AI算法和模型的社區(qū)平臺(tái)。

    要點(diǎn):

    1、wisemodel平臺(tái)匯聚了chatglm、Stable Diffusion等高質(zhì)量AI模型

    2、目標(biāo)是打造中國(guó)版的HuggingFace開源社區(qū)平臺(tái)

    3、注冊(cè)后可以創(chuàng)建組織,發(fā)布自己的模型和數(shù)據(jù)集

    開源工具OpenTF 提供代碼、資源圖等功能

    開源工具OpenTF提供了基礎(chǔ)設(shè)施即代碼、執(zhí)行計(jì)劃、資源圖等功能,可以幫助開發(fā)者以聲明性方式管理云基礎(chǔ)設(shè)施,提高管理效率。

    image.png

    項(xiàng)目地址:https://github.com/opentffoundation/opentf

    要點(diǎn):

    1. OpenTF允許基礎(chǔ)設(shè)施配置使用高級(jí)別配置語(yǔ)法進(jìn)行描述,可以進(jìn)行版本控制和復(fù)用。

    2. OpenTF可以生成執(zhí)行計(jì)劃,避免執(zhí)行時(shí)的意外情況。

    3. OpenTF可以構(gòu)建資源關(guān)系圖,支持高效地構(gòu)建和修改云基礎(chǔ)設(shè)施。

    >>>>>>>>>>>>>>AI應(yīng)用<<<<<<<<<<<<<<

    40人一年賺2億美元!Midjourney團(tuán)隊(duì)爆料正開發(fā)V6版本!

    TheInformation援引消息稱,Midjourney公司年收入達(dá)2億美元,僅40名員工,正開發(fā)V6版本以提高圖像質(zhì)量,并致力于實(shí)時(shí)生成視頻和3D資產(chǎn),未來(lái)可能實(shí)現(xiàn)整個(gè)視頻游戲的生成。

    機(jī)器人畫畫

    圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney

    要點(diǎn):

    1. Midjourney在沒(méi)有投資者的情況下每年產(chǎn)生2億美元的收入,這表明人工智能服務(wù)可以盈利。

    2. Midjourney通過(guò)Discord平臺(tái)提供的AI圖像服務(wù),單月收費(fèi)從10至120美元不等。

    3. 公司計(jì)劃推出V6版本,同時(shí)致力于實(shí)時(shí)生成視頻和3D資產(chǎn),創(chuàng)始人預(yù)測(cè)未來(lái)可能生成整個(gè)視頻游戲。

    Salesforce推出Slack AI,支持未讀消息摘要等功能

    Salesforce推出Slack AI功能,集成生成式AI到工作流程,提供頻道回顧、會(huì)話摘要等功能,以提升工作效率。

    image.png

    要點(diǎn):

    1. Slack AI將引入頻道回顧、會(huì)話摘要等功能,幫助用戶快速獲取關(guān)鍵信息。

    2. 搜索答案功能將應(yīng)用生成式AI,以自然語(yǔ)言提問(wèn)獲取答案。

    3. Slack還將推出列表和工作流構(gòu)建器,集成管理任務(wù)和自動(dòng)化流程。

    谷歌DeepMind開始研發(fā)類似Auto-GPT的自主AI代理

    谷歌DeepMind計(jì)劃研究自主語(yǔ)言代理,這類代理通過(guò)即時(shí)工程、自我提示和內(nèi)存等技術(shù),使系統(tǒng)能夠自主實(shí)現(xiàn)給定的目標(biāo),但仍需進(jìn)行更多安全性研究。

    image.png

    要點(diǎn):

    1. 谷歌DeepMind計(jì)劃研究自主語(yǔ)言代理,潛在地提升了類似Gemini的大型語(yǔ)言模型的應(yīng)用。

    2. 自主語(yǔ)言代理的基本思想是通過(guò)即時(shí)工程、自我提示和內(nèi)存等技術(shù),使代理系統(tǒng)能夠自主實(shí)現(xiàn)給定的目標(biāo)。

    3. 自主AI代理引發(fā)了對(duì)齊研究人員的擔(dān)憂,他們強(qiáng)調(diào)在開發(fā)這類代理之前需要進(jìn)行更多的安全性研究。

    簡(jiǎn)單、高效的AI視頻編輯器Clippah 一鍵制作精美視頻

    Clippah 是一款人工智能視頻編輯器,能夠提供快速、簡(jiǎn)單和高效的視頻編輯體驗(yàn)。Clippah 強(qiáng)大的算法能夠自動(dòng)裁剪視頻、調(diào)整相機(jī)、音效和顏色,從而節(jié)省用戶大量的時(shí)間和精力。用戶可以利用 Clippah 輕松創(chuàng)建和編輯高質(zhì)量的視頻內(nèi)容。

    image.png

    體驗(yàn)地址:https://www.clippah.co/

    要點(diǎn):

    1. Clippah 可自動(dòng)裁剪視頻、調(diào)整相機(jī)、音效和顏色,大幅提高視頻編輯效率。

    2. Clippah 提供簡(jiǎn)單強(qiáng)大的視頻編輯工具,包括自動(dòng)裁剪、調(diào)整鏡頭、添加音樂(lè)等。

    3. Clippah 易于上手使用,即使沒(méi)有視頻編輯經(jīng)驗(yàn)的用戶也能快速制作精美視頻。

    >>>>>>>>>>>>>>AI新鮮事<<<<<<<<<<<<<<

    詞典網(wǎng)站Dictionary.com加入LLM、GPT等AI新詞匯

    詞典網(wǎng)站Dictionary.com最近加入了一系列與人工智能相關(guān)的新詞匯,如生成式人工智能、GPT、LLM等,以跟上語(yǔ)言的演變,還對(duì)“幻覺(jué)”一詞進(jìn)行了擴(kuò)展定義,并計(jì)劃在秋季進(jìn)一步增加新詞條和定義。

    image.png

    要點(diǎn):

    Dictionary.com加入生成式人工智能、GPT、LLM等新詞匯。

    擴(kuò)展定義“幻覺(jué)”,涉及AI生成虛假信息。

    秋季計(jì)劃增加大量新詞條和定義。

    外灘大會(huì)今日開幕 生成式AI成為熱議話題

    2023外灘大會(huì)于9月7日在上海開幕,本屆大會(huì)以“科技·創(chuàng)造可持續(xù)未來(lái)”為主題,聚焦人工智能等前沿科技,以開放的組織形式推動(dòng)科技領(lǐng)域交流合作。

    要點(diǎn):

    大會(huì)設(shè)有主論壇、見解論壇、科技展覽、綠色集市等,云端線上線下聯(lián)動(dòng),近20位兩院院士參會(huì)。

    大會(huì)關(guān)注社會(huì)責(zé)任、風(fēng)險(xiǎn)應(yīng)對(duì)、數(shù)據(jù)隱私等話題,首次舉辦科技人才招聘會(huì)。

    大會(huì)聚焦人工智能、大模型、抗量子密碼、隱私計(jì)算、圖計(jì)算、安全智能、區(qū)塊鏈、Web3.0等前沿?cái)?shù)字科技及產(chǎn)業(yè)實(shí)踐

    舉報(bào)

    • 相關(guān)推薦
    • AI日?qǐng)?bào):kimi宣布降價(jià);OpenRouter發(fā)布免費(fèi)模型Quasar Alpha;Midjourney V7重磅上線

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、IDC:到2028年中國(guó)人工智能投資將突破1000億美元根據(jù)國(guó)際數(shù)據(jù)公司的預(yù)測(cè),中國(guó)在人工智能領(lǐng)域的投資將顯著增長(zhǎng),預(yù)計(jì)到2028年總投資將突破1000億美元,年均復(fù)合增長(zhǎng)率達(dá)到35.2%。

    • 10倍精度升級(jí)!騰訊混元3D模型v2.5版本發(fā)布

      騰訊混元3D模型升級(jí)至v2.5版本,建模精度和貼圖真實(shí)度顯著提升。新版本參數(shù)體量從1B增至10B,有效面片數(shù)增加超10倍,支持1024幾何分辨率。紋理系統(tǒng)支持4K高清貼圖和凹凸細(xì)節(jié),率先支持多視圖生成PBR模型。針對(duì)動(dòng)畫場(chǎng)景優(yōu)化骨骼蒙皮系統(tǒng),支持非標(biāo)準(zhǔn)姿態(tài)自動(dòng)綁定。新增文生/圖生3D減面模型、多視圖建模模板等專業(yè)工作流?;煸?D v2.5已全面更新至騰訊AI創(chuàng)作引擎,免費(fèi)生成額度提升至每日20次,并正式上線騰訊云API面向企業(yè)開放。GitHub開源版本累計(jì)Star超1.2萬(wàn)。

    • Trae國(guó)內(nèi)版怎么用?Trae IDE 內(nèi)置 MCP 市場(chǎng)配置使用指南

      字節(jié)跳動(dòng)旗下Trae+IDE發(fā)布新版本,通過(guò)MCP協(xié)議實(shí)現(xiàn)AI智能體與外部工具的深度集成。MCP作為標(biāo)準(zhǔn)化橋梁,讓開發(fā)者能靈活接入Supabase、FireCrawl等第三方服務(wù),只需@符號(hào)即可調(diào)用智能體完成數(shù)據(jù)庫(kù)操作、文檔搜索等復(fù)雜任務(wù)。新版本內(nèi)置MCP市場(chǎng),支持Token快速配置,并演示了如何通過(guò)Figma+AI自動(dòng)生成前端代碼。該技術(shù)可應(yīng)用于Blender建模、K8s管理等多元場(chǎng)景,顯著提升開發(fā)效率。Trae+IDE將持續(xù)擴(kuò)展工具生態(tài),推動(dòng)AI協(xié)作開發(fā)新時(shí)代。

    • AI日?qǐng)?bào):阿里騰訊全面支持MCP協(xié)議;階躍星辰多模態(tài)推理模型Step-R1-V-Mini;美圖WHEE圖像生成模型Miracle F1

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、阿里巴巴已宣布全面支持MCP協(xié)議騰訊緊隨其后近日,中國(guó)人工智能領(lǐng)域迎來(lái)技術(shù)標(biāo)準(zhǔn)的變革,ModelContextProtocol成為國(guó)內(nèi)AI生態(tài)的事實(shí)標(biāo)準(zhǔn)。12.英偉達(dá)發(fā)布Llama3.1NemotronUltra253B,性能?

    • 外媒:ChatGPT模型 o4 mini 的“AI幻覺(jué)率”高達(dá)48%

      性能是提升了些,但,“胡說(shuō)八道”的能力提升得更快,直接登頂……

    • 超過(guò)ChatGPT、Deepseek?谷歌發(fā)布 Gemini 2.5 Flash AI 模型

      新版AI模型縮短了響應(yīng)時(shí)間,節(jié)約了運(yùn)算成本;還推出了新的AI芯片“Ironwood”。谷歌發(fā)布了新的AI模型“Gemini2.5Flash”,據(jù)稱,這款A(yù)I模型的性能比OpenAI和DeepSeek的AI產(chǎn)品“更高效”。谷歌計(jì)劃在三星今年上半年推出的AI伴侶機(jī)器人Ballie上搭載生成式AI模型。

    • 誠(chéng)意滿滿!小米為SU7 Ultra Club首批會(huì)員推出限定禮盒

      小米汽車這次真是誠(chéng)意滿滿!SU7 Ultra Club首批會(huì)員收到了一份專屬的限定禮盒。里面的東西可不少:SU7 Ultra的1:43合金車模,做工精致,完全按照真車比例打造;除此之外,還有紐北成績(jī)限定車牌和冰箱貼,再加上專屬會(huì)員卡,這身份感瞬間拉滿。100%; word-break: break-word;"據(jù)悉,SU7 Ultra Club會(huì)員俱樂(lè)部是2月27日成立的,年費(fèi)3999元,首批限量2000人,入會(huì)就能拿到6

    • 苦等一年 Meta終于放大招 正式發(fā)布開源大模型Llama 4

      美國(guó)科技巨擘Meta重磅推出其迄今最為強(qiáng)大的開源AI模型Llama4,恰逢Llama3上市一周年之際。Llama4系列采用了先進(jìn)的混合專家架構(gòu),這一架構(gòu)在模型訓(xùn)練及用戶查詢回答過(guò)程中展現(xiàn)出更高效率,通過(guò)將模型劃分為多個(gè)專注于特定任務(wù)的專家”子模型,實(shí)現(xiàn)精準(zhǔn)高效的處理。Meta首席執(zhí)行官扎克伯格表示:他們的目標(biāo)是建立世界領(lǐng)先的人工智能,將其開源,并使其普遍可用,以便世界上每個(gè)人都能受益。

    • AI日?qǐng)?bào):OpenAI下周或發(fā)布GPT-4.1系列;Pika全新AI視頻功能Twists;商湯科技日日新V6震撼發(fā)布

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、報(bào)道稱OpenAI下周重磅發(fā)布GPT-4.1系列,包含Mini版和Nano版OpenAI即將發(fā)布GPT-4.1系列及o3系列,標(biāo)志著其在多模態(tài)和推理能力上的重大進(jìn)展。新加坡在AI技能學(xué)習(xí)上投入的時(shí)間顯著高于其他亞太國(guó)家,顯示出其在AI人才培養(yǎng)方面的競(jìng)爭(zhēng)力。

    • 百度Create AI開發(fā)者大會(huì):李彥宏發(fā)布兩大新模型、多款熱門AI應(yīng)用、開發(fā)者全面擁抱MCP

      4月25日,百度在武漢舉辦Create 2025開發(fā)者大會(huì)。李彥宏發(fā)布文心大模型4.5 Turbo和深度思考模型X1 Turbo,性能提升同時(shí)價(jià)格大幅下降。大會(huì)推出全球首個(gè)電商交易MCP平臺(tái),并發(fā)布數(shù)字人、智能體心響APP等多款A(yù)I應(yīng)用。百度宣布未來(lái)5年培養(yǎng)1000萬(wàn)AI人才,并點(diǎn)亮國(guó)內(nèi)首個(gè)三萬(wàn)卡集群。同時(shí)啟動(dòng)第三屆"文心杯"創(chuàng)業(yè)大賽,最高獎(jiǎng)金達(dá)7000萬(wàn)元。大會(huì)還包含6大分會(huì)場(chǎng)、40節(jié)AI公開課及5000平互動(dòng)展區(qū),全面展示百度AI生態(tài)布局。

    熱文

    • 3 天
    • 7天