无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 傳媒 > 關(guān)鍵詞  > 人工智能最新資訊  > 正文

    國產(chǎn)大模型梯隊玩家,為什么pick了CPU?

    2024-07-11 10:12 · 稿源: 站長之家用戶

    AI一天,人間一年。

    現(xiàn)在不論是大模型本身,亦或是AI應(yīng)用的更新速度簡直令人直呼跟不上——

    Sora、Suno、Udio、Luma……重磅應(yīng)用一個接一個問世。

    也正如來自InfoQ的調(diào)查數(shù)據(jù)顯示的那般,雖然AIGC目前還處于起步階段,但市場規(guī)模已初具雛形:

    行業(yè)整體迅速發(fā)展固然是好事,但具體到每個的應(yīng)用或者大模型的落地來說,面臨的競爭也越發(fā)激烈了。

    例如前不久各個大模型廠商之間展開的非常激烈的“價格戰(zhàn)”,主打一個比誰更便宜,甚至直接把大模型價格推向“厘時代”。

    加上最近OpenAI的“斷供”事件,更是讓國內(nèi)廠商們在打出“輕松搬家”計劃的同時,再加碼Tokens送送送的力度。

    究其原因,也是與當(dāng)下應(yīng)用為王,尤其是以盡量低的成本把業(yè)務(wù)快速落地的這一大趨勢緊密相關(guān)。

    那么問題來了,大模型玩家們何以在又快又好又省之間做到平衡?

    這就回到了那個避不開,同時又是成本里占絕 對大頭的因素——算力。

    現(xiàn)在提及大模型的訓(xùn)練和推理,很多人的第 一反應(yīng)或許就是想到了GPU。

    誠然GPU在高性能上占據(jù)著一定的優(yōu)勢,但它所存在“硬傷”也是比較明顯,那便是供應(yīng)不足、價格昂貴。

    何以破局?國產(chǎn)大模型第 一梯隊玩家百度智能云千帆大模型平臺,就給出了自己的一個更具“效價比”的解法:

    具體到算力的部署上,百度智能云AI與大模型平臺總經(jīng)理忻舟認(rèn)為:

    一言蔽之,在大模型時代,CPU甚至比以往更加重要了,而且是能讓大模型和應(yīng)用做到“快好省”落地的關(guān)鍵因素之一。

    那么具體“上崗”效果又是如何,我們繼續(xù)往下看。

    國產(chǎn)頭部大模型玩家,pick了CPU

    國內(nèi)AIGC應(yīng)用爆發(fā),這其中,百度智能云千帆大模型平臺功不可沒。

    作為企業(yè)使用大模型的”一站式”服務(wù)平臺,千帆大模型平臺自去年3月發(fā)布以來已有超12萬客戶使用,累計調(diào)優(yōu)模型2萬個,孵化應(yīng)用4.2萬個。

    這些應(yīng)用覆蓋教育、金融、辦公、醫(yī)療等眾多場景,為行業(yè)數(shù)字化轉(zhuǎn)型提供了有力支撐。

    在教育領(lǐng)域,千帆大模型平臺賦能了試題生成、在線批改、題目解析等應(yīng)用,提升了教學(xué)和備考效率。

    例如用戶可以提供參考材料,設(shè)定題型和難度,平臺就能自動生成高質(zhì)量的試題。而交互式的題目解析,則可以針對每位學(xué)生的薄弱環(huán)節(jié),提供個性化的學(xué)習(xí)指導(dǎo)。

    在辦公場景,千帆大模型平臺與業(yè)內(nèi)頭部企業(yè)合作,共同打造了智能寫作助手等創(chuàng)新應(yīng)用,能夠根據(jù)用戶輸入的關(guān)鍵詞,快速生成招聘文案、營銷方案、數(shù)據(jù)報告等專業(yè)文檔。

    還可以專注于各類寫作場景,可以智能生成論文大綱、項目匯報、品牌宣傳稿等,提升了行政和營銷人員的工作效率。

    醫(yī)療健康是千帆大模型平臺的另一大應(yīng)用賽道?;卺t(yī)療知識庫訓(xùn)練的模型,可以自動生成體檢報告解讀,用通俗易懂的語言向用戶解釋各項指標(biāo),并給出個性化的健康指導(dǎo)。

    這讓普通大眾也能更好地了解自己的身體狀況,實現(xiàn)”健康自主管理”。

    可以看到,千帆大模型平臺在多個領(lǐng)域?qū)崿F(xiàn)了AI模型的”最后一公里”落地。

    那么千帆大模型平臺是怎么支撐如此多AI應(yīng)用的呢?

    答案是:讓CPU成為客戶的選擇之一,讓“效價比”的紅利普惠千行百業(yè)。

    之所以如此,百度智能云所給出的解釋是:

    至于效果,以Llama-2-7B為例,在第四代英特爾? 至強? 可擴展處理器上輸出 Token 吞吐可達(dá)100TPS 以上,相比第三代提升了60%。

    △Llama-2-7b模型輸出Token吞吐

    在低延遲的場景,同等并發(fā)下,第四代至強? 可擴展處理器的首Token時延比第三代至強? 可降低50%以上。

    在將處理器升級為第五代至強? 可擴展處理器之后,較上代的吞吐可提升45%左右,首 Token 時延下降50%左右。

    △Llama-2-7b模型首Token時延

    并且千帆大模型平臺團(tuán)隊根據(jù)實踐經(jīng)驗還表示:

    不僅如此,利用充足的CPU資源,降低對于AI加速卡的需求,從而降低 LLM 推理服務(wù)的總體擁有成本 (TCO),特別是在離線的 LLM 推理場景中表現(xiàn)出色。

    而且在千帆大模型平臺上,可不止是有自家的ERNIE,還有很多主流的大模型都集成于此。

    這也在一定程度上從側(cè)面印證了第五代英特爾? 至強? 可擴展處理器在性能上的過關(guān)。

    英特爾第五代至強,如何讓性能和效率變得Pro Max?

    百度智能云千帆大模型平臺,不止需要大模型推理一種工作負(fù)載,它其實是一個覆蓋大模型全生命周期的平臺。

    具體來說,千帆大模型平臺提供數(shù)據(jù)標(biāo)注,模型訓(xùn)練與評估,推理服務(wù)與應(yīng)用集成的全面功能服務(wù),以及快速應(yīng)用編排與插件集成,助力大模型多場景落地應(yīng)用。這樣一來,比起專為大模型推理部署專用加速器,充分利用平臺已廣泛部署的CPU資源,就是更劃算的選擇了。

    對于千帆大模型平臺上存在的大量離線大模型應(yīng)用需求來說,如生成文章總結(jié)、摘要、評估多個模型的效果等,這類需求對推理的時延要求其實不高,但內(nèi)存容易成為瓶頸。

    采用CPU來做,擴展內(nèi)存更方便,還可以利用起平臺閑時的算力資源,進(jìn)一步提高資源利用率,起到降低總擁有成本的作用。

    在這個大背景下,第五代英特爾? 至強? 可擴展處理器中的性能密集型通用計算應(yīng)用負(fù)載(類似P Core性能核)的設(shè)計就尤為關(guān)鍵了。

    與E Core(能效核)相比,P Core采用了追求性能最 大化的設(shè)計,能承載非常重的負(fù)載,同時還兼顧了AI推理加速。

    采用此設(shè)計的第五代至強? 可擴展處理器,在兼顧AI推理加速這一點上可不是說說而已,而是軟硬件協(xié)同優(yōu)化,各方面都考慮到位了。

    硬件方面,英特爾? AMX(高 級矩陣擴展)技術(shù),正是為大模型推理重深度學(xué)習(xí)中大量的矩陣乘法運算專門優(yōu)化的,可以理解成”CPU 里的 Tensor Core”。

    有了英特爾? AMX,處理器每個時鐘周期可完成高達(dá)2048個INT8運算,比上一代AVX512_VNNI指令提升8倍之多。

    更重要的是,英特爾? AMX加速器是內(nèi)置在CPU核心里的,讓矩陣存儲和運算更近,這一特性應(yīng)用在大模型推理上,能夠降低處理下一個Token的時延,讓終端用戶的體驗更好。

    △英特爾? AMX 可以更有效的實現(xiàn) AI 加速

    軟件方面,百度智能云千帆大模型平臺已經(jīng)引入了針對英特爾? 至強? 可擴展平臺深度優(yōu)化的大模型推理軟件解決方案xFasterTransformer (xFT),并將其作為后端推理引擎。主要優(yōu)化策略如下:

    充分利用 AMX/AVX512等指令集,有效實現(xiàn)核心算子如 Flash Attention 等

    采用低精度量化,降低數(shù)據(jù)訪存量,發(fā)揮 INT8/BF16運算的優(yōu)勢

    支持超大規(guī)模模型的多機多卡并行推理

    △英特爾? 至強? 可擴展處理器 LLM 推理軟件解決方案

    最后還要補充的一點是,要知道選擇一種硬件平臺,不止關(guān)乎于設(shè)備本身的采購價格,還會影響到后續(xù)的維護(hù)成本,甚至人才儲備成本。

    所以正如百度智能云所言,高性價比的算力基礎(chǔ)設(shè)施,與先進(jìn)的大模型算法和平臺軟件相輔相成,讓上層的開發(fā)者們能夠更加平滑地應(yīng)用,構(gòu)建他們的業(yè)務(wù),才能最 大化云計算平臺的商業(yè)價值。

    大模型時代,CPU大有可為

    縱觀當(dāng)下,大模型正從實驗室走向產(chǎn)業(yè),從少數(shù)人的“玩具”變?yōu)榇蟊娍捎玫摹肮ぞ摺薄?/p>

    這意味著,大模型服務(wù)不僅要有優(yōu)秀的性能表現(xiàn),還要做到價格親民、部署便捷。一言以蔽之,“快好省”成了大模型商業(yè)化的關(guān)鍵一環(huán)。

    而要實現(xiàn)“快好省”,算力基礎(chǔ)設(shè)施的選擇至關(guān)重要。

    傳統(tǒng)觀點認(rèn)為,專用加速器才是AI的“標(biāo)配”。但在供應(yīng)緊張、成本高企的背景下,專用加速器的優(yōu)勢正在減弱。

    相比之下,優(yōu)化良好的高端 CPU 不僅能提供足夠應(yīng)對大模型推理的算力,而且具有更廣泛的部署基礎(chǔ)和更成熟的軟件生態(tài)、以及更好的安全保障,開始受到越來越多業(yè)界玩家的青睞。

    以英特爾? 至強? 系列為代表的x86架構(gòu)CPU,擁有成熟完善的軟件生態(tài)和廣泛的應(yīng)用基礎(chǔ)。數(shù)以百萬計的開發(fā)者可以利用現(xiàn)有工具和框架,快速構(gòu)建和優(yōu)化AI應(yīng)用,而無需額外學(xué)習(xí)專門的加速器軟件棧,降低了開發(fā)難度和遷移成本。

    同時,企業(yè)級用戶還可以利用CPU內(nèi)置的多層次安全技術(shù),實現(xiàn)從硬件到軟件的全棧保護(hù),充分保障數(shù)據(jù)安全和隱私。這些優(yōu)勢,是當(dāng)前專用加速器難以比擬的。

    由此可見,充分利用CPU進(jìn)行推理,讓AI從“燒錢游戲”變?yōu)椤捌栈菘萍肌保茿IGC產(chǎn)業(yè)應(yīng)對算力門檻,推動規(guī)模化應(yīng)用落地的關(guān)鍵一招。未來,隨著技術(shù)創(chuàng)新和生態(tài)完善,這一模式還將為更多企業(yè)創(chuàng)造價值,為產(chǎn)業(yè)發(fā)展注入新的動力。

    除了直接加速推理任務(wù)外,CPU在完整的端到端AI管線中還能有效完成數(shù)據(jù)預(yù)處理、特征工程等AI全流程中的關(guān)鍵步驟。而支持機器學(xué)習(xí)和圖分析的各類數(shù)據(jù)庫,也主要是構(gòu)建在CPU之上的。以至強? 可擴展處理器為例,除了英特爾? AMX之外,還有諸如英特爾? 數(shù)據(jù)保護(hù)與壓縮加速技術(shù)(英特爾? QAT)、英特爾? 存內(nèi)分析加速器(英特爾? IAA)等一系列數(shù)據(jù)分析引擎內(nèi)置于處理器中,通過卸載特定任務(wù)使CPU得到更好的利用,從而提升工作負(fù)載整體性能,實現(xiàn)數(shù)據(jù)分析加速。

    由此可見,構(gòu)建“快、準(zhǔn)、穩(wěn)”的 AI 應(yīng)用,既要靠專用加速器強大的算力,也離不開CPU超強的通用計算能力去釋放整個系統(tǒng)的潛力。

    為了科普CPU在AI推理新時代的玩法,量子位開設(shè)了《最“in”AI》專欄,將從技術(shù)科普、行業(yè)案例、實戰(zhàn)優(yōu)化等多個角度全面解讀。

    我們希望通過這個專欄,讓更多的人了解CPU在AI推理加速,甚至是整個AI平臺或全流程加速上的實踐成果,重點就是如何更好地利用CPU來提升大模型應(yīng)用的性能和效率。(量子位)

    推廣

    特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))均為站長傳媒平臺用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù),對本頁面內(nèi)容所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任,相關(guān)信息僅供參考。站長之家將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。任何單位或個人認(rèn)為本頁面內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,可及時向站長之家提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明(點擊查看反饋聯(lián)系地址)。本網(wǎng)站在收到上述法律文件后,將會依法依規(guī)核實信息,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    • 相關(guān)推薦
    • 奔馳新款CLA接入豆包大模型

      4月22日,奔馳與火山引擎合作的首款國產(chǎn)純電車型CLA全球首發(fā)亮相。該車搭載奔馳自研MB.OS架構(gòu),接入火山引擎大模型,支持個性化智能交互體驗。智能系統(tǒng)可識別4種情緒并給予反饋,交互效率提升50%,喚醒僅需0.2秒。虛擬助手能解答百科問題并協(xié)助車輛功能設(shè)置。這是雙方繼2024年8月達(dá)成AI戰(zhàn)略合作后落地的首款量產(chǎn)車型,結(jié)合生成式AI和大數(shù)據(jù)技術(shù),為中國用戶打造更智能的用車體驗。

    • 何小鵬:我們要成為物理世界大模型第一

      快科技4月14日消息,今晚小鵬汽車創(chuàng)始人何小鵬發(fā)文稱,我們的目標(biāo)是成為物理世界大模型的第一名,推動汽車,機器人,飛行汽車領(lǐng)域的巨大變化?!苯裉?,小鵬在香港舉辦AI技術(shù)分享會,首次披露正在研發(fā)720億參數(shù)的超大規(guī)模自動駕駛大模型,也即小鵬世界基座模型”。未來,小鵬將通過云端蒸餾小模型的方式將基模部署到車端,給AI汽車”配備全新的大腦。小鵬世界基座?

    • 國產(chǎn)六大推理模型激戰(zhàn)OpenAI?

      2025年春節(jié)前夕,DeepSeek-R1模型發(fā)布,標(biāo)志著中國AI進(jìn)入推理模型新時代。文章梳理了國產(chǎn)大模型發(fā)展歷程:從2022年ChatGPT引發(fā)國內(nèi)追趕OpenAI熱潮,到2023年"百模大戰(zhàn)",再到2024年"AI六小虎"格局形成。重點分析了六大國產(chǎn)推理模型(DeepSeek、百度、阿里、科大訊飛、字節(jié)、騰訊)的技術(shù)特點與市場表現(xiàn),指出國產(chǎn)模型在性能上已接近GPT-4水平。特別強調(diào)科大訊飛星火X1憑借全國產(chǎn)化技術(shù)路線獲得政企青睞,以及DeepSeek-R1以560萬美元超低成本實現(xiàn)高性能的突破。文章還探討了英偉達(dá)芯片斷供危機下,國產(chǎn)全棧技術(shù)路徑的重要性,認(rèn)為自主可控將成為對抗國際不確定性的關(guān)鍵。最后指出,隨著推理模型成為競爭焦點,國產(chǎn)大模型正從技術(shù)追隨轉(zhuǎn)向自主創(chuàng)新階段。

    • 微信,OpenAI和Kimi想一起去了:大模型的盡頭依然還是社交平臺

      AI圈最近彌漫著一股微妙的氣息。人們似乎不再熱議大語言模型的最新突破、以及AI應(yīng)用的無限可能時,一些代表著未來的AI巨頭,卻似乎正將目光投向互聯(lián)網(wǎng)那熟悉得不能再熟悉的角落——社交網(wǎng)絡(luò)與社區(qū)。近期的傳聞和動作頗具代表性,在大洋彼岸,手握ChatGPT和Sora等王牌的OpenAI,據(jù)稱正內(nèi)部測試類X的社交功能,其CEO Sam Altman甚至在私下征求反饋;而在國內(nèi),憑借長文本能力

    • 重回初心 為發(fā)燒而生!小米手機新功能可調(diào)節(jié)CPU/GPU頻率

      小米手機最初的口號是為發(fā)燒生”,產(chǎn)品主要面向發(fā)燒友,帶來頂級配置。隨著體量不斷擴大,小米手機需要照顧到的用戶越來越多,如今性能釋放上則是需要更保守,以穩(wěn)定體驗為主。這功能潛在風(fēng)險也非常巨大,用戶自行調(diào)節(jié)后若手機出現(xiàn)問題也會導(dǎo)致售后問題,最終該功能是否能順利落地還存疑。

    • 阿丘科技李嘉悅:大模型驅(qū)動的AI檢測范式變革——大模型、小模型、智能體的協(xié)同進(jìn)化

      3月28日,由機器視覺產(chǎn)業(yè)聯(lián)盟主辦、慕尼黑展覽有限公司承辦的VisionChina2025機器視覺展在上海新國際博覽中心圓滿落幕。阿丘科技產(chǎn)品總監(jiān)李嘉悅在機器視覺及工業(yè)應(yīng)用研討會現(xiàn)場,圍繞“大模型驅(qū)動的AI檢測范式變革:大模型、小模型與智能體的協(xié)同進(jìn)化”的主題,發(fā)表了精彩演講。”今年,在這個快速變化的時代,我要補充一句:“AI工業(yè)視覺的格局正在加速變革,不會用大模型的將會被善用大模型的人淘汰。

    • 易鑫宣布年內(nèi)推出汽車金融行業(yè)首個Agentic大模型

      4 月15日,易鑫(02858.HK)在香港舉行的“2 025 世界互聯(lián)網(wǎng)大會亞太峰會”上宣布,將于年內(nèi)推出汽車金融行業(yè)首個Agentic大模型。該模型通過自主決策智能體深度結(jié)合汽車金融場景需求,有望從根本上解決行業(yè)中長期存在的效率瓶頸和痛點。易鑫首席AI科學(xué)家、高級副總裁張磊現(xiàn)場演講易鑫首席AI科學(xué)家、高級副總裁張磊在大會“人工智能大模型論壇”做主題演講時,發(fā)布了這?

    • 合合信息發(fā)布“大模型加速器 2.0”,助力大模型跨越“幻覺”障礙

      近日,上海合合信息科技股份有限公司(簡稱“合合信息”)TextIn“大模型加速器 2.0”版本正式上線,憑借其多維度升級,為降低大模型“幻覺”風(fēng)險、推動大模型精準(zhǔn)應(yīng)用提供了強大助力。訓(xùn)練數(shù)據(jù)是影響大模型“認(rèn)知能力”的關(guān)鍵,合合信息“大模型加速器 2.0”基于領(lǐng)先的智能文檔處理技術(shù),從數(shù)據(jù)源頭入手,對復(fù)雜文檔的版式、布局和元素進(jìn)行精準(zhǔn)解析及結(jié)構(gòu)化處理,

    • 2025年第一季度大模型中標(biāo)項目盤點:百度中國市場第一

      2025年伊始,全球AI產(chǎn)業(yè)迎來關(guān)鍵轉(zhuǎn)折點。國內(nèi)外領(lǐng)先的大模型技術(shù)在多模態(tài)理解、深度邏輯推理等核心能力上取得顯著突破,推動人工智能應(yīng)用進(jìn)入規(guī)?;涞匦码A段。隨著廠商持續(xù)突破技術(shù)瓶頸,一個以Agent為中樞的AI應(yīng)用生態(tài)加速成型,這不僅將重構(gòu)千行百業(yè)的價值鏈條,更將為底層算力、云平臺等基礎(chǔ)設(shè)施廠商開辟萬億級增量市場。

    • 迅雷一鍵即可完成大模型下載

      近日,迅雷為提升用戶使用體驗,讓用戶能夠更快更好地批量下載大模型所有文件,已針對大模型下載場景進(jìn)行了優(yōu)化,并上線了新版本插件,下載迅雷客戶端且在瀏覽器安裝迅雷插件即可使用。值得一提的是,在使用迅雷該插件功能創(chuàng)建任務(wù)時,將同時創(chuàng)建相對應(yīng)的文件夾,下載完成后,所有文件都將在一個文件夾中,相比傳統(tǒng)瀏覽器——需要用戶逐個手動點擊下載圖標(biāo)并?