无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關(guān)鍵詞  > Meta最新資訊  > 正文

    Meta 的人工智能模型 LLaMA 2 對所有人免費:開源將比 OpenAI 等競爭對手更具優(yōu)勢

    2023-07-19 08:47 · 稿源:站長之家

    站長之家(ChinaZ.com) 7月19日消息:Meta 正在全力推進(jìn)開源人工智能該公司今天發(fā)布了 LLaMA 2,這是他們首款可供任何人免費使用的大型語言模型。

    Llama2,Meta,人工智能,大語言模型,AI

    自從 OpenAI 于去年 11 月發(fā)布了備受矚目的 AI 聊天機(jī)器人 ChatGPT 以來,科技公司一直在爭相發(fā)布模型,希望能夠打破其主導(dǎo)地位。Meta 一直進(jìn)展緩慢。今年 2 月,當(dāng)競爭對手微軟和谷歌宣布推出 AI 聊天機(jī)器人時,Meta 推出了第一個較小版本的 LLaMA,只限于研究人員使用。但他們希望發(fā)布 LLaMA 2 并允許任何人在其基礎(chǔ)上構(gòu)建商業(yè)產(chǎn)品,以幫助他們迎頭趕上。

    實際上,該公司發(fā)布了一套 AI 模型,其中包括不同規(guī)模的 LLaMA 2 版本,以及一種可以構(gòu)建成聊天機(jī)器人的 AI 模型,類似于 ChatGPT。與可以通過 OpenAI 網(wǎng)站訪問 ChatGPT 不同,該模型必須從 Meta 的合作伙伴微軟 Azure、亞馬遜 AWS 和 Hugging Face 下載。

    Meta 負(fù)責(zé)生成 AI 工作的副總裁 Ahmad Al-Dahle 表示:「這使整個 AI 社區(qū)受益,并給人們提供了選擇,他們可以選擇封閉源方法或開源方法,以適應(yīng)其特定的應(yīng)用。」他說:「對我們來說,這是一個非常重要的時刻。」

    但是仍然存在許多限制條件。根據(jù)與《麻省理工科技評論》獨家共享的公司研究論文,Meta 沒有公布訓(xùn)練 LLaMA 2 所使用的數(shù)據(jù)集信息,也不能保證其中沒有包含受版權(quán)保護(hù)的作品或個人數(shù)據(jù)。LLaMA 2 也存在著困擾所有大型語言模型的問題:傾向于產(chǎn)生虛假信息和冒犯性語言。

    Al-Dahle 表示,通過將模型發(fā)布到公眾領(lǐng)域,并允許開發(fā)人員和公司進(jìn)行調(diào)試,Meta 將從中學(xué)到如何使其模型更安全、更公正和更高效的重要經(jīng)驗教訓(xùn)。

    斯坦福大學(xué)基礎(chǔ)模型研究中心主任 Percy Liang 表示,強(qiáng)大的開源模型如 LLaMA 2 對 OpenAI 構(gòu)成了相當(dāng)大的威脅。Liang 是開源競爭對手 Alpaca 的研究團(tuán)隊的一員,該團(tuán)隊開發(fā)了 GPT-3 的早期版本。

    Liang 表示:「LLaMA 2 并非 GPT-4。」并且在研究論文中,Meta 承認(rèn) LLaMA 2 和 GPT-4 之間的性能差距仍然很大,而 GPT-4 現(xiàn)在是 OpenAI 的最先進(jìn)的 AI 語言模型。他補(bǔ)充說:「但對于許多用例來說,您并不需要 GPT-4?!挂粋€更可定制和透明的模型,比如 LLaMA 2,可能會幫助公司比一個龐大、復(fù)雜的專有模型更快地創(chuàng)建產(chǎn)品和服務(wù)。

    加州大學(xué)伯克利分校教授 Steve Weber 表示:「如果 LLaMA 2 能成為領(lǐng)先的開源替代品,這對 Meta 來說將是一次巨大的勝利。」

    為了推出 LLaMA 2,Meta 進(jìn)行了大量的調(diào)整,使模型比其前身更安全,更不容易產(chǎn)生有害虛假信息,Al-Dahle 說。

    Meta 有很多過去的失誤可以汲取教訓(xùn)。他們的科學(xué)語言模型 Galactica 在僅三天后就被下線,他們以前的僅用于研究目的的 LlaMA 模型在網(wǎng)上泄露,引發(fā)了一系列批評,質(zhì)疑 Meta 是否充分考慮了 AI 語言模型的風(fēng)險,如虛假信息和騷擾等。

    為了減輕重復(fù)這些錯誤的風(fēng)險,Meta 應(yīng)用了一系列不同的機(jī)器學(xué)習(xí)技術(shù),旨在提高 LLaMA 2 的實用性和安全性。

    Meta 的研究人員 Sasha Luccioni 表示,相比于一般生成式 AI 模型,訓(xùn)練 LLaMA 2 需要更多步驟。據(jù) Al-Dahle 表示,該模型使用了比其前身多 40% 的訓(xùn)練數(shù)據(jù)。其中訓(xùn)練數(shù)據(jù)有兩個來源:從在線抓取的數(shù)據(jù),以及根據(jù)人類標(biāo)注員的反饋進(jìn)行微調(diào)和調(diào)整,以表現(xiàn)出更理想的方式。公司表示 LLaMA 2 沒有使用 Meta 用戶數(shù)據(jù),并排除了已知含有大量個人信息的網(wǎng)站的數(shù)據(jù)。

    盡管如此,LLaMA 2 仍然會產(chǎn)生冒犯、有害和其他問題語言,就像其他競爭對手的模型一樣。Meta 表示沒有從數(shù)據(jù)集中刪除有害數(shù)據(jù),因為將其保留下來可能有助于 LLaMA 2 更好地檢測仇恨言論,而刪除它可能會意外地篩選掉某些人群。

    Luccioni 表示,Meta 的開放承諾令人興奮,因為它允許像她這樣的研究人員能夠適當(dāng)?shù)匮芯?AI 模型的偏見、道德和效率。

    LLaMA 2 作為一個開源模型,也將允許外部研究人員和開發(fā)人員對其進(jìn)行安全漏洞的探索,這將使其比專有模型更安全,Al-Dahle 表示。

    Liang 也表示同意:「我非常興奮地嘗試一些東西,我認(rèn)為這將對社區(qū)有益?!?/p>

    舉報

    • 相關(guān)推薦
    • 苦等一年 Meta終于放大招 正式發(fā)布開源大模型Llama 4

      美國科技巨擘Meta重磅推出其迄今最為強(qiáng)大的開源AI模型Llama4,恰逢Llama3上市一周年之際。Llama4系列采用了先進(jìn)的混合專家架構(gòu),這一架構(gòu)在模型訓(xùn)練及用戶查詢回答過程中展現(xiàn)出更高效率,通過將模型劃分為多個專注于特定任務(wù)的專家”子模型,實現(xiàn)精準(zhǔn)高效的處理。Meta首席執(zhí)行官扎克伯格表示:他們的目標(biāo)是建立世界領(lǐng)先的人工智能,將其開源,并使其普遍可用,以便世界上每個人都能受益。

    • Meta說他們的 Llama 4 偏見少了!但,“虛假對等”才是真偏見

      Meta公司稱,相比之前的版本,他們最新的人工智能模型Llama4的政治偏見更少了。其中一部分便是通過允許該模型回答更多帶有政治爭議性的問題來實現(xiàn)這一點的。下次當(dāng)你使用Meta的AI產(chǎn)品時,它可能會為“通過服用馬用鎮(zhèn)靜劑來治療新冠病毒”這種觀點說好話!

    • 反擊DeepSeek失??!Llama 4效果不好,Meta承認(rèn)有問題

      今天凌晨1點半,Meta生成式AI領(lǐng)導(dǎo)者AhmadAl-Dahle在社交平臺發(fā)布了一篇長文,對前天剛開源的Llama4質(zhì)疑進(jìn)行了官方回應(yīng)。Ahmad表示,Llama4一開發(fā)完就發(fā)布了,所以,不同服務(wù)中模型質(zhì)量難免會有一些差異。由于關(guān)稅大戰(zhàn)的原因,Meta的股票遭遇重創(chuàng),他們也需要一個利好消息來拉升股票,現(xiàn)在適得其反。

    • Llama 4大模型跌落神壇:作弊刷榜、代碼能力極差、和DeepSeek比就是偽開源

      被寄予厚望的美國Meta公司的最新開源大模型Llama4發(fā)布不到2天時間,口碑急轉(zhuǎn)直下,被質(zhì)疑為刷榜作弊實際效果差、開源條件多部署門檻高是偽開源等。大模型評測平臺LMArena親自下場發(fā)文,打臉Meta提供給平臺的Llama4是“特供版”。Meta若繼續(xù)在商業(yè)控制與技術(shù)開放之間搖擺,恐將在AI競賽中進(jìn)一步失去開發(fā)者支持。

    • OpenAI沒說的秘密,Meta全揭了?華人一作GPT-4o同款技術(shù),爆打擴(kuò)散王者

      Meta、西北大學(xué)和新加坡國立大學(xué)的研究團(tuán)隊提出TokenShuffle技術(shù),顯著提升了自回歸模型生成高分辨率圖像的能力。該技術(shù)通過局部窗口內(nèi)的token合并與解構(gòu)操作,將視覺token數(shù)量減少為平方分之一,首次實現(xiàn)2048×2048分辨率圖像生成?;?7億參數(shù)的Llama模型,TokenShuffle在GenAI基準(zhǔn)測試中獲得0.77綜合得分,超越同類自回歸模型0.18分,在人類評估中展現(xiàn)出更好的文本對齊和視覺質(zhì)量。該方法無需修改Transformer架構(gòu),通過三階段訓(xùn)練策略(512→1024→2048分辨率)逐步提升生成能力,為多模態(tài)大語言模型的高效高保真圖像生成開辟了新路徑。

    • 聲通科技湯敬華:尋找可信、靠譜的人工智能技術(shù)

      聲通科技董事長湯敬華在第三屆數(shù)字化發(fā)展大會上表示,人工智能進(jìn)入商業(yè)領(lǐng)域必須可信可靠。該公司專注交互式AI20年,提出"可信AI實現(xiàn)架構(gòu)",強(qiáng)調(diào)AI需根據(jù)不同場景設(shè)定合理準(zhǔn)確度標(biāo)準(zhǔn)(80%-99.9%),而非追求100%完美。他指出可信AI需要技術(shù)支撐與綜合能力,包括數(shù)據(jù)訓(xùn)練、平臺可信度及持續(xù)運營能力。聲通科技已形成覆蓋智慧城市、金融等領(lǐng)域的全棧式解決方案,并與商創(chuàng)院成立可信AI實驗室,推動產(chǎn)學(xué)研合作。湯敬華認(rèn)為,AI發(fā)展需平衡安全與創(chuàng)新,重大決策過程必須透明可靠。

    • 剛剛,Llama 4深夜開源擊敗DeepSeek V3!2萬億多模態(tài)巨獸搶回王座

      Llama4重磅發(fā)布了!Meta官宣開源首個原生多模態(tài)Llama4,首次采用的MoE架構(gòu),支持12種語言,首批發(fā)布一共兩款:Llama4Scout:共有1090億參數(shù),17B活躍參數(shù),16個專家,1000萬上下Llama4Maverick:共有4000億參數(shù),17B活躍參數(shù),128個專家,100萬上下文另外,2萬億參數(shù)Llama4Behemoth將在未來幾個月面世,288B活躍參數(shù),16個專家。Llama4的橫空出世,成為迄今為止開源最強(qiáng),多模態(tài)能力最好的模型之一。L

    • 實錘了,Llama 4重測排名掉至32名!遠(yuǎn)不及DeepSeek和Qwen

      LMArena更新了Meta最新發(fā)布的開源大模型Llama-4-Maverick的排名,從此前的第2名,直線掉到了第32名!這也實錘了此前開發(fā)者對Meta為刷榜排名向LMArena提供了“特供版”的Llama4大模型的質(zhì)疑。開源版同款Llama-4-Maverick-17B-128E-Instruct在LMArena的排名為32名,遠(yuǎn)低于Gemini2.5Pro、GPT4o、DeepSeek-V3-0324、DeepSeek-R1、Qwen2.5-Max,甚至連英偉達(dá)基于上一代Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1都不如。

    • 首次實現(xiàn)圖像思考 OpenAI重磅發(fā)布o(jì)3/o4-mini:史上最強(qiáng)、最智能模型

      快科技4月17日消息,今日,OpenAI新款A(yù)I模型o3、o4-mini重磅發(fā)布,這是OpenAI迄今最強(qiáng)、最智能的模型。據(jù)了解,OpenAI o3/o4-mini首次具備真正的視覺推理能力,看圖識圖已經(jīng)是小菜一碟了,現(xiàn)在還會看圖思考。OpenAI o3/o4-mini能同時處理文本、圖像和音頻,并且能作為Agent智能體自動調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式。通過強(qiáng)化學(xué)習(xí),OpenAI訓(xùn)練了o3/o4-mini如何?

    • “十年內(nèi)就會被人工智能取代”,ChatGPT 們可以取代律師嗎?

      每個人都知道直接與律師、醫(yī)生、會計們交談,會比找 ChatGPT 更好。但我們?nèi)匀桓鼉A向于使用 ChatGPT……

    熱文

    • 3 天
    • 7天