无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關鍵詞  > 阿里最新資訊  > 正文

    Qwen3深夜正式開源,小尺寸也能大力出奇跡。

    2025-04-29 08:48 · 稿源: ? 數字生命卡茲克公眾號

    聲明:本文來自于微信公眾號 數字生命卡茲克,授權站長之家轉載發(fā)布。

    小道消息一直在說,昨天深夜或者今天凌晨,阿里會發(fā)Qwen3

    然后我特意早早的睡了一兩小時,凌晨1點起床,就為了等Qwen3發(fā)。

    結果這一等,就是好幾個小時。。。

    不過,功夫不負有心人。

    凌晨5點,我眼睛都睜不開的時候,終于等到了。

    圖片

    Qwen你賠我睡眠。。。

    把報告看完,我總結一下,覺得最大的亮點有6個:

    1. 模型能力登頂全球,這個沒啥可說的,就是No.1。

    2. 第一個開源的混合推理模型。

    3.8個不同尺寸的模型,幾乎覆蓋了所有場景。

    4. 成本很低,旗艦模型235B參數部署成本只要DeepSeek R1的三分之一。

    5. 支持MCP協議。

    6. 居然還支持了119種語言。

    一起說吧。

    圖片

    這次發(fā)了8個模型,Qwen3-0.6B、1.7B、4B、8B、14B、32B,這6個都是Dense稠密模型。

    還有兩個重量級MoE模型,Qwen3-30B-A3B,和旗艦版的Qwen3-235B-A22B。

    圖片

    這次Qwen采用了新的命名方式,Qwen3-0.6B、1.7B、32B這種沒啥可說的,大家都理解。

    兩個MoE模型,把激活的參數寫在后面,Qwen3-235B-A22B的意思就是235B的參數,但是在推理時只激活22B。

    Qwen3-30B-A3B就是總參數量為30B,激活參數3B,這個還蠻有意思的。

    而且,所有的模型,都是混合推理模型。

    大概的意思就是,你既可以把它當不會長思考沒有思維鏈的普通模型用,也可以直接開啟推理模式,變成一個推理模型。

    可以簡單的理解為,把DeepSeek V3和R1直接揉在了一起。

    就像我們其實都知道,DeepSeek這個深度思考,你打開的時候,是R1模型,但是你關掉,其實用的是v3來給你回答。

    圖片

    但是Qwen3,是一體的。

    圖片

    是一個模型,只不過支持了兩種模式,這個不管對于開發(fā)者還是使用者,都方便很多。

    整體上,8個模型,誠意足到爆炸,小到0.6B,大到235B,能打手機端側,也能打旗艦體驗,全部一次性開源了,而且都是Apache2.0協議,想怎么用就怎么用,想商用就商用,沒啥顧慮。

    Qwen3-0.6B~4B的最大Token都是32K,其他的都是128K。

    性能上,稍微有點離譜。

    Qwen3-4B的小模型,就已經能和上一代QwQ-32B這玩意打得有來有回。而Qwen3-30B-A3B,更是幾乎就比QwQ-32B全方位的強。

    圖片

    至于最牛逼的那個Qwen3-235B-A22B,他們甚至沒只跟開源模型比,比的全都是最頂級的閉源模型。

    最主要的是,這玩意部署成本,大概只有DeepSeek R1的三分之一啊。。。

    圖片

    什么叫便宜大碗,這就是。

    但是這么一對比,忽然發(fā)現,Gemini2.5-Pro,好像有點猛。。。

    同時,在性能水桶式提升的背景下,也有了更強的Agent能力,也支持MCP了。

    他們官方自己放了一段視頻。

    我也隨手把即夢接了進去,可以直接用Qwen3來調用即夢畫圖了。。。

    圖片

    就還真的,挺好玩,你的下一個即夢,又何必是即夢呢(狗頭。

    圖片

    除了這些模型的能力,Qwen3這次還有一個很有趣的東西。

    就是語言。

    上一代的Qwen2.5,只支持包括中文、英文、法文、西班牙文、葡萄牙文、德文、意大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等29種語言。

    而這一次,支持119種語言了。

    圖片

    不是,到底誰才是真正的OpenAI啊。

    這妥妥是為世界人民謀福利好吧。。。

    項目地址都在這了。

    Blog: https://qwenlm.github.io/blog/qwen3/

    GitHub: https://github.com/QwenLM/Qwen3

    圖片

    你牛逼的話可以自己部署,我5080勉強跑個Qwen3-8B,實在跑不起。

    想體驗的話,可以直接去通義和Qwen Chat,都可以。

    通義:https://www.tongyi.com/qianwen/

    Qwen Chat:https://chat.qwen.ai/

    我自己直接在Qwen Chat上面實測了一波,一進來左上角就默認是旗艦版Qwen3。

    圖片

    嗯,就是比較抽象的是,提示語都居然都變成早上好,卡茲克了。。。

    你可以在左上角,切換3個這次Qwen3比較有代表的模型來進行對比。

    圖片

    左下角的深度思考,就能是否開啟推理的開關。

    而且這個開關還能拖動滑塊,決定它的最大思考長度,雖然這個功能很極客,但是還有意思。

    圖片

    我自己的實測結論就是:水桶級別,中等偏上。

    比如讓它給我生成一個登錄頁。

    圖片

    效果很不錯,能直接干出一個很酷的界面。

    https://us4mpg09fz.app.yourware.so/

    圖片

    或者做藏師傅搞得可交互的網頁,把吃瓜PDF變成在線時間線。

    圖片

    這時候你就會發(fā)現,審美會差一點,豐富度也會不是特別狗,稍微有一點點勉強了。

    圖片

    而如果再讓它寫一個之前我在文章里放的洛小山的彈球游戲的Prompt:

      我會給你一個文件,分析內容,并將其轉化為美觀漂亮的中文可視化網頁作品集:##內容要求-保持原文件的核心信息,但以更易讀、可視化的方式呈現-在頁面底部添加作者信息區(qū)域,包含:*作者姓名:[作者姓名]*社交媒體鏈接:至少包含Twitter/X:-版權信息和年份##設計風格-整體風格參考LinearApp的簡約現代設計-使用清晰的視覺層次結構,突出重要內容-配色方案應專業(yè)、和諧,適合長時間閱讀##技術規(guī)范-使用HTML5、TailwindCSS3.0+(通過CDN引入)和必要的JavaScript-實現完整的深色/淺色模式切換功能,默認跟隨系統設置-代碼結構清晰,包含適當注釋,便于理解和維護##響應式設計-頁面必須在所有設備上(手機、平板、桌面)完美展示-針對不同屏幕尺寸優(yōu)化布局和字體大小-確保移動端有良好的觸控體驗##媒體資源-使用文檔中的Markdown圖片鏈接(如果有的話)-使用文檔中的視頻嵌入代碼(如果有的話)##圖標與視覺元素-使用專業(yè)圖標庫如FontAwesome或MaterialIcons(通過CDN引入)-根據內容主題選擇合適的插圖或圖表展示數據-避免使用emoji作為主要圖標##交互體驗-添加適當的微交互效果提升用戶體驗:*按鈕懸停時有輕微放大和顏色變化*卡片元素懸停時有精致的陰影和邊框效果*頁面滾動時有平滑過渡效果*內容區(qū)塊加載時有優(yōu)雅的淡入動畫##性能優(yōu)化-確保頁面加載速度快,避免不必要的大型資源-實現懶加載技術用于長頁面內容##輸出要求-提供完整可運行的單一HTML文件,包含所有必要的CSS和JavaScript-確保代碼符合W3C標準,無錯誤警告-頁面在不同瀏覽器中保持一致的外觀和功能請根據上傳文件的內容類型(文檔、數據、圖片等),創(chuàng)建最適合展示該內容的可視化網頁。

      確實沒有那么亮眼,在游玩的時候還有一些些BUG。

      圖片

      但是畢竟這個游戲還是太復雜了,人模型的尺寸也沒那么大,也沒法既要又要。

      如果是做稍微簡單一點的連連看游戲,就還是比較簡單了。

        <!--生成一個記憶翻牌游戲,要求:1.使用CSS漸變背景(深紫到黑)2.12張圓角卡片(6對圖案),默認顯示彩色霓虹邊框3.點擊卡片翻轉時顯示emoji圖案,匹配成功時卡片變?yōu)榘胪该靼l(fā)光狀態(tài)4.頂部顯示極簡計時器和步數統計5.禁止使用圖片,全部用CSS繪制--><divid="memory-game"style="background:linear-gradient(135deg,#3a0ca3,#000);"><!--JS動態(tài)生成卡片--></div>,所有的游戲文字都是英文

        圖片

        除了代碼,邏輯問題,現在基本也不太能難道現在的推理大模型了。

        圖片

        不過在遇到一些非常離奇非正常的測試prompt時,還是會有一點點掉智。

        圖片

        文筆的話,親測會比DeepSeek好一些。

        圖片

        但是略遜于GPT-4o。

        如果你還想玩一點花活,還能跟即夢打通做結合。

        圖片

        就能實現類似于那種原生多模態(tài)模型,圖文混排的效果。

        圖片

        還是超級有意思的。

        總之,這次Qwen3的發(fā)布,真的有點像是深夜街頭,突然亮起的那盞霓虹燈。

        不僅亮,還便宜。

        不僅便宜,還能庫庫的切換顏色。

        這一波下來,阿里確實是拿出了一種很阿里的態(tài)度。

        8點了,天也亮了。

        該去睡覺了。

        最后。

        Qwen3,歡迎來到這個荒誕又燦爛的時代。

        咱們,下個奇點見。

        舉報

        • 相關推薦
        • 阿里Qwen3發(fā)布后 馬斯克立刻官宣:下周推出Grok 3.5

          快科技4月29日消息,馬斯克剛剛在社交平臺X上稱,下周將向SuperGrok訂閱者推出Grok 3.5,并將該條信息頂置。據馬斯克稱,Grok 3.5是第一個能夠準確回答有關火箭發(fā)動機或電化學技術問題的人工智能。同時,Grok可以從第一原理推理并得出互聯網上根本不存在的答案。Grok 3.5被馬斯克旗下的xAI宣傳為全球首個人工智能能從第一性原理推理,生成網絡上不存在的答案”。而今年2月18日,xAI正式發(fā)布Grok 3,并在兩天后把Grok 3免費向所有公眾開放,超越ChatGPT,登頂蘋果應用商店免費應用下載排行榜第一名。馬斯克曾稱Grok 3為地球上最聰明的人工智

        • 聯發(fā)科:天璣9400已率先完成阿里Qwen3端側部署

          阿里巴巴通義千問團隊開源發(fā)布新一代Qwen3系列混合推理模型,包含2個MoE模型和6個dense模型,參數規(guī)模從0.6B到235B。該系列采用前沿的混合專家架構,預訓練數據量達36T tokens,在推理、指令遵循、多語言能力等方面顯著提升。聯發(fā)科宣布天璣9400芯片率先完成Qwen3端側部署,其搭載的第八代AI處理器NPU+890在ETHZ AI Benchmark測試中表現優(yōu)異。天璣9400憑借強大AI算力,可讓用戶在手機等終端設備上高效使用Qwen3模型。旗艦模型Qwen3-235B-A22B在編碼、數學等基準測試中展現出與DeepSeek、Grok-3等模型的競爭優(yōu)勢,同時部署成本大幅降低,顯存占用僅為性能相近模型的三分之一。

        • AI日報:阿里新模型Qwen3即將來襲;GitHub開源MCP服務器;Runway發(fā)布Gen-4 Turbo

          歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸FAI領域的熱點內容,聚焦開發(fā)者,助你洞悉技術趨勢、了解創(chuàng)新AI產品應用。新鮮AI產品點擊了解:https://top.aibase.com/1、Qwen3即將來襲:阿里云新模型相關支持已正式合并至vLLM代碼庫阿里云的Qwen3模型即將發(fā)布,標志著其在AI領域的又一重要進展。新推出的AI聽歌報告能夠精準識別用戶音樂偏好,場景

        • AI日報:通義千問Qwen3重磅發(fā)布;抖音AI搜索能力開放;ChatGPT 搜索新增網購功能;Suno V4.5版本將發(fā)布

          本期AI日報重點內容: 1. 通義千問發(fā)布Qwen3大模型,在代碼、數學和通用能力方面表現突出,支持兩種思考模式并開源多個模型權重 2. 抖音開放AI搜索能力接口,為第三方應用提供豐富內容資源 3. ChatGPT新增網購功能,通過對話獲取個性化商品推薦 4. Suno AI即將推出V4.5版本,提升音樂生成真實度 5. Simular AI登陸macOS,打造本地化智能助手 6. 暗月之面開源Kimi-VL模型,可處理文本、圖像和視頻 7. UCLA與Meta推出d1框架,提升大語言模型推理速度 8. 通義靈碼上線Qwen3編程智能體 9. Gen-4References圖像生成技術驚艷亮相 10. Hugging Face推出可編程機械臂SO-101 11. Windsurf推出全新品牌標志 12. Ollama全面支持Qwen3模型本地部署

        • 理想自研星環(huán)OS正式開源!操作系統代碼已開放下載

          理想汽車4月28日宣布自研"星環(huán)OS"操作系統正式開源,成為全球首個實現整車級操作系統全面開源的車企。該系統代碼已通過Gitee平臺開放下載,采用Apache License V2.0開源協議,覆蓋智能車控、智能駕駛、通信中間件、信息安全四大核心模塊。該系統不同于車載屏幕系統,而是整車全鏈路操作系統,包括車輛控制等核心功能。研發(fā)始于2021年,投入200名研發(fā)人員和10億元人民幣。系統采用資源集中與共享架構,支持英飛凌、地平線等主流車規(guī)芯片,芯片適配驗證時間比傳統閉源系統縮短80%。在性能方面,AI算力虛擬化損耗降低80%,傳感器訪問時延降低90%,存儲資源占用減少30%,響應速度比AUTOSAR提升1倍。安全性能方面,120km/h高速狀態(tài)下AEB剎停距離縮短7米。

        • 阿里巴巴正式開源千問3 僅需4張H20即可部署滿血版

          阿里巴巴開源新一代通義千問模型Qwen3,采用混合推理架構,集成"快思考"與"慢思考"模式,能根據任務復雜度自動調整計算資源。該模型參數規(guī)模235B,在GPQA等權威評測中表現優(yōu)異,以更小規(guī)模實現超越上一代模型的性能。Qwen3包含2款MoE模型和6款密集模型,部署成本大幅降低,僅需4張H20顯卡即可運行滿血版,顯存占用僅為同類模型的三分之一。新模型通過智能分配算力,在簡單任務上快速響應,復雜問題上深度思考,顯著提升能效比。

        • 實錘了,Llama 4重測排名掉至32名!遠不及DeepSeek和Qwen

          LMArena更新了Meta最新發(fā)布的開源大模型Llama-4-Maverick的排名,從此前的第2名,直線掉到了第32名!這也實錘了此前開發(fā)者對Meta為刷榜排名向LMArena提供了“特供版”的Llama4大模型的質疑。開源版同款Llama-4-Maverick-17B-128E-Instruct在LMArena的排名為32名,遠低于Gemini2.5Pro、GPT4o、DeepSeek-V3-0324、DeepSeek-R1、Qwen2.5-Max,甚至連英偉達基于上一代Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1都不如。

        • 提升大模型自動修Bug能力 豆包正式開源首個多語言類SWE數據集

          今日,字節(jié)跳動豆包大模型團隊宣布,正式開源首個多語言類SWE數據集Multi-SWE-bench,可用于評估和提升大模型自動修Bug”能力。在SWE-bench基礎上,Multi-SWE-bench首次覆蓋Python之外的7種主流編程語言,是真正面向全棧工程”的評測基準。相比于以往聚焦Python的單語言任務,Multi-SWE-bench更貼近現實中的多語言開發(fā)場景,也更能反映當前模型在自動化軟件工程”方向上的實際能力邊界。

        • “谷歌版MCP”來了,開源A2A,不同廠商Agent也能協作

          “谷歌版MCP”來了!谷歌推出A2A協議,即Agent2Agent,能讓AIAgent在不同生態(tài)系統間安全協作無需考慮框架或供應商。不同平臺構建的AIAgent之間可以進行通信、發(fā)現彼此的能力、協商任務并開展協作,企業(yè)可通過專業(yè)Agent團隊處理復雜工作流。從各大廠最近動作來看,蕪湖,不愧是Agent元年。

        • 剛剛,Llama 4深夜開源擊敗DeepSeek V3!2萬億多模態(tài)巨獸搶回王座

          Llama4重磅發(fā)布了!Meta官宣開源首個原生多模態(tài)Llama4,首次采用的MoE架構,支持12種語言,首批發(fā)布一共兩款:Llama4Scout:共有1090億參數,17B活躍參數,16個專家,1000萬上下Llama4Maverick:共有4000億參數,17B活躍參數,128個專家,100萬上下文另外,2萬億參數Llama4Behemoth將在未來幾個月面世,288B活躍參數,16個專家。Llama4的橫空出世,成為迄今為止開源最強,多模態(tài)能力最好的模型之一。L