无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關鍵詞  > 正文

    螞蟻集團研發(fā)多模態(tài)遙感基礎模型SkySense,可用于地貌地物觀測解譯

    2024-02-28 09:52 · 稿源:站長之家

    站長之家(ChinaZ.com) 2月28日 消息:近日,螞蟻集團推出20億參數(shù)多模態(tài)遙感基礎模型SkySense,這是螞蟻百靈大模型在多模態(tài)領域最新的研發(fā)成果,其論文已被世界計算機視覺頂會CVPR2024接收。數(shù)據(jù)顯示,SkySense在17項測試場景中指標均超過國際同類產(chǎn)品,這也是迄今為止國際上參數(shù)規(guī)模最大、覆蓋任務最全、識別精度最高的多模態(tài)遙感基礎模型。SkySense可用于地貌、農(nóng)作物觀測和解譯等,有效輔助農(nóng)業(yè)生產(chǎn)和經(jīng)營。

    image.png

    (圖片說明:SkySense在17項評測中均超過國際上最新的遙感模型)

    隨著人工智能的發(fā)展,大模型技術與衛(wèi)星遙感技術相結合產(chǎn)生了新突破。SkySense是螞蟻集團基于螞蟻百靈大模型平臺能力開發(fā)的多模態(tài)遙感模型。

    SkySense在總計17項國際權威公開數(shù)據(jù)集進行了測評,其測試任務類型包括了土地利用監(jiān)測、高分辨率目標識別、地物變化檢測等7種常見遙感感知任務,并與國際上已發(fā)布的包括IBM和NASA聯(lián)合研發(fā)的Prithvi等共18個全球主流同類模型做了測試結果比較。數(shù)據(jù)顯示,17項測評中SkySense均名列第一。譬如,在國際高清遙感地物檢測榜單FAIR1M2.0中,SkySense平均精度(mAP)領先第二名超3%。

    在剛剛公布的CVPR2024論文入選結果上,SkySense的研究成果亦被收錄。CVPR是由IEEE舉辦的計算機視覺和模式識別領域的頂級會議,是國際計算機視覺三大頂會之一。

    傳統(tǒng)的遙感影像理解技術,往往側重于針對單一模態(tài)單一任務建模,缺乏對多模態(tài)數(shù)據(jù)、時間序列、地理先驗知識的綜合建模和利用,限制了其在海量數(shù)據(jù)和多種任務中的泛化能力。SkySense突破以上技術瓶頸,實現(xiàn)了文本、紅外光、可見光、SAR雷達多種模態(tài)、多分辨率的時序遙感影像建模,在多樣化的任務中展現(xiàn)出優(yōu)異性能。在螞蟻百靈大模型多模態(tài)能力支持下,研發(fā)人員基于內(nèi)部構建的19億遙感影像數(shù)據(jù)集進行預訓練,得到了20.6億參數(shù)量的模型SkySense,這也是迄今為止國際上參數(shù)規(guī)模最大、覆蓋任務最全、識別精度最高的多模態(tài)遙感大模型。SkySense可廣泛應用于城市規(guī)劃、森林保護、應急救災、綠色金融、農(nóng)業(yè)監(jiān)測等重要領域,目前通過螞蟻內(nèi)部MEarth平臺提供數(shù)據(jù)與識別服務。

    據(jù)了解,螞蟻集團正在計劃開放Skysense模型參數(shù),與行業(yè)共建,促進智能遙感技術與應用發(fā)展。

    SkySense由螞蟻AI創(chuàng)新研發(fā)部門NextEvo與武漢大學聯(lián)合研發(fā)。NextEvo是螞蟻AI核心技術研發(fā)團隊,主導了螞蟻百靈大模型的研發(fā)工作,其研發(fā)方向涉及CV、NLP、多模態(tài)、AIGC、數(shù)字人、AI工程化等核心技術。去年,該部門升級了多模態(tài)團隊,由楊銘帶隊全面布局多模態(tài)技術。楊銘美國西北大學博士,F(xiàn)acebookAIResearch(FAIR)創(chuàng)始成員,去年加入螞蟻集團,先后就職于NEC美國實驗室、FAIR、地平線機器人公司,是世界知名計算機視覺研究專家。

    目前,螞蟻集團多模態(tài)研究成果已應用于支付寶五福節(jié)AI大規(guī)?;印⑽浵佱t(yī)療數(shù)字人等場景。

    舉報

    • 相關推薦
    • 可靈AI發(fā)布全新2.0模型:上線多模態(tài)視頻編輯功能

      快科技4月16日消息,據(jù)報道,可靈AI在北京舉行靈感成真”2.0模型發(fā)布會,正式發(fā)布可靈2.0視頻生成模型及可圖2.0圖像生成模型。據(jù)介紹,可靈2.0模型在動態(tài)質(zhì)量、語義響應、畫面美學等維度保持領先;可圖2.0模型在指令遵循、電影質(zhì)感及藝術風格表現(xiàn)等方面顯著提升。3月27日,全球AI基準測試機構Artificial Analysis發(fā)布了最新的全球視頻生成大模型榜單,快手可靈1.6pro(高品質(zhì)模

    • 多模態(tài)和Agent成為大廠AI的新賽 點

      這是《窄播Weekly》的第52期,本期我們關注的商業(yè)動態(tài)是:當大廠的AI競爭策略開始傾斜向應用場景,多模態(tài)能力和代理執(zhí)行成為兩個焦點。大模型落地C端場景的核心,就是讓大模型的能力越來越接近人。沿著這個主旋律,可以劃分出兩個進化方向:一個是持續(xù)降低用戶與大模型進行有效溝通的難度;另一個則是讓大模型具備執(zhí)行更復雜任務的能力。前者的實現(xiàn),需要給到大模型多

    • 多模態(tài)和Agent成為大廠AI的新賽點

      本期《窄播Weekly》聚焦AI大廠競爭策略向應用場景傾斜的趨勢,重點分析了多模態(tài)能力和代理執(zhí)行兩大發(fā)展方向。文章指出,大模型落地的核心在于讓人機交互更自然,具體表現(xiàn)為:1)通過多模態(tài)技術降低用戶使用門檻,如阿里夸克新推出的"拍照問夸克"功能;2)通過代理執(zhí)行提升復雜任務處理能力,如字節(jié)、百度等推出的通用Agent產(chǎn)品。國內(nèi)外廠商路徑差異明顯:國?

    • 1000萬上下文!新開源多模態(tài)大模型,單個GPU就能運行

      今年2月初,谷歌發(fā)布的Gemini2.0Pro支持200萬上下文,震驚了整個大模型領域。僅過了2個月,Meta最新開源的Llama4Scout就將上下文擴展至1000萬,整整提升了5倍開啟千萬級時代。根據(jù)實驗數(shù)據(jù)顯示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等測試的數(shù)據(jù)比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。

    • 開源即支持!基于昇騰MindSpeed MM玩轉InternVL3多模態(tài)理解最新模型

      多模態(tài)理解領域當前已成了各家AI大模型公司“軍備競賽”的關鍵點之一,國內(nèi)外知名AI大模型公司都爭相通過發(fā)布最先進的多模態(tài)大語言模型展現(xiàn)其在多模態(tài)理解領域的前沿能力。近期,上海AI實驗室推出了其最新的多模態(tài)大語言模型InternVL3 系列,相比上一代InternVL2. 5 模型,該模型展現(xiàn)出卓越的多模態(tài)感知和推理能力,同時進一步擴展了其工具使用、GUI代理、工業(yè)圖像分析等

    • 剛剛,商湯發(fā)布第六代大模型:6000億參數(shù)多模態(tài)MoE,中長視頻直接可推理

      現(xiàn)在的國產(chǎn)AI應用,一口氣看好幾分鐘的視頻,都可以直接做推理和解析了!瞧~只需“喂”上一段柯南片段,AI就搖身一變成“名偵探”做剖析:它會對整個視頻的內(nèi)容先做一個總結,再按照秒級,對視頻片段做內(nèi)容上的推演。商湯科技聯(lián)合創(chuàng)始人楊帆認為:銀河通用合伙人、大模型負責人張直政表示:除此之外,上海交通大學副教授閆維新對這個問題的看法是:總言之,商湯作為國?

    • 紫東太初多模態(tài)RAG全新發(fā)布:端到端問答準確率提升33%

      在產(chǎn)業(yè)智能化進程中,如何高效融合企業(yè)專有知識資產(chǎn),構建領域專屬認知引擎,是企業(yè)邁向智能決策與高效運營的關鍵。然而,傳統(tǒng)檢索增強生成(RAG)技術受限于語言單模態(tài)處理能力,僅能實現(xiàn)文本知識庫與文本查詢之間的淺層理解,難以滿足復雜業(yè)務場景的需求,在實際應用中暴露出兩大缺陷:信息表征缺失:忽略知識庫中多模態(tài)富文檔的視覺語義信息,如版面結構、圖表關?

    • UniToken:多模態(tài)AI的“全能選手”,一次編碼搞定圖文理解與圖像生成

      復旦大學與美團研究者提出UniToken框架,首次在統(tǒng)一模型中實現(xiàn)圖文理解與生成任務的"雙優(yōu)表現(xiàn)"。該方案融合連續(xù)和離散視覺編碼,有效解決了傳統(tǒng)多模態(tài)建模中的"任務干擾"和"表示割裂"問題。通過三階段訓練策略(視覺語義對齊、多任務聯(lián)合訓練、指令強化微調(diào)),UniToken在多個基準測試中性能超越專用模型。其創(chuàng)新性體現(xiàn)在:1)統(tǒng)一的雙邊視覺編碼

    • 業(yè)界唯一!百度網(wǎng)盤上線多模態(tài)AI筆記 效率提升10倍

      快科技5月2日消息,過往,用戶在通過視頻學習并記錄筆記時,總免不了要不停切換平臺軟件,暫停、截屏、記錄、插圖、批注、切換返回視頻過程繁瑣而低效。為了應對這種情況,百度網(wǎng)盤和百度文庫聯(lián)合研發(fā)上線了AI筆記”,支持全自動學習、半自動學習、輔助學習三種模式。如今只要在網(wǎng)盤里面任意打開一個學習視頻,在右側就能看到AI筆記”功能,用戶可以自主輸入內(nèi)容,也可以讓其直接生成圖文并茂、結構清晰的筆記。而且每個重要知識點旁會有時間戳,點擊時間戳即可跳轉到視頻中對應位置,實現(xiàn)視頻和筆記內(nèi)容的順滑關聯(lián)。此外AI筆記”還可以幫

    • 秒殺同行!Kimi開源全新音頻基礎模型,橫掃十多項基準測試,總體性能第一

      Kimi-Audio是一款開源的通用音頻基礎模型,在語音識別、音頻理解、音頻轉文本、語音對話等任務中表現(xiàn)優(yōu)異。該模型采用集成式架構設計,包含音頻分詞器、音頻大模型和音頻去分詞器三大核心組件,支持多模態(tài)輸入處理。在十余項音頻基準測試中,Kimi-Audio均取得領先性能,如LibriSpeech ASR測試WER僅1.28%,VocalSound測試達94.85%。模型使用1300萬小時多語言音頻數(shù)據(jù)進行預訓練,并構建了自動處理流水線生成高質(zhì)量訓練數(shù)據(jù)。評估結果顯示,Kimi-Audio在語音識別、音樂理解、語音情感分析等任務上全面超越同類模型,在OpenAudioBench和VoiceBench對話測試中也表現(xiàn)最佳。目前模型代碼、檢查點和評估工具包已在GitHub開源。