无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關(guān)鍵詞  > 正文

    韓國研究人員開發(fā)小樣本學(xué)習(xí)模型,僅憑腦波數(shù)據(jù)就能發(fā)現(xiàn)人的意圖

    2023-09-21 11:25 · 稿源:站長之家

    文章概要:

    1. 研究團(tuán)隊(duì)成功開發(fā)了一種小樣本學(xué)習(xí)模型,能夠準(zhǔn)確分類腦波,僅需少量信息。

    2. 傳統(tǒng)深度學(xué)習(xí)模型需要大量腦波數(shù)據(jù),而新開發(fā)的模型可以即使使用少量數(shù)據(jù)也能準(zhǔn)確分類腦波,有望推動(dòng)腦波相關(guān)研究。

    3. 研究團(tuán)隊(duì)采用了嵌入模塊、時(shí)間注意模塊、聚合注意模塊和關(guān)系模塊,成功提高了模型的分類準(zhǔn)確性,為腦波研究提供了新的可能性。

    站長之家(ChinaZ.com) 9月21日 消息:韓國Daegu科技大學(xué)(DGIST)機(jī)器人與機(jī)械工程系的Sanghyun Park教授領(lǐng)導(dǎo)的研究團(tuán)隊(duì)宣布,他們已經(jīng)成功開發(fā)了一種小樣本學(xué)習(xí)模型,僅需少量信息就能夠準(zhǔn)確分類腦波。這一突破性的研究可能會對未來與腦波相關(guān)的研究產(chǎn)生積極影響。

    傳統(tǒng)上,要使用現(xiàn)有的深度學(xué)習(xí)模型準(zhǔn)確分類新的腦波,需要從目標(biāo)對象收集大量腦波數(shù)據(jù)。然而,這個(gè)新開發(fā)的深度學(xué)習(xí)模型可以即使使用少量數(shù)據(jù)也能準(zhǔn)確分類腦波,這對于未來的腦波研究具有重要意義。

    人工智能大腦 大模型 (2)

    腦波數(shù)據(jù)因個(gè)體而異,即使在執(zhí)行相同任務(wù)時(shí),不同人的腦波分布也會有所不同。因此,大多數(shù)現(xiàn)有的分類模型會收集來自執(zhí)行者的數(shù)據(jù),并將其用于訓(xùn)練,重點(diǎn)放在了個(gè)體內(nèi)部的分類上。這意味著那些沒有參與訓(xùn)練的人的腦波不能使用這些分類模型進(jìn)行分類。

    為了克服這一不足,研究人員積極進(jìn)行了“領(lǐng)域自適應(yīng)”模型的研究,其中深度學(xué)習(xí)模型用于推斷目標(biāo)對象的腦波信號。然而,這些模型仍然存在一個(gè)問題,即它們不能輕松應(yīng)用于新的對象,因?yàn)樗鼈冃枰獙W(xué)習(xí)這些對象的腦波數(shù)據(jù)。

    此外,還有其他研究致力于優(yōu)化遷移學(xué)習(xí)模型,其中來自多個(gè)個(gè)體的腦波數(shù)據(jù)被用于訓(xùn)練,但由于仍然需要大量腦波數(shù)據(jù),因此它們的可用性相對較低。

    因此,研究團(tuán)隊(duì)開發(fā)了一種新的深度學(xué)習(xí)模型,可以根據(jù)從目標(biāo)對象腦波數(shù)據(jù)中獲得的少量數(shù)據(jù)的地面真實(shí)性來準(zhǔn)確分類腦波。為了有效地學(xué)習(xí)少量數(shù)據(jù)與其余腦波之間的關(guān)系,他們首先從腦波數(shù)據(jù)中提取了有意義的特征,然后使用時(shí)間注意模塊從提取的特征中突出顯示重要特征,同時(shí)減少不必要的噪音。

    隨后,他們使用聚合注意模塊從給定的腦波數(shù)據(jù)中找到只有重要的數(shù)據(jù),以識別目標(biāo)對象腦波中所代表的意圖特征。最后,他們使用關(guān)系模塊計(jì)算腦波特征與向量之間的關(guān)系。此外,他們還開發(fā)了腦波分類微調(diào)技術(shù),以確保通過優(yōu)化準(zhǔn)確分類腦波。

    研究團(tuán)隊(duì)開發(fā)的新深度學(xué)習(xí)模型在跨個(gè)體分類中使用20個(gè)腦波數(shù)據(jù)點(diǎn)時(shí),對目標(biāo)對象的意圖表現(xiàn)出高達(dá)76%的分類準(zhǔn)確性??紤]到先前提出的方法(個(gè)體內(nèi)部分類、遷移學(xué)習(xí)和其他小樣本學(xué)習(xí)方法)的準(zhǔn)確性為64%至73%,這個(gè)新開發(fā)的模型表現(xiàn)出了更高的性能。

    Sanghyun Park教授表示:“本研究中開發(fā)的腦波分類深度學(xué)習(xí)模型能夠僅憑少量信息準(zhǔn)確分類腦波,無需重新構(gòu)建來自受試者的學(xué)習(xí)數(shù)據(jù),因此有望為需要個(gè)性化的腦波研究做出貢獻(xiàn)。”他進(jìn)一步補(bǔ)充道:“我們的技術(shù)將進(jìn)一步提升,以在各種生物信號分析中更普遍地得到應(yīng)用?!?/p>

    這項(xiàng)研究得到了韓國國家警察廳“面向警察官定制健康管理服務(wù)的智能大數(shù)據(jù)綜合平臺開發(fā)項(xiàng)目”和DGIST的“沉浸式人機(jī)多感官交互技術(shù)商業(yè)化項(xiàng)目”的支持,并已發(fā)表在IEEE Transactions on Neural Networks and Learning Systems上。

    這一研究的突破性將有望在未來的醫(yī)療和腦機(jī)接口領(lǐng)域產(chǎn)生深遠(yuǎn)的影響,為更好理解和應(yīng)用腦波數(shù)據(jù)打開了新的可能性。

    舉報(bào)

    • 相關(guān)推薦
    • 研究人員推出深度學(xué)習(xí)模型RECAST 改進(jìn)地震預(yù)測

      來自加州伯克利分校、圣克魯斯分校以及慕尼黑工業(yè)大學(xué)的研究人員發(fā)表論文,闡述了一種嶄新的模型,將深度學(xué)習(xí)引入地震預(yù)測領(lǐng)域。該模型被命名為RECAST,相比自1988年問世以來改進(jìn)有限的當(dāng)前標(biāo)準(zhǔn)模型ETAS,RECAST可利用更大的數(shù)據(jù)集,提供更高的靈活性。你會看到它朝著正確的方向發(fā)展。

    • DeepMind研究人員發(fā)現(xiàn),深度學(xué)習(xí)模型像和音頻壓縮方面表現(xiàn)出色

      Google旗下的人工智能子公司DeepMind發(fā)布的一項(xiàng)研究表明,大型語言模型除了在文本數(shù)據(jù)處理方面表現(xiàn)出色之外具備出色的圖像和音頻數(shù)據(jù)壓縮能力。這一發(fā)現(xiàn)為重新審視LLMs的潛力提供了新的角度。這表明LLMs的性能與數(shù)據(jù)集的大小有關(guān),壓縮率可以作為評估模型對數(shù)據(jù)集信息學(xué)習(xí)的指標(biāo)。

    • AI研究人員發(fā)現(xiàn)了主要大語言模型中關(guān)鍵漏洞 可低成本復(fù)制

      大型語言模型如ChatGPT和Bard在全球范圍內(nèi)引起了廣泛的關(guān)注,眾多公司投資數(shù)百萬美元用于開發(fā)這些人工智能工具一些領(lǐng)先的AI聊天機(jī)器人的估值已達(dá)到了數(shù)十億美元。這些LLM主要被應(yīng)用于AI聊天機(jī)器人,它們通過整合互聯(lián)網(wǎng)上的大量信息來學(xué)習(xí)和為用戶提供請求的答案,這些請求通常被稱為“提示”?!边@項(xiàng)研究為我們提醒了雖然AI技術(shù)帶來了巨大的機(jī)會,但也伴隨著一系列潛在的威脅,因此必須謹(jǐn)慎行事。

    • 研究人員發(fā)現(xiàn)使用少見語言即可繞過GPT-4的限制

      布朗大學(xué)的計(jì)算機(jī)科學(xué)研究人員發(fā)現(xiàn)了OpenAI的GPT-4存在的安全性問題。通過使用不常見的語言,如祖魯語和蓋爾語,他們成功繞過了GPT-4的限制性設(shè)置。盡管他們意識到這一研究可能會給網(wǎng)絡(luò)犯罪分子提供想法,但他們?nèi)匀徽J(rèn)為將這一漏洞公之于眾是必要的,因?yàn)槔矛F(xiàn)有的翻譯API輕松實(shí)施這些攻擊,因此那些試圖繞過安全防護(hù)的惡意行為者最終會發(fā)現(xiàn)這一漏洞。

    • 微軟研究人員用兒童故事進(jìn)行訓(xùn)練:微型語言模型進(jìn)入成熟期

      學(xué)習(xí)英語并不容易,許多學(xué)生都深有體會。但當(dāng)學(xué)生是一臺計(jì)算機(jī)時(shí),有一種方法表現(xiàn)出奇地出色:只需將大量來自互聯(lián)網(wǎng)的文本輸入到一個(gè)名為神經(jīng)網(wǎng)絡(luò)的巨大數(shù)學(xué)模型中。他們的研究結(jié)果暗示了可能有助于訓(xùn)練更大型模型并理解其行為的新研究方向。

    • 谷歌研究人員在 JAX 中引入了一個(gè)開源庫 用于在球面上進(jìn)行深度學(xué)習(xí)

      Google研究人員最近推出了一個(gè)基于JAX的開源庫,旨在解決在球面上進(jìn)行深度學(xué)習(xí)的挑戰(zhàn)。傳統(tǒng)的深度學(xué)習(xí)模型通常處理平面數(shù)據(jù),例如圖像,但科學(xué)應(yīng)用中的數(shù)據(jù)通常是球面數(shù)據(jù)。3.這項(xiàng)研究有望在分子性質(zhì)預(yù)測和氣象預(yù)測等領(lǐng)域取得突破性進(jìn)展,為醫(yī)療研究和氣候分析提供有力支持。

    • Meta研究人員提出輕量級微調(diào)方法RA-DIT 以增強(qiáng)語言模型知識檢索能力

      Meta的研究人員提出了一種名為檢索增強(qiáng)雙指令調(diào)優(yōu)的新型人工智能方法,用于提升語言模型的知識檢索能力。該方法試圖解決大型語言模型在捕獲較為冷門知識時(shí)的局限性以及大規(guī)模預(yù)訓(xùn)練的高計(jì)算成本問題。該研究證明了輕量級指令調(diào)優(yōu)對檢索增強(qiáng)語言模型的有效性,特別是在涉及大規(guī)模外部知識源的場景中。

    • srf-attention:一個(gè)提高深度學(xué)習(xí)模型訓(xùn)練效率的注意力機(jī)制

      注意力很有用,但計(jì)算成本很高。一旦訓(xùn)練完成,通過一些微調(diào)計(jì)算,您可以減少SRF注意力并消除對序列長度的依賴,從大大加快速度。它可以幫助研究人員和開發(fā)者更高效地構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型,提高模型的性能和效率。

    • 微軟人工智能研究人員泄露 38TB 數(shù)據(jù):包括密鑰、密碼和 Teams 消息

      微軟的人工智能研究員在GitHub上發(fā)布開源訓(xùn)練數(shù)據(jù)存儲桶時(shí),意外暴露了數(shù)十TB的敏感數(shù)據(jù),包括私鑰和密碼。云安全初創(chuàng)公司W(wǎng)iz發(fā)現(xiàn)了這個(gè)屬于微軟AI研究部門的GitHub倉庫,并將其作為其持續(xù)進(jìn)行的云托管數(shù)據(jù)意外曝光工作的一部分分享給TechCrunch。」微軟表示,由于Wiz的研究,它已經(jīng)擴(kuò)展了GitHub的秘密掃描服務(wù),該服務(wù)可以監(jiān)控所有公開源代碼的更改,以防明文暴露憑證和其他秘密,包括任何可能具有過度許可過期或權(quán)限的SAStoken。

    • 斯坦福大學(xué)研究人員提出MAPTree算法,改進(jìn)決策樹建模

      決策樹是一種廣泛使用的著名機(jī)器學(xué)習(xí)算法,可用于分類和回歸任務(wù)。斯坦福大學(xué)的研究人員在最新論文中提出了一種稱為MAPTree的決策樹歸納算法,這是基于貝葉斯決策樹理論的一種改進(jìn)方法。這項(xiàng)突破不僅利于決策樹算法本身的發(fā)展,也為決策樹在數(shù)據(jù)挖掘等領(lǐng)域的應(yīng)用帶來了新的契機(jī)。

    熱文

    • 3 天
    • 7天