快科技3月21日消息,今天下午,理想汽車(chē)詳細(xì)介紹了MindVLA大模型與現(xiàn)有端到端 VLM大模型的區(qū)別,并公布了相關(guān)實(shí)測(cè)視頻。
按能力表現(xiàn)來(lái)看,MindVLA 模型加持下的汽車(chē)就像一個(gè)助手,能與用戶溝通、理解用戶意圖,幫用戶做更多事情。
比如,它可以在陌生車(chē)庫(kù)漫游找車(chē)位直至自主完成泊車(chē);
可以按照駕駛員的開(kāi)快點(diǎn)、開(kāi)慢點(diǎn)、左拐、右拐”等語(yǔ)音指令進(jìn)行行動(dòng);
可以在你發(fā)給它地標(biāo)照片后,按圖索驥找到你等等。
理想汽車(chē)還表示,MindVLA是理想汽車(chē)下一代自動(dòng)駕駛核心架構(gòu),使用了MindGPT作為語(yǔ)言基座,demo中的語(yǔ)音通過(guò)座艙的ASR后變成文字,輸入給 MindVLA。
這一設(shè)計(jì)繼承自 MindGPT 在語(yǔ)言理解與交互領(lǐng)域的優(yōu)勢(shì)能力(如語(yǔ)義解析、邏輯推理等),并針對(duì)自動(dòng)駕駛場(chǎng)景進(jìn)行了專項(xiàng)優(yōu)化。
這體現(xiàn)了智艙與智駕在功能層的協(xié)同創(chuàng)新,而非系統(tǒng)層的完全融合。
未來(lái),我們將持續(xù)探索多模態(tài)交互與駕駛決策的深度耦合,為用戶提供更自然的人車(chē)共駕”體驗(yàn)。
(舉報(bào))