av中文字幕观看,亚洲一级一级,91国视频,日本一二三区在线观看,夜夜操女人,亚洲一区二区二区久久成人婷婷,91色九色

協(xié)同加速,多機器人協(xié)作不再「慢半拍」!軟硬一體化框架ReCA破解具身智能落地效率瓶頸

來源:機器之心

點擊:1767

A+ A-

所屬頻道:新聞中心

關(guān)鍵詞:機器人 協(xié)同具身智能系統(tǒng)

    從倉庫里的物流機器人到科幻電影中的「賈維斯」,我們對智能機器人的想象從未停止。學(xué)術(shù)界在模擬器里實現(xiàn)了越來越復(fù)雜的協(xié)作任務(wù),工業(yè)界也讓機器人學(xué)會了韋伯斯特空翻。


    然而,一個殘酷的現(xiàn)實是:當下的機器「人」更像是提線木偶,而非真正自主的智能體。


    想象一下,機器人每做一個動作都要延遲十幾秒,完成同樣的任務(wù)比人類慢上十倍,這樣的效率如何走入我們的生活?這個從虛擬到現(xiàn)實的「最后一公里」,其瓶頸常常被忽視:高昂的時間延遲和低下的協(xié)作效率。它像一道無形的墻,將真正的具身智能困在了實驗室里。



    為了打破這一僵局,來自佐治亞理工學(xué)院、明尼蘇達大學(xué)和哈佛大學(xué)的研究團隊將目光從單純的「成功」轉(zhuǎn)向了「成功且高效」。他們推出了名為 ReCA 的集成加速框架,針對多機協(xié)作具身系統(tǒng),通過軟硬件協(xié)同設(shè)計跨層次優(yōu)化,旨在保證不影響任務(wù)成功率的前提下,提升實時性能和系統(tǒng)效率,為具身智能落地奠定基礎(chǔ)。


    簡單來說:ReCA 不再滿足于讓智能體「完成」任務(wù),而是要讓它們「實時、高效地完成」任務(wù)。


    這份工作發(fā)表于計算機體系結(jié)構(gòu)領(lǐng)域的頂級會議 ASPLOS'25,是體系結(jié)構(gòu)領(lǐng)域接收的首批具身智能計算論文,同時入選 Industry-Academia Partnership (IAP) Highlight。


    三大瓶頸:

    當前模塊化具身智能的「效率之殤」

    研究團隊首先對當前的協(xié)同具身智能系統(tǒng)(如 COELA, COMBO, MindAgent)進行了系統(tǒng)性分析,定位了三大性能瓶頸:


    高昂的規(guī)劃與通信延遲: 系統(tǒng)嚴重依賴基于 LLM 的模塊進行高階規(guī)劃和智能體間通信。每一步行動都可能涉及多次 LLM 的順序調(diào)用,其中網(wǎng)絡(luò)延遲和 API 調(diào)用成本更是雪上加霜,使得實時交互成為奢望。



    有限的可擴展性: 隨著智能體數(shù)量的增加,去中心化系統(tǒng)會面臨通信輪次爆炸性增長和效率下降的問題;而中心化系統(tǒng)則由于單一規(guī)劃者難以處理復(fù)雜的多智能體協(xié)同,導(dǎo)致任務(wù)成功率急劇下滑。



    底層執(zhí)行的敏感性: LLM 生成的高階計劃需要被精確翻譯成底層的控制指令,底層執(zhí)行的效率和魯棒性直接關(guān)系到任務(wù)的成敗。


    ReCA 的「三板斧」:

    從算法到系統(tǒng)再到硬件的跨層協(xié)同優(yōu)化

    針對上述挑戰(zhàn),ReCA 提出了一個貫穿算法、系統(tǒng)和硬件三個層面的跨層次協(xié)同設(shè)計框架,旨在提升協(xié)同具身智能系統(tǒng)的效率和可擴展性。



    算法層面:更聰明的規(guī)劃與執(zhí)行

    本地化模型處理: 通過部署更小的、本地化的經(jīng)過微調(diào)的開源 LLM,ReCA 擺脫了對外部 API 的依賴,消除了網(wǎng)絡(luò)延遲瓶頸,同時保障了數(shù)據(jù)隱私。


    規(guī)劃指導(dǎo)下的多步執(zhí)行: 顛覆了傳統(tǒng)「規(guī)劃一步、執(zhí)行一步」的模式。ReCA 讓 LLM 一次性生成可指導(dǎo)連續(xù)多步底層動作的高階計劃,大幅減少了 LLM 的調(diào)用頻率,顯著降低了端到端延遲。



    系統(tǒng)層面:更高效的記憶與協(xié)作

    雙重記憶結(jié)構(gòu): 借鑒了人類認知的「雙系統(tǒng)理論」,ReCA 設(shè)計了長短時記憶分離的結(jié)構(gòu)。

    長期記憶以圖結(jié)構(gòu)存儲環(huán)境布局等靜態(tài)信息。

    短期記憶則動態(tài)刷新智能體狀態(tài)、任務(wù)進度等實時信息。

    有效解決了 LLM 在長任務(wù)中 prompt 過長導(dǎo)致「遺忘」關(guān)鍵信息的痛點,提升了規(guī)劃的連貫性和準確性。



    分層協(xié)作規(guī)劃: 為了解決擴展性難題,ReCA 引入了一種新穎的分層協(xié)作模式。在小范圍的「簇」內(nèi),采用「父-子」智能體的中心化模式高效規(guī)劃;在「簇」之間,則采用去中心化模式進行通信,更新彼此進度。這種混合模式兼顧了規(guī)劃效率和系統(tǒng)規(guī)模。



    硬件層面:更專業(yè)的加速單元

    異構(gòu)硬件系統(tǒng): ReCA 為高階和低階規(guī)劃匹配了最合適的計算單元。它采用 GPU 子系統(tǒng)處理 LLM 的高階規(guī)劃,同時為精準路徑規(guī)劃等低階任務(wù)設(shè)計了專門的硬件加速器。


    專用路徑規(guī)劃處理器: 研究表明,在系統(tǒng)優(yōu)化后,原本占比不高的 A-star 路徑規(guī)劃延遲會成為新的瓶頸。ReCA 的專用 A-Star Processing Unit(APU)通過定制化的計算單元和訪存設(shè)計,大幅提升了低階規(guī)劃的效率和能效。



    效率提升:

    5-10 倍速度提升,成功率不降反升

    通過跨越六個基準測試和三大主流協(xié)同系統(tǒng)的評估,ReCA 展現(xiàn)了其強大的實力:


    效率: 在任務(wù)步驟僅增加 3.2% 的情況下,實現(xiàn)了平均 5-10 倍的端到端任務(wù)加速。原本需要近一小時的復(fù)雜任務(wù),ReCA 能在 20 分鐘內(nèi)完成。



    成功率: 在大幅提升速度的同時,任務(wù)成功率平均還提升了 4.3%。這得益于其優(yōu)化的記憶和協(xié)作機制,證明了效率與性能可以兼得。


    可擴展性: 即使在 12 個智能體的大規(guī)模協(xié)作場景下,ReCA 依然能保持 80-90% 的高成功率,而基線系統(tǒng)的成功率已跌至 70% 以下。



    能效: 其定制的 A-star 硬件加速器(APU)相較于 GPU 實現(xiàn),取得了 4.6 倍的速度提升和 281 倍能效改進。


    ReCA 的意義,遠不止于一組性能提升的數(shù)據(jù)。它更像一塊基石,為具身智能的未來發(fā)展鋪設(shè)了三條關(guān)鍵路徑:


    從「能用」到「好用」的跨越: 此前,研究的焦點大多是如何讓機器人「成功」完成任務(wù)。ReCA 則明確地提出,「成功且高效」是更關(guān)鍵的目標。這項工作有助于推動領(lǐng)域的研究范式轉(zhuǎn)變,讓延遲、效率和可擴展性也成為衡量具身智能系統(tǒng)的核心指標,加速其在家庭服務(wù)、智能制造等場景的落地。


    「軟硬協(xié)同」釋放效能提升: ReCA 通過算法、系統(tǒng)、硬件的跨層次協(xié)同優(yōu)化,突破了過往「單點優(yōu)化」的局限。未來的具身智能系統(tǒng),有望像 ReCA 一樣,在不同層面協(xié)同設(shè)計的產(chǎn)物。它為 GPU 處理高階規(guī)劃、硬件加速器處理底層精確任務(wù)的異構(gòu)計算模式提供了范本,為下一代機器人「大腦」+「小腦」的設(shè)計提供了一種可行方案。


    突破瓶頸,解鎖想象力: 當延遲不再是瓶頸,我們可以大膽想象:一個機器人管家團隊能在你下班前,實時協(xié)作,烹飪好一頓豐盛的晚餐,并打掃干凈房間;又或者在災(zāi)難救援現(xiàn)場,多個機器人能實時共享信息,高效協(xié)同,在黃金救援時間內(nèi)完成搜索與拯救任務(wù)。在自動化科學(xué)實驗室里,機器人集群能夠 7x24 小時不間斷地進行復(fù)雜的協(xié)同實驗,以前所未有的速度推動科學(xué)發(fā)現(xiàn)。


    總而言之,ReCA 的工作不僅解決了一個關(guān)鍵的技術(shù)瓶頸,更是為具身智能從實驗室走向真實世界,架起了一座堅實的橋梁。我們距離那個能實時響應(yīng)、高效協(xié)作的「賈維斯」式智能助手,確實又近了一大步。

    (審核編輯: 光光)

    聲明:除特別說明之外,新聞內(nèi)容及圖片均來自網(wǎng)絡(luò)及各大主流媒體。版權(quán)歸原作者所有。如認為內(nèi)容侵權(quán),請聯(lián)系我們刪除。