豐田研究院(TRI)利用生成式 AI 在一個(gè)“機(jī)器人幼兒園”中教機(jī)器人如何做早餐,或者至少是做早餐所需的各個(gè)任務(wù)。他們并不需要花費(fèi)數(shù)百小時(shí)的編碼和調(diào)試,而是通過給機(jī)器人一個(gè)觸覺感知器,將它們接入一個(gè) AI 模型,然后像教一個(gè)人類一樣,向它們展示如何做。
研究人員表示,觸覺感知是“一個(gè)關(guān)鍵的推動(dòng)因素”。通過給機(jī)器人安裝一個(gè)“大而軟的拇指”,模型可以“感受”它正在做的事情,從而獲得更多的信息,這使得一些困難的任務(wù)比僅靠視覺更容易完成。
該實(shí)驗(yàn)室的靈巧操作經(jīng)理本?伯奇菲爾德(Ben Burchfiel)稱,看到它們與環(huán)境互動(dòng)是“令人興奮的”。首先一個(gè)“老師”會(huì)展示一系列技能,然后在“幾個(gè)小時(shí)內(nèi)”,模型就在后臺(tái)學(xué)習(xí)。他補(bǔ)充說,“我們經(jīng)常在下午教一個(gè)機(jī)器人,讓它在夜間學(xué)習(xí),然后第二天早上就能看到一個(gè)新的行為。”
研究人員稱,他們?cè)噲D為機(jī)器人創(chuàng)建“大行為模型”(LBMs)。類似于 LLMs 是通過注意人類寫作中的模式來訓(xùn)練的,豐田的 LBMs 將通過觀察來學(xué)習(xí),然后“泛化”,執(zhí)行它們從未被教過的新技能。
使用這種方法,研究人員說他們已經(jīng)訓(xùn)練了 60 多個(gè)具有挑戰(zhàn)性的技能,如“倒液體、使用工具和操縱可變形物體”,他們希望到 2024 年底將這個(gè)數(shù)字提高到 1000。
IT之家注意到,谷歌也在進(jìn)行類似的研究,與豐田研究人員采用的方法類似,他們的機(jī)器人 RT-2 利用自己獲得的經(jīng)驗(yàn)來推斷如何做事情。理論上,經(jīng)過 AI 訓(xùn)練的機(jī)器人最終可以不需要太多的指令就能執(zhí)行一些任務(wù)。


產(chǎn)品與服務(wù)
聯(lián)系站長(zhǎng)
關(guān)于我們