豐田正在”機器人幼兒園”製造AI訓練的早餐機器人
豐田研究所(TRI)在”機器人幼兒園”中使用了生成式人工智慧來教機器人做早餐–或至少是做早餐所需的單一任務,而且不需要數百小時的程式設計和錯誤修復。相反,研究人員透過賦予機器人觸覺,將它們連接到人工智慧模型,然後像教導人類一樣教它們怎麼做,短時間就實現了這一目標。 研究人員說,觸覺是”一個關鍵的推動因素”。透過讓機器人伸出你在下面影片中看到的枕頭般的大拇指(我的說法,不是他們的),模型就能”感覺”到自己在做什麼,從而獲得更多資訊。這就讓困難的任務比單靠視覺更容易完成。 實驗室靈巧操作部經理本-伯奇菲爾(Ben Burchfiel)說,”看到它們與環境互動,令人興奮”。首先,”老師”示範一套技能,然後”在幾個小時內”,模型在後台學習。他補充說:「我們經常在下午教一個機器人,讓它學習一整夜,然後在第二天早上就可以看到它的新行為」。研究人員說,他們正試圖為機器人創建”大型行為模型”(Large Behavior Models),或稱LBM。麻省理工學院機器人學教授、TRI 公司機器人研究副總裁拉斯-泰德雷克(Russ Tedrake)說:”與透過記錄人類書寫模式來訓練LLM 類似,豐田的LBM 將透過觀察來學習,然後”泛化,執行一項它們從未被教授過的新技能”。研究人員說,利用這一過程,他們已經訓練了60 多種具有挑戰性的技能,如”倒液體、使用工具和操縱可變形物體”。他們希望在2024年底將這一數字提高到1000。Google和特斯拉也一直在對其Robotic Transformer RT-2 進行類似的研究。與豐田公司研究人員的方法類似,他們的機器人也是利用自己的經驗來推論如何做事。從理論上講,經過人工智慧訓練的機器人最終可以在幾乎沒有任何指令的情況下執行任務,而只需要給人類一個大致的指示(例如”清理溢出物”)。但正如《紐約時報》在報導這家搜尋巨頭的研究時所指出的那樣,Google的機器人至少還有很長的路要走。這種工作通常是”緩慢且勞動密集的”,提供足夠的訓練資料比向人工智慧模型提供大量從網路上下載的資料要難得多。