視覚・言語・動作を統合するVLA(Vision-Language-Action)制御技術で、Embodied Intelligenceを実現し、製造・リサイクル・物流の現場に革新をもたらします。
活用例 | 廃棄物自動選別 | 分解作業(両手) | 教育・研究 |
---|---|---|---|
Robot | Franka | ALOHA | Franka/ALOHA |
VLAの役割 | リチウムイオン電池等の色・形状を認識し、指示通りに把持・分類 | 両手でラベルを外す、蓋を開けるなどの複雑動作 | 学習・実験用として、自然言語操作が可能なロボット教材 |
画像認識 | 大規模マルチモーダルモデルLMM、物体検出、YOLO、SAM(Segment Anything Model)等 |
---|---|
言語理解 | 大規模言語モデルLLM |
制御インタフェース | Franka API, ALOHA SDK, ROS2等 |
VLA制御 | 視覚認識・自然言語理解・運動制御を統合し、人間の“意図”を理解して動くAIシステム |
FrankaとALOHA(両手) | 2種の協働ロボットによる柔軟な知的動作 |
Human-Robot Interaction(HRI) | マルチモーダルAIで実現する“対話可能なロボットアシスタント” |
VLA遠隔データ収集システム
VLAロボットデモ@NEW環境展2025