非常に俊敏な動作を行う4つ足のロボットは、最近動画などでよく見かけるようになりました。
しかし、こうしたロボットの動作が向上してくると、地形のわずかな隙間を飛び越えることが難しくなってきます。
マサチューセッツ工科大学(MIT)などの研究チームは、この問題をロボット前方に搭載したカメラによる視覚情報のみを使って解決させる、新しい制御システムを開発しました。
隙間のクリアには視覚情報が重要となりますが、俊敏なロボットに視覚制御はあまり適していません。
視覚を使ってパワフルなロボットを制御する今回のシステムは、4つ足ロボットの対応地形をさらに広げる可能性があります。
研究の詳細は、、来月開催される「Conference on Robot Learning」で発表される予定です。
目次
- 制御が難しくなった4つ足ロボット
- 視覚情報をリアルタイムに処理して動きを制御する
制御が難しくなった4つ足ロボット
野生のチーターは起伏のある複雑な地形の隙間を縫うように、さっそうと駆け抜けることができます。
現在、そんなチーターのような動物の動きを参考にした四足ロボットが飛躍的に進歩を遂げていますが、彼らは本物のチーターのように高低差のある地形を自在に駆け抜けることはできません。
大抵、実験室内で走り回るロボットは、事前に地形をマッピングしたデータを持っていて、それに応じて動きを制御しています。
こうした情報なしに走った場合、ロボットはちょっとした隙間に引っかかって、うまく走ることができなくなってしまいます。
はじめての地形で、うまく隙間を避けるためには、視覚を使う必要があります。
しかし、足の運動の制御に視覚を取り入れるという方法は、現在の俊敏性を増したロボットのシステムにはうまく適合できません。
そこで今回の研究チームは、ロボットの速度と俊敏性を維持したまま地形の隙間を飛び越えるための新しいシステム開発に取り組んだのです。
視覚情報をリアルタイムに処理して動きを制御する
チームが開発した新しいシステムは、2つのコントローラから構成されています。
コントローラとは、ロボットの状態を一連の行動に変換するアルゴリズムのことです。
1つ目はロボット前面に取り付けられたビデオカメラからの入力を、リアルタイムで処理するニューラルネットワークの上位コントローラです。
これは人間で言えば学習する脳にあたる機能です。
2つ目はロボットの持つ12箇所の関節のトルクを算出する低位コントローラーです。これはニューラルネットワークではなく、単純にロボットの動きを簡潔に物理方程式で示すだけのものです。
こちらのほうは、ある意味では反射的な反応を行う脊髄のような役割をしていると言えるでしょう。
1つのロボットの制御を脳と脊髄の2つのコントローラーに分割することで、より生物に近い動きを期待できます。
基礎的な設計が終わると、チームは1つ目のニューラルネットワークをまずはシミュレーションによって学習させ、視覚的に取得された前方の地形情報と、現在の自分の状態(関節角度、体の向き)の情報を元に、リアルタイムに動きを制御できるようにしました。
そして、次に何百もの不連続な地形を走るシミュレーションを行い、最適な解決法を学んだロボットに対し、次は現実世界の隙間のある木板の上を走らせる実験を行いました。
しかし、シミュレーションとは異なり、現実のセンサーにはノイズがあるため、これが蓄積して実際の自分の体の状態をロボットがうまく認識できない状態が発生しました。
そこで、チームは、モーションキャプチャーを使って、ロボットに自分の正しい状態を認識できるようにして実験を継続したのです。
これはロボットに自らの姿勢を認識させる役割を果たしました。
これにより、ロボットは90%近い地形を飛び越えることに成功します。
重要なのはロボットの歩行を調節することでした。
人間が大きな隙間を飛び越えようとした場合、まず全力で走ってスピードをあげ、両足を揃えて力強くジャンプしてます。
ロボットも同様に足を踏み入れるタイミングや時間を調節して、地形をうまく乗り越えるのです。
ロボットが視覚情報を元にして、リアルタイムに地形をクリアできるようになれば、彼らの活動可能な地形は大きく広がることになります。
今回は、まだ実験室内に留まるものですが、研究者たちはモーションキャプチャーも利用せず、外の地形で軽やかに走り回れるよう、改良を重ねていくと話しています。
参考文献
One giant leap for the mini cheetah
https://news.mit.edu/2021/one-giant-leap-mini-cheetah-1020
元論文
Learning to Jump from Pixels
https://openreview.net/forum?id=R4E8wTUtxdl