ロボット用のAI
ロボット用のAIで会話であればLLM「でよい」かもしれませんが、実態のあるロボットを行動させるAIについてはまた
別次元の難しさがあるようです。
世界系を理解し、刻々と変化する物理的な環境を正確に認識した上で、自身の身体を動かし、目標を達成するための複雑な行動計画を立案・実行する能力が不可欠となります。
LLMが言葉の持つ意味や文脈を理解し、論理的な推論を行うのに対し、ロボットAIはセンサーから得られる膨大なデータをリアルタイムで統合し、三次元空間における物体、空間、そして自身との位置関係を把握しなければなりません。
さらには物法則を加味しつつ、具体的に「自分自身の体が動く(壊れないように動く)」範囲で動作するという
高度なものになります。
かたい物体ならまだ良いですが
柔らかい物体をつかんだり、洗濯物を畳んだりは意外に難しいようです。
擬似環境で学習するロボット
ロボットは物理的な体を持ちますが、毎回そこでトライアンドエラーを繰り返すのは非効率です。
柔らかい物体をつかむ際の力の加減を学ぶために、何千回も実際に物を落としたり壊したりすることは、時間もコストもかかる上、危険も伴います。
そこでコンピュータ内に疑似環境(シミュレーション環境)」を構築してそこで繰り返し作業をし学習します。
擬似環境内では、ロボットは仮想的なセンサーを通じて周囲の状況を認識し、仮想的なアクチュエータを介して自身の体を動作させます。
(疑似環境内のロボットの作動範囲限界とかは、現実のロボットと同じようになるようにしないと意味ないので注意が必要ですね)
シミュレーションでは
- 物理エンジンによる重力や摩擦、衝突などの挙動
- 物体の質感、硬さ、照明条件
- 自分と同じロボットが何十台と連携する、もしくは動作範囲に人間が入ってきた場合どうするか
などなど、安全にそして高速に学習します。
しかし、シミュレーションでも得られないものは現実世界の体(ロボット本体)で学習させねばなりません。
シミュレーション環境に案外構築するのが難しいのが、柔らか素材とか風など周辺環境影響・・・
シミュレーション自体の計算量が膨大になるものは、なかなか現状でも難しいようです。
未来予知
AIはある種の未来予知能力を持っています。
なんぞ?というと人間もなんとなく頭の中で次に目の前の物体がどう動くかを予想しているかと思います。
AIは、動画生成も最近はホットな話題です。
この動画生成が未来予知のカギとなります。
動画生成AIは、既存の画像や動画データから学習することで、時間の経過に伴うピクセルの変化パターンや、物理的な相互作用の法則を暗黙的に理解します。
この能力は、与えられた初期フレームや現在の状況から、未来のフレーム(状態)を生成する能力へと応用できます。
例えば、特定の行動を開始したロボットが、その行動の結果としてどのような物理的変化を引き起こすか(例:物を掴んだらどうなるか、押したらどう転がるか、洗濯物がどう畳まれるか)を、あたかも未来の動画を生成するように予測できるのです。
動画生成AIの進化はこんなところでも役に立つのでありました。
楽しみである今後のロボット最前線
ロボットは今後も目覚ましい進化を遂げていくことでしょう。
そのためにはまだ多くの課題を克服する必要がありますが、それらを乗り越えた先には、きっと新たな世界の扉が開かれるはずです。
その未来に大きな期待が寄せられます。
AI自体も、ほんの少し前まではSFの世界の出来事と考えられていましたが、今やLLMの飛躍的な発展により、様々な分野でAIが不可欠な存在となっています。
このAIの急速な進化の軌跡をたどるように、ロボットもまた、近い将来に飛躍的な発展を遂げることと確信しています。
大変楽しみです!