ちなみに今年の大会に向け新作は作っており、それはまずまずいい仕上がりにはなっているものの、具体的にターゲットとする大会とその開催日が不明で、最後の仕上げみたいなのが着手できない感じである。。。
経験上新作マウスを作る場合はGWくらいまでに基本的な調整を済ませて迷路を走れていないと大会でいい走りをするのが難しく、今年は世の情勢的にそれ以上のペースで開発ができているものの、その先いつ大会があるかわからないので他のネタを仕込もうかと思ったわけである。
さて、前置きが長くなってしまったが、今回はJetson Nano積んだマウス的なのでSLAMで走行したら面白いんじゃないか?というお話。そういえば私の本業がこういう感じのロボットなのもありまして。
きっかけは、2019年の全日本大会で、副賞としてJetson Nanoをいただいていることである。
また、2018年全日本大会では、副賞としてTurtlebot3をいただいていることを思い出し、開発に着手した。
これは、下記メーカー公式動画の通り、空間認識技術によって一度通ったルートを自動で走行できるロボットである。
空間認識にはTOF方式の距離センサを回転させて空間のある平面上の各点の距離を計測する2次元Lidarセンサや、ステレオカメラによる三角測距で距離情報付きでRGB値が取得できるIntelのRealsenseカメラを用いる。それぞれのセンサの長所として、2次元Lidarセンサは特定の平面しか見れないが360度全方向監視できること、Realsenseカメラは全方向は見れない(今回のやつでは視野角70度くらい)が、3次元の物体の距離情報を得ることができるということがあげられる。
TOF計測やカメラの三角測距では、良いものでも100mm以下での計測はあまり得意ではなく、クラッシックマウスでも迷路中央に車体があるとき真横の壁が見えないわけである。
じゃあどうするのってことでやってみたらそれなりにうまくいく方法が見つかった。それはまた次回。
0 件のコメント:
コメントを投稿