AMRナビゲーション・スポットライト・シリーズの第6回目のブログへようこそ!今回は、知覚とマッピングに使用できるセンサーに焦点を当てます。 前回のブログはこちらAMRのコントロールスタックがローカリゼーションデータを使用するさまざまな方法について説明しています。
自律移動ロボット 自律移動ロボット知覚」とは、ロボットが周囲の環境を感知する能力を指す。これには、表面や物体の識別、それらの距離などが含まれる。パーセプション・モジュールがこれらのものを発見すると、AMRの制御スタックの他の部分がその情報を使って以下のような様々なことを行う:
- 障害物が検出された場合、ロボットが障害物を回避するのを助ける。
- 充電ステーションや移動が必要な箱など、タスクに関連する機能やオブジェクトを特定する。
- ロボットのオペレーション・デザイン・ドメイン(ODD)のマップにデータを追加する。
マッピングは、しばしばパーセプションと同列に語られることがあります。AMRの世界では、"マッピング "とは、パーセプションデータを使用して、AMRのODDの2Dまたは3Dモデルを時間をかけて構築するプロセスのことです。知覚とは異なり、マッピングを行うには、グローバルフレームにおけるリアルタイムの位置や、原点からの相対的な位置など、ローカライゼーションデータが必要です。このローカライゼーションの一部によって、ロボットはマップが正確であることを確認し、AMRをマップ内に位置づけることができる。
このブログでは、知覚とマッピングに使用できるセンサーについてもう少し詳しく見ていき、AMR制御システムのプロトタイプで使用したセンサーの例を紹介します。
AMR知覚センサーとしてのカメラの使用
AMRの知覚センサーとして使用できるカメラには、さまざまな種類がある。非常に安価なローリングシャッターカメラから、紫外線や赤外線のような可視スペクトル以外の光を検出する非常に高価なカメラまで様々です。重要なのは、どのカメラもその視野の画像を生成しているということです。
AMRがその画像を利用するためには、ある程度の処理が必要になる。人間には検出できない幾何学的な物体を識別するために画像を分析し、2つの画像間でそれらの物体の位置を比較して動きを測定することが含まれるかもしれない。同じエリアを撮影する2台のカメラを設置し、両方の画像を処理して、画像内の物体が3D空間でどのように配置されているかを推定することもできる。より高価なカメラにはその処理が含まれており、すぐに使えるカメラ・レンジング・ソリューションが提供されるかもしれませんが、より安価なカメラでは、処理アルゴリズムを見つける(または自分で作る必要があります。以下のようなソフトウェア・ツールボックスがたくさんあります。 OpenCVのようなソフトウェアツールボックスがたくさんあります。
AMR知覚センサーとしてのLiDAR
LiDARは、自律移動ロボットの測距センサーに使用される一般的な技術のひとつです。LiDARの仕組みを簡単に説明すると、レーダーやソナーのようなものだが、光によるものだ。レーダーやソナーがどのように機能するのかご存じない方は、これを試してみてください:LiDARは、環境の表面で反射する光のパルスを送信することで機能する。戻ってくる光パルスはレシーバーで検出され、センサーはレーザーが送信されてから受信されるまでの時間を使って、物体とセンサー間の距離を計算する。
1秒間に何百万ものパルスを送信することで、LiDARは周囲の世界の点群として知られているものを構築する。
AMRで使用されているさまざまなタイプのLiDAR
LiDARには2つのタイプがある:3Dセンサーは(予想通り)環境の3D点群を生成し、2Dセンサーはより見取り図のような点群を生成する。どちらを使用するにしても、AMRで最も一般的なセットアップは、車両の上部に取り付けられた回転するLiDARを使用するか、異なる方向を向いた複数のセンサーを使用するかの2つです。センサーの配置に正解も不正解もありません。AMRがどのようなタスクを達成しようとしているかによります。
LiDARが人気なのにはいくつかの理由がある。点群には何十億もの点が含まれているため、測定値の信頼性が非常に高くなります。LiDARはまた、センサーが "アクティブ"(それ自身の光源を発する)であるため、カメラが直面する多くの問題を免れる。LiDARの唯一の懸念は、水、雪、ガラスなどの反射率の高い表面です。また、純粋に実用的な観点からは、2D LiDARを使用する場合、検出したいものを検出するために適切な高さに設置する必要があります!
この良いニュースとのバランスを取るために、LiDARはリストの中で最も高価な技術である。自律航法に十分な性能を発揮する3D LiDARは、5,000ポンドから8,000ポンドもする。ですから、あなたのアプリケーションに3D LiDARが必要なのか、2Dで十分なのか、あるいは全く別のタイプのセンサーを使うことができるのか、検討する価値があります。
レーダー、ソナー、超音波知覚センサー
レーダー、ソナー、超音波はすべて、LiDARやカメラと同様にAMRプラットフォームで使用されるセンサー技術です。すでに述べたように、これらはすべてLiDARと同じように機能する。何かを発信し、それが物体に当たって跳ね返り、センサーに戻ってくる。センサーは飛行時間から物体までの距離を計算する。要約すると
- レーダーは電波を使用する。LiDARよりも長い距離で作動し、雨や埃の多い条件下でも有効だが、同じレベルの詳細な情報は得られない。
- ソナーは音を使い、水中で使用されるため、自律型のボートや潜水艦以外ではあまり目にすることはない。
- 超音波も音を使用するが、特に高周波の音を使用し、主に陸上で使用される。音が高周波であるため、超音波は一般的に低距離の用途に限定される(例えば、駐車センサーでは一般的な技術である)。
知覚センサーを使ってAMRの地図を作る
知覚センサーは周囲の世界に関する情報を取得するため、それらが生成するデータを使ってAMRの周囲の世界の地図を作成するのは当然のことだ。これらのマップは、前回のブログで紹介したように、パスプランニングに使用することができ、AMRが障害物を避けながら目的地に到達するのに役立つ。AMRが作成した地図は、それ自体で役に立つこともある。例えば、建設現場を移動するローバーが作成した地図は、現場視察の目的やインフラの検査に使用することができる。
マッピングは、LiDAR技術がAMRに普及している理由のひとつでもある。LiDARによって生成された点群は、地図構築アルゴリズムやソフトウェアの出発点として最適だからだ。しかし、AMRが使用できる地図形式は他にもあり、占有グリッド地図、セマンティック地図、トポロジカル地図などがある。
もちろん、知覚センサーが地図データを生成する作業の大部分を担っている一方で、正確なローカライゼーション・データが優れた地図作成に絶対不可欠であることに注意することは重要です。ローカライゼーション・データがなければ、AMRは作成したマップを周囲の世界と関連付けることができないため、ナビゲーション、パスプランニング、障害物回避に使用することができません。また、時間の経過に伴う環境の変化を把握したい場合、AMRが環境のスナップショットを撮ったとき、AMRがどこにいたかを正確に知る必要があるため、正確な、あるいはより重要であると言っても過言ではない、再現可能なローカリゼーションデータは非常に重要です。そのためOxTS xRED3000 GNSS/INSはAMRに正確な位置データを提供するように設計されています。

念のため、AMRのローカライゼーションについては、以下の記事をご覧ください。 最初のスポットライト記事.
マッピングには一般的に、リアルタイムで行うか、事前に調査した地図を使うかの2つの選択肢がある。
リアルタイムマッピング
測位データが十分で、十分な処理能力を搭載していれば、LiDARで収集した測距データと測位データを組み合わせて、リアルタイムで地図を作成することができます。これは、OxTS INSのようなものを使用する利点のひとつで、リアルタイムのマッピングが非常に簡単になります。
ローカリゼーションデータの品質が十分でない場合は、SLAMのようなものを利用するとよいだろう。SLAMとは、Simultaneous Localisation and Mappingの略で、その名の通り、ローカライゼーションとマッピングを同時に行うことです。最初の既知の出発点から、ロボットは環境内を移動し、LiDAR、INS、車輪速度センサーなどのセンサーからのオドメトリーデータを使って姿勢を推定します。知覚センサーが壁やその他の要素を検出すると、マップが構築される。AMRは、オドメトリデータだけでナビゲートする際に起こるドリフトを打ち消すため、定期的にマップに基づいた定位を試みる。マップを作成し、その中でロボットを定位させるというサイクルを繰り返すことで、マップとAMRの位置の精度が向上する。
SLAMがAMRで人気があるのは、高品質のローカライゼーションデータに依存しない非常にシンプルなソリューションだからです。しかし、SLAMを実行するにはそれなりのハードウェアが必要となるため、すべてのユースケースに適しているわけではありません。また、適切な品質のローカリゼーションデータがあれば、SLAMよりも少ない計算能力で、より優れたマッピング結果を得ることができます。
プリロードされた地図データの使用
AMRのもう1つのオプションは、既存の測量に基づき、その地域の既存の地図をAMRに与えることである。この方法では、AMRのODDをリアルタイムマッピングアルゴリズムよりも正確に測量できるため、より正確な地図を使用できることが多い。また、AMRが動作する前に環境を「学習」する必要がないことも意味します。
OxTS では、OxTS Georeferencer という点群ジオリファレンスツールを提供しています。これは、3D LiDARデータとOxTS INSデータを組み合わせて、高精度で完全に地理参照された点群を作成し、ナビゲーション用のAMRに入力することができます。
もちろん、AMRをうまく使うためには、その地図の中で自分自身をローカライズする方法が必要になる。
行動する知覚
前回の 前回のブログプロトタイプのAMRコントロール・スタックをご紹介しました。このスタックは、センサー・フュージョンとAMRインターフェースの能力を磨くために、OxTS 本部で使用しています。プロジェクトの一環として、我々は知覚センサーを使った障害物検知をテストしたかった。
目標は、ロボットの前方に障害物が検出された場合に、ロボットを減速・停止させるシステムを作ることだった。物事をシンプルにするため、ロボットはリアルタイムのマッピングを行わず、代わりにロボットが走行する経路を事前に計算した。私たちは、2D LiDARとステレオカメラという2つの知覚センサーを評価対象として選んだ。
各センサーはその目的を達成するために若干異なる。2D LiDARは、検出された障害物とセンサーの間の角度と距離の測定値を与えてくれる。ステレオカメラには2つのカメラがあり、それぞれ片側にオフセットされています。私たちはOpenCVの画像処理ツールボックスを使って2つの画像を分析し、合成画像の深度マップを作成しました。このマップは、画像の各ピクセルがロボットからどのくらい離れているかを示している。
両センサーとも、距離データが得られると、AMRは障害物がしきい値範囲内にあるかどうか(つまりロボットに近すぎるかどうか)を判断した。もしそうであれば、ロボットは物体からの距離に比例した速度で減速し、物体が近ければ近いほど減速が速くなる。障害物が近すぎる場合は、AMRは完全に停止する。
どちらも機能したが、最終的にはステレオカメラを選んだ。より鮮明な視界と、ロボットの主な進行方向である前方エリアに関するより多くの情報が得られたからです。それに比べ、2D LiDARは検出範囲が狭く、AMRの周囲の一定の高さしかスキャンできなかった。しかし、2D LiDARはより広い視野を持つため、AMRが旋回せずにさまざまな方向に移動することが予想される場合には、有効な選択肢となるかもしれません。
ハッピー・マッピングと知覚
これが このブログでは以上です!このブログで いかがでしたでしょうか?このブログがお役に立てば幸いです。 知覚特に、障害物の検知と回避のために知覚データを使用する私たち自身の例です。
自律型ロボットナビゲーション ソリューション概要
AMRは、ロボットの位置と向きを記録するだけでなく、屋内でも屋外でも動作するツールである。
このソリューション概要では、自律移動ロボットのローカライゼーションのソースを決定する際に、お客様に検討いただくことをお勧めする点について説明します。
ソリューション概要をお読みください。適切なロボットローカリゼーションソリューションがAMRプロジェクトにどのように役立つのか、プロジェクトに着手する前に自問自答すべき重要な質問を含めてご覧いただけます。
このブログを楽しんでいただき、AMRの旅を始めたばかりの方のお役に立てれば幸いです。
現在、AMRエンジニアのために何ができるのか、さらに詳しくお知りになりたい方は、こちらをご覧ください、 応募ページを見る.
また、具体的なプロジェクトについてご相談がある場合は、以下のフォームからお問い合わせください。私たちは、最新かつ最高のロボット工学プロジェクトについて話し合うことを常に楽しみにしています。
次回のブログは「プランニングとコントロール入門」です。