原子力基盤技術データベースのメインページへ

作成: 1999/02/10 樋口 健二

データ番号   :120022
人間動作シミュレーション技術の研究 -視覚認識-
目的      :視覚情報に基く移動ロボットの自己位置認識技術の開発
研究実施機関名 :日本原子力研究所計算科学技術推進センター
応用分野    :原子力施設の保守・点検、自律型ロボット、自律型プラント

概要      :
 移動ロボットの自己位置同定プログラムの開発について述べる。このプログラムは、カラーCCDカメラで撮影した環境内の機器の画像から特徴点を抽出し、あらかじめ登録されている環境中の特徴点に関する地図情報と比較することによって移動ロボットの現在位置を同定することを目的とし開発された。また、移動ロボットに搭載可能な原子力施設内巡回点検用センシングシステムによって撮影された、JRR-3 模擬環境内の機器の画像を用いて、このプログラムの実用可能性を検証した。
 

詳細説明    :
 人間動作シミュレーション技術の研究における「環境認識技術の研究」の一貫として、移動ロボットの自己位置同定プログラムの開発を行なった。移動ロボットが原子力施設内を巡回点検することを想定した場合、施設内の機器の点検作業、また施設内の移動そのものに対しても、ロボットの現在位置の情報は必要不可欠である。
 
 通常、移動ロボットは、移動距離や移動方向を内部センサによって測定しながら移動している。しかし、その値は出発点からの相対的な値であるため、移動距離が長くなるにつれて、測定誤差が蓄積され、信頼性の低い値となってしまう。よって、任意の位置において、移動ロボット自身の絶対的な位置を獲得し、現在位置のデータを修正する必要がある。
 
 絶対的な位置データを獲得するために、容易かつ高精度が見込まれる方法として、ロボットの作業環境に、識別し易い特殊なマークなどを設置することが考えられる。しかし、この方法は、ロボットのために環境に手を加える必要があり、また、そのような特殊なマークがない環境では、ロボットは移動できないこととなる。別の方法としては、あらかじめ環境内にある機器などの位置関係から、絶対的な位置情報を得る方法である。この方法では、ロボットために環境を変える必要がなく、機器などに関する地図データがある環境ならば、ロボットが移動できることになる。
 
 よって、今回の研究では、原子力施設内の機器が設置されている台座の頂点と稜線を特徴点として検出し、その位置を環境内の機器の位置データと比較し、ロボットの絶対的な位置を決定する移動ロボットの自己位置同定プログラムを開発した。通常、原子力施設内の機器は、漏水からの保護のため、台座の上に設置されていることが多いことから、台座の頂点と稜線は、原子力施設内の任意の位置で絶対的な位置を同定するためには、都合の良い特徴点である。
 
 以下に、開発された自己位置同定プログラムのアルゴリズム及び、JRR-3 の模擬環境中でのプログラムの検証実験について記述する。
 
 自己位置同定のアルゴリズムの概要は、次のとおりである。
 
(1) ロボット停止後、ロボット内部のセンサによって測定された相対的な位置データと、機器の位置データに基づき、最も近い特徴点(台座の頂点)の位置を探索し、その方向に CCD カメラを向ける。
 
(2) 台座の頂点を含むカラー画像を獲得し、画像処理過程によって、画像中の座標における頂点の位置及び稜線の方向を抽出する。
 
(3) 画像中の頂点の位置と稜線の方向を、環境座標中での値に変換し、機器の位置データと比較し、ロボットの現在の位置及び向きの絶対的な値を得る。
 
 このプログラムの核の部分は、画像処理過程においてカラー画像を対象としていることである。これまでの研究では、カラー CCD カメラのコストや計算機の処理性能の点から、画像処理の対象として白黒画像が多く使われてきたが、今回の研究では、図1 に示すようなカラー画像の色情報(色相)を用い、必要な画像領域を抽出し、効率的に画像処理を行ない、特徴点の検出を行なっている。画像処理の流れを図2に示す。


図1 性能評価に用いたカラー画像 (原論文1より引用。 Reprinted from Data source 1 below with permission from Cambridge University Press.)



図2 細線化画像を得るためのフローチャート (原論文1より引用。 Reprinted from Data source 1 below with permission from Cambridge University Press.)

 JRR-3 の模擬環境内の機器の台座の画像を、移動ロボットに搭載することを目的として開発した原子力施設内巡回点検用センシングシステム(図3)のカラー CCD カメラで撮影し、開発した自己位置同定プログラムによる位置同定の実験を行なった。実験の結果、カメラと頂点の距離が約 2.3 m の時、自己位置の最大誤差が約 5 cm、 約 0.7 m の時、約 1.5 cm 程度となった。また向きの最大誤差は約 1.1 度 であった。さらに特徴点を抽出するための計算時間は、Sun のワークステーションで約 130 秒であった。この結果から、精度の面では、近くの特徴点を使うことによって、実際の移動ロボットに使用できると思われる。計算時間の面では、現在は時間かかり過ぎているが、コンピュータの発展を考慮すると、今後解決される問題と思われる。


図3 実験に用いたセンシング・システム (原論文1より引用。 Reprinted from Data source 1 below with permission from Cambridge University Press.)

 

コメント    :
 自律的に移動するロボットの場合、自己位置認識機能は重要である。要求精度は、移動機構、環境形状、移動を失敗した場合の環境への影響度にも依存するが、例えば、二足歩行ロボットの階段昇降時には、数ミリ単位の精度が要求される。こういった場合、CCDカメラや世界モデルの精度を考慮すると、機器の特徴を用いた自己位置認識には限界があるため、主に特殊マークを使ったアプローチを適用しているのが現状である。今後、人間同様、移動機構からのセンシング情報(例えば、足裏の触覚センサからの情報)や移動中の視覚情報(例えば、環境との距離)を動的に使った、いわば、移動機構とセンシング・システムの連携による、移動技術の開発が必要となる。
 

原論文1 Data source 1:
Position localization for mobile robots using a colour image of equipment at nuclear plants
K. Ebihara, T. Otani and E. Kume
日本原子力研究所
Robotica, Vol.14, pp. 677-687 (1996).

キーワード:自己位置認識、原子力施設、カラー画像、移動ロボット、特徴抽出、人工知能、ロボティックス、グラフィックス
Position localization, Nuclear plant, Colour image, Mobile robot, Feature extraction, Artificial Intelligence, Robotics, Graphics
分類コード:120201, 120202

原子力基盤技術データベースのメインページへ