diff presen_text.md @ 10:3bee23948f70

nozomi-finish
author Nozomi Teruya <e125769@ie.u-ryukyu.ac.jp>
date Fri, 03 Jun 2016 10:06:35 +0900
parents f46e8b448eaf
children 71244076e066
line wrap: on
line diff
--- a/presen_text.md	Fri Jun 03 05:16:27 2016 +0900
+++ b/presen_text.md	Fri Jun 03 10:06:35 2016 +0900
@@ -55,7 +55,7 @@
 
 - Several service robots that act as companions to elderly people or as assistants to humans who require special care have been developed [13–18].
 いくつかのサービスロボットは高齢者への付き添いや、特別なケアを必要としている人のAssistantとして開発されている
- 
+
 
 # p7
 - We also have been developing an informationally structured environment for assisting in the daily life of elderly people in our research project, i.e., the Robot Town Project [2,19].
@@ -67,7 +67,7 @@
 
 #p8
 - Events sensed by an embedded sensor system are recorded in the Town Management System (TMS),
-埋め込まれたセンサーシステムによって感知されたイベントは TMS(Town management System) に記録され、 
+埋め込まれたセンサーシステムによって感知されたイベントは TMS(Town management System) に記録され、
 
 - appropriate information about the surroundings and instructions for proper services are provided to each robot [2].
 周囲の適切な情報と適切なサービスの支持は各ロボットに提供される。
@@ -81,7 +81,7 @@
 オブジェクトは埋め込まれたセンサまたはRFIDタグによって検出され、すべてのデータはTMSデータベースに格納される
 
 - A service robot performs various service tasks according to the environmental data stored in the TMS database in collaboration with distributed sensors and actuators, for example, installed in a refrigerator to open a door.
-サービスロボットは設置された冷蔵のドアを開けるといった、様々なサービスのタスクを 分散型センサーとアクチュエータの共同の TMS データベースに格納されている環境データに応じて実行する。 
+サービスロボットは設置された冷蔵のドアを開けるといった、様々なサービスのタスクを 分散型センサーとアクチュエータの共同の TMS データベースに格納されている環境データに応じて実行する。
 
 
 #p10
@@ -114,14 +114,14 @@
 ROS、TMSの判断システムを使ったオブジェクト検出
 
 • Fetch-and-give task using the motion planning system of the ROS–TMS.
-ROS、TMS の動作計画システムを使ったFetch and give task 
+ROS、TMS の動作計画システムを使ったFetch and give task
 
 
 #p13
 The remainder of the present paper is organized as follows.
 本論文は以下のように構成されている
 
-After presenting related research in Section 2, 
+After presenting related research in Section 2,
 第二章で関連研究を提示し
 
 we introduce the architecture and components of the ROS–TMS in Section 3.  
@@ -347,7 +347,7 @@
 The ROS-TMS has unique features such as high scalability and flexibility, as described below.
 ROS-TMS は以下に説明するようなユニークな機能を備えている
 
-・Modularity: The ROS–TMS consists of 73 packages categorized into 11 groups and 151 processing nodes. 
+・Modularity: The ROS–TMS consists of 73 packages categorized into 11 groups and 151 processing nodes.
 Modularity: ROS-TMS は 11グループと151の処理ノードに分類された73個のパッケージで構成される
 
 Re-configuration of structures, for instance adding or removing modules such as sensors, actuators, and robots, is simple and straightforward owing to the high flexibility of the ROS architecture.
@@ -474,7 +474,7 @@
 2. Alignment of the furniture model
 家具モデルのアライメント
 
-3. Object extraction by furniture removal 
+3. Object extraction by furniture removal
 家具の除去によるオブジェクト抽出
 
 4. Segmentation of objects
@@ -495,7 +495,7 @@
 その後、システムは更新された家具の位置モデルを作成するために、この結果と 家具の位置情報を重ねる
 
 # p44
-The point cloud (Fig. 9a) acquired from the robot is superimposed with the furniture’s point cloud model (Fig. 9b). 
+The point cloud (Fig. 9a) acquired from the robot is superimposed with the furniture’s point cloud model (Fig. 9b).
 ロボットが取得した点群(ポイントクラウド)(Fig. 9a) に 家具の点群モデル(Fig. 9b)を重ねあわせる
 
 After merging the point cloud data (Fig. 9a) and the point cloud model (Fig. 9b), as shown in Fig. 9c, the system deletes all other points except for the point cloud model for the furniture and limits the processing range from the upcoming steps.
@@ -625,3 +625,308 @@
 
 The distances shown in bold represent the values for which it is regarded as the same object.
 太字で示される距離はそれが同じオブジェクトとみなされた値を表している
+
+
+-----------以下Dpop-----------
+5章:計画の内容
+# p56
+Robot motion planning (TMS_RP)は、TMS_SSから取得された値に基づいてロボットアームが動いたり掴んだり障害物を回避したりするロボットの軌跡と移動経路を計算するROS–TMSのコンポーネントである。
+
+日常生活において高齢者に最も必要とされるタスクの1つであるfetch-and-giveタスクのサービスを実装する計画が必要だと考える。
+
+# p57
+また、Robot motion planning には図14aに示すように、高齢者介護施設で住居者にタオルを配ったりティータイムのときのように大量のオブジェクトを運搬・提供する用のワゴンが含まれている
+
+# p58
+Robot motion planningは以下で説明するfetch-and-giveタスク実装のためのいくつかのサブ計画、統合計画、プランニングの評価で構成される。
+
+1.ワゴンの把握計画
+2.物品配達のための位置計画
+3.移動経路計画
+4.ワゴンの経路計画
+5.統合計画
+6.安全性と効率性の評価
+
+各プロセスは、TMS_DB と TMS_SSから得られた環境データを使用している。
+
+#58
+5.1.ワゴンの把握計画方法
+ロボットがワゴンを押すために、まずロボットはワゴンを把握しなければならない。
+
+ワゴンを把握できたらワゴンの側に配置された2つのポールを使って安定してロボットはワゴンを押すことができる。
+
+したがって、図14に示すようにワゴンに対して最終的には4つの位置に限定されるように値が選択される。 
+
+#59
+ワゴンの位置と向き、大きさは、ROS-TMSのデータベースを使用して管理されるため、この情報を使用して、正しい相対位置を決定することが可能である。
+
+ロボットがワゴンの長い側面を把握したときのワゴンの方向基づいて、有効は候補点を式を用いて決定することができる。
+
+#60
+式2~4はi=0,1,2,3の値をとる。ここではロボットをR、ワゴンをWで表している。
+添字x,yおよびθは、x座標、y座標そして姿勢(z軸の回転)を表している。
+
+#61
+図13はi=2が与えられた時のロボットとワゴンの位置関係を示している。
+
+#62
+人にものを受け渡すためには、人の位置によってロボットの基本位置と配達されるべき物の位置の両方を計画する必要がある。
+
+指標として可動域を使用し、システムは基本位置への物品の位置を計画する。
+
+可動域は、各関節の角度を変化させたときに手・指が動かせる角度によって表される。
+
+#63
+高い操作性を持った姿勢で物品を配達すれば、ロボットと人の間に誤差が存在する場合であっても、動きを修正するのは簡単である。
+
+我々は人間の腕の高い操作性が物を掴むためにより適していると考える。
+これらの関係は式5、6で表され、速度ベクトルvは手の位置に対応し、qは関節角度ベクトルに対応する。
+
+#64
+もし腕が冗長自由度なら、無数の関節角度ベクトルは1つの手の位置に対応する。
+
+したがって、この問題を解決するときは、関節角の動ける範囲内で高い操作性を示す姿勢を計算する。
+
+#65
+物品の位置と可動域を用いるロボットの位置ためのこの計画手順は次のようになる。
+1.システムはローカル座標系に各人間とロボットを対応した可動域をマップする。
+2.両方の可動域マップが統合され、物品の位置が決定される。
+3.物品の位置にもとづいて、ロボットの基本位置が決定される。
+y軸は横方向を、x軸は正面方向とした、ロボットの座標系の原点にロボットをセットする。
+
+#66
+図15aに示すように、XY平面上の各位置で、手によって運ばれたオブジェクトの存在する状況のために可動域がマップされる。
+図15bで示すように、マッピングは高さ方向であるz軸にそって重ね合わされている。
+これらの座標は手の位置と基本位置の位置関係を表している。
+
+
+#67
+次のステップは可動域マップを用いて配達される物の位置決定することである。
+図16bで示すように、ロボットと人間のための可動域マップを重ねあわせ人の座標に同じ処理を適応する。
+そうすることで、例えば人が立っていたり座っていたりしていても、対象者の顔の位置を基準にし、対応するように合わせることによって可動域マップ上のz軸の値を補うことができる。
+図16aで示すように、各ローカル座標系のXY座標を持ち、各高さによる値で最大操作性を取っている。
+これらの座標は手の位置と基本位置の位置関係を表している。
+図16bで示すように、ロボットと人間のための操作性マップを重ねあわせ人の座標に同じ処理を適応する。
+そうすることで、例えば人が立っていたり座っていたりしていても、対象者の顔の位置を基準にし、対応するように合わせることによって可動域マップ上のz軸の値を補うことができる。
+その結果、物品を配送するときに使用される絶対座標系における高さzは、可動域の最大値のの合計の高さに相当する。
+
+#68
+人のために可動域マップ上に計算された高さに従って、システムは前もって保持した手の相対座標を用いて配達物品の絶対座標を要求する。
+
+物品を受け取る人間の位置はTMS_SS と TMS_DBによって管理されています。そしてそれは相対座標を当てはめることにより物品の位置を要求するための基準点としてこの位置を使用することも可能である。
+
+上記の手順に従えば、配達されようとしている物品のユニークな位置を決定できる。
+
+#69
+最後のステップとして、ロボットの基本位置がそれ前に計算された位置に物品を持っていくために決定される。
+特定のオブジェクトの高さに対応する可動域マップに従って、システムは基本位置と手の間の関係を取得する。
+基準点としてオブジェクトの位置を使うことで、基本位置がこの関係の基準を満たしている場合にロボットはどんな位置にもオブジェクトを持ち運ぶことができる
+
+#70
+このため、配達時にオブジェクトの位置の外周上の点は基準位置の絶対座標上の候補点に決定される。
+外周の全ての点を考慮すると、システムが複数の候補点を抽出するための次の行動計画は冗長である。
+最良の方法は、周囲をn回に分割し、分割後各セクターの代表点を取得し、候補点の数を限定することだ。
+
+#71
+その後、得られた代表点は式7のように評価される。これは安全性に重点を置いている。
+ここでは、Viewは対象者の視野にロボットが入るかどうかを表すブール値である。もしそれが視野内にある場合は、Viewは1で、それ以外の場合はViewは0である。
+この計算は、もしロボットが対象者の視野に入った場合れば、予想外の接触による危険も低減されるので必要となる。
+式において、Dhumanは対象者までの距離を表し、Dobsは最も近い障害物までの距離を表す。
+
+#72
+対象者や障害物との接触の危険を低減するために、対象者や障害物への最大距離を表す位置が高く評価される。
+もしも外周セクタに与えられた全ての候補点が障害物との接触が生じた場合、セクターの代表点は選択されない。
+以上の処理に従って、要求された物品の位置に基づいてロボットの基本位置は計画される。
+
+
+# n
+5.3 移動経路の計画 - ロボットの経路計画
+
+一般的な生活環境で働くロボットは人間との接触可能性を下げることで高い安全の経路計画を必要とする。
+
+しかし、6次元の最大値をもつパラメータ空間でロボットとワゴンの位置 (x,y) と姿勢(θ)から高い安全性を示す経路の計画を一意に定義するには時間がかかる。
+
+# n
+つまり安全性の高い軌道を生成す方法が必要だが、同時に処理時間短縮をしなければならない。
+そのために、図18で示すボロノイマップを利用します。
+
+# n
+5.3 移動経路の計画 - ワゴンのための経路計画
+リアルイムにワゴンの計画ができるよう、経路探索空間の次元を減少させる必要がある。
+
+ロボットの状態を一意に記述するパラメータは6次元の最大値を持つことができるが、ロボットがワゴンを操作可能な範囲は実際にはもっと制限されている。
+
+# n
+そこで、図19で示すような制御点を設定する。これは制御点を持つロボットの相対的な位置関係を決定している。
+
+# n
+ロボットの動作は、ロボットに対するワゴンの相対方向(Wθ)を単位としてで変更することが想定される。
+
+さらに、相対位置の範囲も制限されるため、ワゴンの経路計画のための検索時間を短縮し、4次元のみで表現される。
+
+# n
+経路計画は上記の基本的な経路を使用して以下のように実行される。
+1. 開始位置と終了位置が確立される
+2. 基本的な経路に沿って各ロボットの経路が計画される
+3. step2の推定経路上の各点によって、ワゴンの制御点の位置はロボットの位置との関係に適合するように考慮して決定される。
+
+# n
+4. ワゴンの制御点が基本経路(図20a)でない場合、ロボットの姿勢(Rθ)が制御点が基本経路にそって通過するように変更される。
+5. ワゴンのヘッドが基本経路(図 20b)にない場合は、ワゴンの相対的な姿勢(Wθ)が基本経路にそって通過するように変更される。
+6. 終点に到達するまでステップ3~5を繰り返す
+
+# n
+図21は始点と終点の例を使用した経路計画の結果である。
+
+始点を (Rx,Ry,Rθ)=(2380mm,1000mm, 0°)  、終点を(Rx,Ry,Rθ)=(450mm,2300mm, -6°) として
+ワゴンを掴む位置計画と物を運ぶ位置計画の結果を使用する。
+
+(緑の四角で示す)ワゴンの移動軌跡は、(灰色の丸い形示す)ロボットの移動軌跡内であることが確認できる。
+
+# n
+この手順を使用して、我々は基本的な経路図の安全性を損なうことなく空間検索を簡素化できる。
+実際、1つのロボットの経路を計算するのにかかる時間は1.10msで、ワゴンの経路計画も含むと6.41msであった。
+
+# n
+5.4. 統合計画
+位置、腕、経路の移動計画を統合し全体的な物品運搬動作のための動作計画を実行する。
+はじめに、物を載せたワゴンを掴むための位置計画を実行する。
+次に、物品配達のための位置計画を行う。位置計画タスクの結果は、ロボットとワゴンの経路計画のための移動目標の候補位置となる。
+最後に、ロボットが初期位置からワゴンを掴むまでにかかるロボット経路とロボットが商品を届ける位置に到達するまでのワゴンの経路の計画タスクを組み合わせた行動計画を行う。
+
+# n
+例えば、対象者のまわりに商品を配達するための4つの候補点とワゴンを掴むための4つの候補点がある場合、図22に示すように16の異なる動作を計画できる。
+この手順で得られたさまざまな一連の動作はその後最適な動作を選択するために評価をうける。
+
+# n
+5.5. 効率性と安全性の評価
+式8で示すように効率性と安全性にもとづいて各一連動作候補の評価を行う。
+α、β、γはそれぞれのLength、Rotation、ViewRatioの重み値である。
+LengthとRotationは総移動距離塗装回転角度を表す。
+Lenmin とRotminは全てのすべての移動候補の最小値を表す。
+式8の第1項と第2項は動作効率のためのメトリクスである。
+ViewRatioは動作計画ポイントの総数のうち人の視野に入るの動作計画ポイントの数である。
+
+# n
+6章では、ROS–TMSと実際のロボットを用いて以下のような基本的な実験の結果を述べる。
+1.環境変化の検出実験
+2.物を掴んで運ぶ実験
+3.ロボット移動計画のシュミレーション
+4.サービス実験
+5.拡張性とモジュール性の確認
+
+# n
+6.1. 環境変化の検出実験
+4.3章で説明したODSと家具の様々な品を用いて 変化を検出するための実験を行った。
+2つのテーブル、2つの棚、1つの椅子、1つのベッドを含む対象家具の6品で実験。
+家具の要素ごとに、保存されたデータ10セットと、本、スナック、カップなど新しく得たものの種類のデータを前もって用意し、各セット別々に変化検出を行った。
+
+# n
+評価方法として、変化したオブジェクト数に対する変化検出の比を考えた(変化検出率)。
+また、我々はシステムが実際に発生していない変化を検出した場合を過検出とみなした。
+この実験結果を表3に示す。
+それぞれの家具タイプごとの変化検出比は、テーブルは93.3% 、棚は93.4%、椅子は84.6%、ベッドは91.3% であった。
+
+# n
+また、各家具の品ごとの変化検出の例を図23に示す。
+各画像に円で囲まれたセクションは実際に変化を被った点であるため、ちゃんと検出ができている。
+
+# n
+6.2 物を掴んで運ぶ実験
+ロボットがワゴンに位置するオブジェクトを掴み人に渡す動作実験を行った。
+
+このサービスのための前提条件として、物品はワゴンの上に配置されていることが仮定され、その位置があらかじめ知られているものとする。
+
+実験を10回行ったあと、ロボットが全て場合のオブジェクトをつかんで運んぶことに成功した。動作の状態を図24に示す。
+
+# n
+また、物品位置のズレ(図25のOx 、 Oy ) を測定し、腕の姿勢誤差や回転誤差の影響を検証するために、測定した値と配達時の値の間の直線距離(d)を測定した。結果は表4に記載。
+
+# n
+配達時の物品の位置の距離誤差は35.8mmであった。
+可動域に従い、システムがロボットと人が手を動かすことができる余分なマージンをもって配達姿勢を計画するため、これらのエラーに対処することが可能である。
+
+# n
+6.3. ロボット移動計画のシュミレーション
+ロボットの初期位置を(Rx,Ry,Rθ)=(1000mm,1000mm, 0°)、ワゴンの初期位置をwagon (Wx,Wy,Wθ)=(3000mm,1000mm, 0°)、対象者の位置を(Hx,Hy,Hθ)=(1400mm,2500mm, -90°)にセットアップし、図26aに示すように対象者を座った状態に仮定した。
+また、このときの人の視野範囲は図26bの赤いエリアで示している。
+
+# n
+図27で候補1のワゴンを掴み移動する行動計画結果を示す。
+aは、ワゴンを掴む位置で、bはワゴンを掴みにいく移動経路である。
+c,d,eは物を対象者のところに運ぶ行動計画の候補である。
+dは対象者の後ろからまわる移動経路が示されている。
+
+# n
+同様に、候補2としてワゴンの逆の辺を掴み移動する行動計画結果を図28に示す。
+ここのc,d,eの候補では全て対象者の前から通る移動経路が示されている。
+
+# n
+さらに、各計画結果のために各評価の重みを変更した評価値をを表5,6,7に記載する.
+Plan No.が先ほどあげた6つの移動経路である。
+計画2-3の行動は最も高く評価された(表5)。次いで2-1が高い。
+対応する計画である図28aとdは人の全ての行動は視野に入っている。
+
+# n
+つまり、対象者からロボットの行動が常に監視できるので、予想外の方にロボットと触れる危険性が低く、ロボットの行動を見逃した場合すぐに対処ができる状況と言える。
+
+それに従って表の結果からこの選択された行動計画は、高い安全性と効率性の両方を示す。
+
+# n
+6.4. Service experiments
+我々は、これらの一連の計画を組み合わせた結果に従い、物品運搬のためのサービス実験を行った。
+一連の動作の状態を図29に示す。
+1.初期位置からオブジェクトを運ぶ位置に移動計画が実行される。a
+2.ロボットはワゴンを掴む位置に初期位置から移動する。ロボットの位置はRGB-D カメラによって補正される
+3.腕の軌道がワゴンを掴むために計画・実行される(図29b)。
+4.ロボットがワゴンを押しながら運ぶ位置に移動する(図29c)。
+5.腕の軌跡がワゴンから離れるてワゴンの上にある対象物を掴むために計画・実行される(図29d)。
+6.腕の軌道が運ばれる位置にオブジェクトを持つために計画・実行される(図29e、f)。
+
+# n
+このサービスは環境との接触を避け運び切ることに成功した。
+安全面のためにSmartPal-V10mm/secに制限されている最大速度の場合、タスク実行のための合計時間は312秒である。
+また、ロボットの位置は常に被験者の視野の中で実行されていた。したがって、計画された行動が安全性の適切なレベルだったということが言える。
+
+# n
+また、図29fで示すように手の動きにも余裕があり、運搬処理はロボットの移動誤差に適切に対処することができた。
+実際には、この実験での目標軌道からの最大誤差は0.092mmであった。
+
+# n
+6.5. Verification of modularity and scalability
+
+高いモジュール性と拡張性を確認するために、3種類の部屋のためのROS-TMSを構築した。
+部屋の構造と大きさ、センサー設定、センサーの種類とロボットは部屋によってすべて異なる。
+部屋の実際の写真とシミュレーションモデルをそれぞれ図30,31に示す。
+
+部屋A(図30a/31a、4m×4m)は18のパッケージとLRFを含む32の処理ノード3つのRFIDタグリーダー、1つのXtionセンサーとヒューマノイドロボットを使用した。
+
+部屋Bは(図30b/31b、4.5m×8m)52のパッケージと2つのLRFを含む93の処理ノード、2つのRFIDタグリーダー、4つのXtionセンサーと10このViconカメラ、2つのヒューマノイドロボット、1つの床クリーニングロボットと冷蔵庫と車いすロボットで構成されている。
+
+部屋Cは(図30c/31c~f、8m×15m)が73のパッケージと8つのLRFを含む151の処理ノード、2つのRFIDタグリーダー、1つのXtionセンサー、5つのKinectセンサー、18のViconカメラ、3つのヒューマノイドロボット、1つの床掃除ロボットとモバイル操作ロボットと車いすロボットが利用されている。
+
+ROS–TMSの高いスケーラビリティと柔軟性のおかげで、我々は短時間で様々な環境を設定することができた。
+
+# n
+# n
+# n
+
+# n
+7. まとめ
+本論文では、高齢者の生活をサポートするように設計されたROS–TMSという情報的に構造化された環境でのサービスロボットを紹介している。
+
+部屋には環境と人をモニタリングするためのいくつかのセンサーが中に含まれているものとみなす。
+
+様々な活動をサポートするために環境の情報を用いたヒューマノイドロボットで人は支援される。
+
+# n
+本研究では、高齢者の生活で最も一般的に要求されるタスクのひとつである検出とfetch-and-giveタスクに焦点をあてた。
+
+タスクを完了するために必要な様々なサブシステムを提案し、これらサブシステムが適していることを実証するために、ROS–TMSのロボットモーションプランニングシステムを使うfetch-and-giveタスクやセンシングシステムを使う検出タスクといった、いくつかの独立した短期的実験を導いた。
+
+# n
+現在我々は、手動で定義された信頼性に基づいた冗長な感覚情報による適切なデータ選択のための決定論的なアプローチを採用している。
+
+今後の課題としては、冗長な感覚情報を融合させるための確率論的アプローチへの拡張がある。
+
+また、完成されたシステムを長期間テストできる長期的な実験の設計と準備をしていきます。