comparison presen_text.md @ 10:3bee23948f70

nozomi-finish
author Nozomi Teruya <e125769@ie.u-ryukyu.ac.jp>
date Fri, 03 Jun 2016 10:06:35 +0900
parents f46e8b448eaf
children 71244076e066
comparison
equal deleted inserted replaced
8:8b5af40f3a04 10:3bee23948f70
53 - several systems that observe human behavior using distributed sensor systems and provide proper service tasks according to requests from human or emergency detection, which is triggered automatically, have been proposed [1,7–12]. 53 - several systems that observe human behavior using distributed sensor systems and provide proper service tasks according to requests from human or emergency detection, which is triggered automatically, have been proposed [1,7–12].
54 いくつかのシステムはは分散センサーシステムを使って人間の行動を観察し、人間の要求や緊急時の検出に応じたサービスタスクを提供し、これは自動的に動作することが提案されている。 54 いくつかのシステムはは分散センサーシステムを使って人間の行動を観察し、人間の要求や緊急時の検出に応じたサービスタスクを提供し、これは自動的に動作することが提案されている。
55 55
56 - Several service robots that act as companions to elderly people or as assistants to humans who require special care have been developed [13–18]. 56 - Several service robots that act as companions to elderly people or as assistants to humans who require special care have been developed [13–18].
57 いくつかのサービスロボットは高齢者への付き添いや、特別なケアを必要としている人のAssistantとして開発されている 57 いくつかのサービスロボットは高齢者への付き添いや、特別なケアを必要としている人のAssistantとして開発されている
58 58
59 59
60 # p7 60 # p7
61 - We also have been developing an informationally structured environment for assisting in the daily life of elderly people in our research project, i.e., the Robot Town Project [2,19]. 61 - We also have been developing an informationally structured environment for assisting in the daily life of elderly people in our research project, i.e., the Robot Town Project [2,19].
62 私達の研究プロジェクト(すなわちロボットタウンプロジェクト)では高齢者の日常生活を支援するために環境情報構造化を開発してきた。 62 私達の研究プロジェクト(すなわちロボットタウンプロジェクト)では高齢者の日常生活を支援するために環境情報構造化を開発してきた。
63 63
65 このプロジェクトのゴールは家、ビル、道路からなる街サイズの環境をカバーする分散センサーネットワークシステムを開発することと、環境で発生するイベントを監視することで、適切にサービスロボットを管理する 65 このプロジェクトのゴールは家、ビル、道路からなる街サイズの環境をカバーする分散センサーネットワークシステムを開発することと、環境で発生するイベントを監視することで、適切にサービスロボットを管理する
66 66
67 67
68 #p8 68 #p8
69 - Events sensed by an embedded sensor system are recorded in the Town Management System (TMS), 69 - Events sensed by an embedded sensor system are recorded in the Town Management System (TMS),
70 埋め込まれたセンサーシステムによって感知されたイベントは TMS(Town management System) に記録され、 70 埋め込まれたセンサーシステムによって感知されたイベントは TMS(Town management System) に記録され、
71 71
72 - appropriate information about the surroundings and instructions for proper services are provided to each robot [2]. 72 - appropriate information about the surroundings and instructions for proper services are provided to each robot [2].
73 周囲の適切な情報と適切なサービスの支持は各ロボットに提供される。 73 周囲の適切な情報と適切なサービスの支持は各ロボットに提供される。
74 74
75 75
79 79
80 - objects embedded sensors and RFID tags, and all of the data are stored in the TMS database. 80 - objects embedded sensors and RFID tags, and all of the data are stored in the TMS database.
81 オブジェクトは埋め込まれたセンサまたはRFIDタグによって検出され、すべてのデータはTMSデータベースに格納される 81 オブジェクトは埋め込まれたセンサまたはRFIDタグによって検出され、すべてのデータはTMSデータベースに格納される
82 82
83 - A service robot performs various service tasks according to the environmental data stored in the TMS database in collaboration with distributed sensors and actuators, for example, installed in a refrigerator to open a door. 83 - A service robot performs various service tasks according to the environmental data stored in the TMS database in collaboration with distributed sensors and actuators, for example, installed in a refrigerator to open a door.
84 サービスロボットは設置された冷蔵のドアを開けるといった、様々なサービスのタスクを 分散型センサーとアクチュエータの共同の TMS データベースに格納されている環境データに応じて実行する。 84 サービスロボットは設置された冷蔵のドアを開けるといった、様々なサービスのタスクを 分散型センサーとアクチュエータの共同の TMS データベースに格納されている環境データに応じて実行する。
85 85
86 86
87 #p10 87 #p10
88 - We herein introduce a new Town Management System called the ROS–TMS. 88 - We herein introduce a new Town Management System called the ROS–TMS.
89 私達はここで ROS-TMS と呼ばれる新しい街管理システムを紹介する 89 私達はここで ROS-TMS と呼ばれる新しい街管理システムを紹介する
112 112
113 • Object detection using a sensing system of the ROS–TMS 113 • Object detection using a sensing system of the ROS–TMS
114 ROS、TMSの判断システムを使ったオブジェクト検出 114 ROS、TMSの判断システムを使ったオブジェクト検出
115 115
116 • Fetch-and-give task using the motion planning system of the ROS–TMS. 116 • Fetch-and-give task using the motion planning system of the ROS–TMS.
117 ROS、TMS の動作計画システムを使ったFetch and give task 117 ROS、TMS の動作計画システムを使ったFetch and give task
118 118
119 119
120 #p13 120 #p13
121 The remainder of the present paper is organized as follows. 121 The remainder of the present paper is organized as follows.
122 本論文は以下のように構成されている 122 本論文は以下のように構成されている
123 123
124 After presenting related research in Section 2, 124 After presenting related research in Section 2,
125 第二章で関連研究を提示し 125 第二章で関連研究を提示し
126 126
127 we introduce the architecture and components of the ROS–TMS in Section 3. 127 we introduce the architecture and components of the ROS–TMS in Section 3.
128 第三章ではROSとTMSのアーキテクチャとコンポーネントの紹介をする。 128 第三章ではROSとTMSのアーキテクチャとコンポーネントの紹介をする。
129 129
345 345
346 # p32 346 # p32
347 The ROS-TMS has unique features such as high scalability and flexibility, as described below. 347 The ROS-TMS has unique features such as high scalability and flexibility, as described below.
348 ROS-TMS は以下に説明するようなユニークな機能を備えている 348 ROS-TMS は以下に説明するようなユニークな機能を備えている
349 349
350 ・Modularity: The ROS–TMS consists of 73 packages categorized into 11 groups and 151 processing nodes. 350 ・Modularity: The ROS–TMS consists of 73 packages categorized into 11 groups and 151 processing nodes.
351 Modularity: ROS-TMS は 11グループと151の処理ノードに分類された73個のパッケージで構成される 351 Modularity: ROS-TMS は 11グループと151の処理ノードに分類された73個のパッケージで構成される
352 352
353 Re-configuration of structures, for instance adding or removing modules such as sensors, actuators, and robots, is simple and straightforward owing to the high flexibility of the ROS architecture. 353 Re-configuration of structures, for instance adding or removing modules such as sensors, actuators, and robots, is simple and straightforward owing to the high flexibility of the ROS architecture.
354 センサーやアクチュエーター、ロボットなどのモジュールのインスタンスを追加したり削除のために構造の再設定を行うことは ROS アーキテクチャの高い柔軟性により、シンプルで簡単でである 354 センサーやアクチュエーター、ロボットなどのモジュールのインスタンスを追加したり削除のために構造の再設定を行うことは ROS アーキテクチャの高い柔軟性により、シンプルで簡単でである
355 355
472 家具の識別 472 家具の識別
473 473
474 2. Alignment of the furniture model 474 2. Alignment of the furniture model
475 家具モデルのアライメント 475 家具モデルのアライメント
476 476
477 3. Object extraction by furniture removal 477 3. Object extraction by furniture removal
478 家具の除去によるオブジェクト抽出 478 家具の除去によるオブジェクト抽出
479 479
480 4. Segmentation of objects 480 4. Segmentation of objects
481 オブジェクトのセグメンテーション 481 オブジェクトのセグメンテーション
482 482
493 493
494 the system superimposes these results and the position information for furniture to create an updated furniture location model. 494 the system superimposes these results and the position information for furniture to create an updated furniture location model.
495 その後、システムは更新された家具の位置モデルを作成するために、この結果と 家具の位置情報を重ねる 495 その後、システムは更新された家具の位置モデルを作成するために、この結果と 家具の位置情報を重ねる
496 496
497 # p44 497 # p44
498 The point cloud (Fig. 9a) acquired from the robot is superimposed with the furniture’s point cloud model (Fig. 9b). 498 The point cloud (Fig. 9a) acquired from the robot is superimposed with the furniture’s point cloud model (Fig. 9b).
499 ロボットが取得した点群(ポイントクラウド)(Fig. 9a) に 家具の点群モデル(Fig. 9b)を重ねあわせる 499 ロボットが取得した点群(ポイントクラウド)(Fig. 9a) に 家具の点群モデル(Fig. 9b)を重ねあわせる
500 500
501 After merging the point cloud data (Fig. 9a) and the point cloud model (Fig. 9b), as shown in Fig. 9c, the system deletes all other points except for the point cloud model for the furniture and limits the processing range from the upcoming steps. 501 After merging the point cloud data (Fig. 9a) and the point cloud model (Fig. 9b), as shown in Fig. 9c, the system deletes all other points except for the point cloud model for the furniture and limits the processing range from the upcoming steps.
502 Fig9 に示すように、点群データと点群モデルをマージした後、システムは処理範囲以外の家具の点群モデル除く全ての点を削除し、今後のステップから制限する 502 Fig9 に示すように、点群データと点群モデルをマージした後、システムは処理範囲以外の家具の点群モデル除く全ての点を削除し、今後のステップから制限する
503 503
623 If the distance is the highest for both sectors and is equal to or greater than the threshold, the system determines it to be the same object. 623 If the distance is the highest for both sectors and is equal to or greater than the threshold, the system determines it to be the same object.
624 両方のセクターの距離が最も高く、閾値以上であれば、システムは同じオブジェクトであると判断する 624 両方のセクターの距離が最も高く、閾値以上であれば、システムは同じオブジェクトであると判断する
625 625
626 The distances shown in bold represent the values for which it is regarded as the same object. 626 The distances shown in bold represent the values for which it is regarded as the same object.
627 太字で示される距離はそれが同じオブジェクトとみなされた値を表している 627 太字で示される距離はそれが同じオブジェクトとみなされた値を表している
628
629
630 -----------以下Dpop-----------
631 5章:計画の内容
632 # p56
633 Robot motion planning (TMS_RP)は、TMS_SSから取得された値に基づいてロボットアームが動いたり掴んだり障害物を回避したりするロボットの軌跡と移動経路を計算するROS–TMSのコンポーネントである。
634
635 日常生活において高齢者に最も必要とされるタスクの1つであるfetch-and-giveタスクのサービスを実装する計画が必要だと考える。
636
637 # p57
638 また、Robot motion planning には図14aに示すように、高齢者介護施設で住居者にタオルを配ったりティータイムのときのように大量のオブジェクトを運搬・提供する用のワゴンが含まれている
639
640 # p58
641 Robot motion planningは以下で説明するfetch-and-giveタスク実装のためのいくつかのサブ計画、統合計画、プランニングの評価で構成される。
642
643 1.ワゴンの把握計画
644 2.物品配達のための位置計画
645 3.移動経路計画
646 4.ワゴンの経路計画
647 5.統合計画
648 6.安全性と効率性の評価
649
650 各プロセスは、TMS_DB と TMS_SSから得られた環境データを使用している。
651
652 #58
653 5.1.ワゴンの把握計画方法
654 ロボットがワゴンを押すために、まずロボットはワゴンを把握しなければならない。
655
656 ワゴンを把握できたらワゴンの側に配置された2つのポールを使って安定してロボットはワゴンを押すことができる。
657
658 したがって、図14に示すようにワゴンに対して最終的には4つの位置に限定されるように値が選択される。 
659
660 #59
661 ワゴンの位置と向き、大きさは、ROS-TMSのデータベースを使用して管理されるため、この情報を使用して、正しい相対位置を決定することが可能である。
662
663 ロボットがワゴンの長い側面を把握したときのワゴンの方向基づいて、有効は候補点を式を用いて決定することができる。
664
665 #60
666 式2~4はi=0,1,2,3の値をとる。ここではロボットをR、ワゴンをWで表している。
667 添字x,yおよびθは、x座標、y座標そして姿勢(z軸の回転)を表している。
668
669 #61
670 図13はi=2が与えられた時のロボットとワゴンの位置関係を示している。
671
672 #62
673 人にものを受け渡すためには、人の位置によってロボットの基本位置と配達されるべき物の位置の両方を計画する必要がある。
674
675 指標として可動域を使用し、システムは基本位置への物品の位置を計画する。
676
677 可動域は、各関節の角度を変化させたときに手・指が動かせる角度によって表される。
678
679 #63
680 高い操作性を持った姿勢で物品を配達すれば、ロボットと人の間に誤差が存在する場合であっても、動きを修正するのは簡単である。
681
682 我々は人間の腕の高い操作性が物を掴むためにより適していると考える。
683 これらの関係は式5、6で表され、速度ベクトルvは手の位置に対応し、qは関節角度ベクトルに対応する。
684
685 #64
686 もし腕が冗長自由度なら、無数の関節角度ベクトルは1つの手の位置に対応する。
687
688 したがって、この問題を解決するときは、関節角の動ける範囲内で高い操作性を示す姿勢を計算する。
689
690 #65
691 物品の位置と可動域を用いるロボットの位置ためのこの計画手順は次のようになる。
692 1.システムはローカル座標系に各人間とロボットを対応した可動域をマップする。
693 2.両方の可動域マップが統合され、物品の位置が決定される。
694 3.物品の位置にもとづいて、ロボットの基本位置が決定される。
695 y軸は横方向を、x軸は正面方向とした、ロボットの座標系の原点にロボットをセットする。
696
697 #66
698 図15aに示すように、XY平面上の各位置で、手によって運ばれたオブジェクトの存在する状況のために可動域がマップされる。
699 図15bで示すように、マッピングは高さ方向であるz軸にそって重ね合わされている。
700 これらの座標は手の位置と基本位置の位置関係を表している。
701
702
703 #67
704 次のステップは可動域マップを用いて配達される物の位置決定することである。
705 図16bで示すように、ロボットと人間のための可動域マップを重ねあわせ人の座標に同じ処理を適応する。
706 そうすることで、例えば人が立っていたり座っていたりしていても、対象者の顔の位置を基準にし、対応するように合わせることによって可動域マップ上のz軸の値を補うことができる。
707 図16aで示すように、各ローカル座標系のXY座標を持ち、各高さによる値で最大操作性を取っている。
708 これらの座標は手の位置と基本位置の位置関係を表している。
709 図16bで示すように、ロボットと人間のための操作性マップを重ねあわせ人の座標に同じ処理を適応する。
710 そうすることで、例えば人が立っていたり座っていたりしていても、対象者の顔の位置を基準にし、対応するように合わせることによって可動域マップ上のz軸の値を補うことができる。
711 その結果、物品を配送するときに使用される絶対座標系における高さzは、可動域の最大値のの合計の高さに相当する。
712
713 #68
714 人のために可動域マップ上に計算された高さに従って、システムは前もって保持した手の相対座標を用いて配達物品の絶対座標を要求する。
715
716 物品を受け取る人間の位置はTMS_SS と TMS_DBによって管理されています。そしてそれは相対座標を当てはめることにより物品の位置を要求するための基準点としてこの位置を使用することも可能である。
717
718 上記の手順に従えば、配達されようとしている物品のユニークな位置を決定できる。
719
720 #69
721 最後のステップとして、ロボットの基本位置がそれ前に計算された位置に物品を持っていくために決定される。
722 特定のオブジェクトの高さに対応する可動域マップに従って、システムは基本位置と手の間の関係を取得する。
723 基準点としてオブジェクトの位置を使うことで、基本位置がこの関係の基準を満たしている場合にロボットはどんな位置にもオブジェクトを持ち運ぶことができる
724
725 #70
726 このため、配達時にオブジェクトの位置の外周上の点は基準位置の絶対座標上の候補点に決定される。
727 外周の全ての点を考慮すると、システムが複数の候補点を抽出するための次の行動計画は冗長である。
728 最良の方法は、周囲をn回に分割し、分割後各セクターの代表点を取得し、候補点の数を限定することだ。
729
730 #71
731 その後、得られた代表点は式7のように評価される。これは安全性に重点を置いている。
732 ここでは、Viewは対象者の視野にロボットが入るかどうかを表すブール値である。もしそれが視野内にある場合は、Viewは1で、それ以外の場合はViewは0である。
733 この計算は、もしロボットが対象者の視野に入った場合れば、予想外の接触による危険も低減されるので必要となる。
734 式において、Dhumanは対象者までの距離を表し、Dobsは最も近い障害物までの距離を表す。
735
736 #72
737 対象者や障害物との接触の危険を低減するために、対象者や障害物への最大距離を表す位置が高く評価される。
738 もしも外周セクタに与えられた全ての候補点が障害物との接触が生じた場合、セクターの代表点は選択されない。
739 以上の処理に従って、要求された物品の位置に基づいてロボットの基本位置は計画される。
740
741
742 # n
743 5.3 移動経路の計画 - ロボットの経路計画
744
745 一般的な生活環境で働くロボットは人間との接触可能性を下げることで高い安全の経路計画を必要とする。
746
747 しかし、6次元の最大値をもつパラメータ空間でロボットとワゴンの位置 (x,y) と姿勢(θ)から高い安全性を示す経路の計画を一意に定義するには時間がかかる。
748
749 # n
750 つまり安全性の高い軌道を生成す方法が必要だが、同時に処理時間短縮をしなければならない。
751 そのために、図18で示すボロノイマップを利用します。
752
753 # n
754 5.3 移動経路の計画 - ワゴンのための経路計画
755 リアルイムにワゴンの計画ができるよう、経路探索空間の次元を減少させる必要がある。
756
757 ロボットの状態を一意に記述するパラメータは6次元の最大値を持つことができるが、ロボットがワゴンを操作可能な範囲は実際にはもっと制限されている。
758
759 # n
760 そこで、図19で示すような制御点を設定する。これは制御点を持つロボットの相対的な位置関係を決定している。
761
762 # n
763 ロボットの動作は、ロボットに対するワゴンの相対方向(Wθ)を単位としてで変更することが想定される。
764
765 さらに、相対位置の範囲も制限されるため、ワゴンの経路計画のための検索時間を短縮し、4次元のみで表現される。
766
767 # n
768 経路計画は上記の基本的な経路を使用して以下のように実行される。
769 1. 開始位置と終了位置が確立される
770 2. 基本的な経路に沿って各ロボットの経路が計画される
771 3. step2の推定経路上の各点によって、ワゴンの制御点の位置はロボットの位置との関係に適合するように考慮して決定される。
772
773 # n
774 4. ワゴンの制御点が基本経路(図20a)でない場合、ロボットの姿勢(Rθ)が制御点が基本経路にそって通過するように変更される。
775 5. ワゴンのヘッドが基本経路(図 20b)にない場合は、ワゴンの相対的な姿勢(Wθ)が基本経路にそって通過するように変更される。
776 6. 終点に到達するまでステップ3~5を繰り返す
777
778 # n
779 図21は始点と終点の例を使用した経路計画の結果である。
780
781 始点を (Rx,Ry,Rθ)=(2380mm,1000mm, 0°)  、終点を(Rx,Ry,Rθ)=(450mm,2300mm, -6°) として
782 ワゴンを掴む位置計画と物を運ぶ位置計画の結果を使用する。
783
784 (緑の四角で示す)ワゴンの移動軌跡は、(灰色の丸い形示す)ロボットの移動軌跡内であることが確認できる。
785
786 # n
787 この手順を使用して、我々は基本的な経路図の安全性を損なうことなく空間検索を簡素化できる。
788 実際、1つのロボットの経路を計算するのにかかる時間は1.10msで、ワゴンの経路計画も含むと6.41msであった。
789
790 # n
791 5.4. 統合計画
792 位置、腕、経路の移動計画を統合し全体的な物品運搬動作のための動作計画を実行する。
793 はじめに、物を載せたワゴンを掴むための位置計画を実行する。
794 次に、物品配達のための位置計画を行う。位置計画タスクの結果は、ロボットとワゴンの経路計画のための移動目標の候補位置となる。
795 最後に、ロボットが初期位置からワゴンを掴むまでにかかるロボット経路とロボットが商品を届ける位置に到達するまでのワゴンの経路の計画タスクを組み合わせた行動計画を行う。
796
797 # n
798 例えば、対象者のまわりに商品を配達するための4つの候補点とワゴンを掴むための4つの候補点がある場合、図22に示すように16の異なる動作を計画できる。
799 この手順で得られたさまざまな一連の動作はその後最適な動作を選択するために評価をうける。
800
801 # n
802 5.5. 効率性と安全性の評価
803 式8で示すように効率性と安全性にもとづいて各一連動作候補の評価を行う。
804 α、β、γはそれぞれのLength、Rotation、ViewRatioの重み値である。
805 LengthとRotationは総移動距離塗装回転角度を表す。
806 Lenmin とRotminは全てのすべての移動候補の最小値を表す。
807 式8の第1項と第2項は動作効率のためのメトリクスである。
808 ViewRatioは動作計画ポイントの総数のうち人の視野に入るの動作計画ポイントの数である。
809
810 # n
811 6章では、ROS–TMSと実際のロボットを用いて以下のような基本的な実験の結果を述べる。
812 1.環境変化の検出実験
813 2.物を掴んで運ぶ実験
814 3.ロボット移動計画のシュミレーション
815 4.サービス実験
816 5.拡張性とモジュール性の確認
817
818 # n
819 6.1. 環境変化の検出実験
820 4.3章で説明したODSと家具の様々な品を用いて 変化を検出するための実験を行った。
821 2つのテーブル、2つの棚、1つの椅子、1つのベッドを含む対象家具の6品で実験。
822 家具の要素ごとに、保存されたデータ10セットと、本、スナック、カップなど新しく得たものの種類のデータを前もって用意し、各セット別々に変化検出を行った。
823
824 # n
825 評価方法として、変化したオブジェクト数に対する変化検出の比を考えた(変化検出率)。
826 また、我々はシステムが実際に発生していない変化を検出した場合を過検出とみなした。
827 この実験結果を表3に示す。
828 それぞれの家具タイプごとの変化検出比は、テーブルは93.3% 、棚は93.4%、椅子は84.6%、ベッドは91.3% であった。
829
830 # n
831 また、各家具の品ごとの変化検出の例を図23に示す。
832 各画像に円で囲まれたセクションは実際に変化を被った点であるため、ちゃんと検出ができている。
833
834 # n
835 6.2 物を掴んで運ぶ実験
836 ロボットがワゴンに位置するオブジェクトを掴み人に渡す動作実験を行った。
837
838 このサービスのための前提条件として、物品はワゴンの上に配置されていることが仮定され、その位置があらかじめ知られているものとする。
839
840 実験を10回行ったあと、ロボットが全て場合のオブジェクトをつかんで運んぶことに成功した。動作の状態を図24に示す。
841
842 # n
843 また、物品位置のズレ(図25のOx 、 Oy ) を測定し、腕の姿勢誤差や回転誤差の影響を検証するために、測定した値と配達時の値の間の直線距離(d)を測定した。結果は表4に記載。
844
845 # n
846 配達時の物品の位置の距離誤差は35.8mmであった。
847 可動域に従い、システムがロボットと人が手を動かすことができる余分なマージンをもって配達姿勢を計画するため、これらのエラーに対処することが可能である。
848
849 # n
850 6.3. ロボット移動計画のシュミレーション
851 ロボットの初期位置を(Rx,Ry,Rθ)=(1000mm,1000mm, 0°)、ワゴンの初期位置をwagon (Wx,Wy,Wθ)=(3000mm,1000mm, 0°)、対象者の位置を(Hx,Hy,Hθ)=(1400mm,2500mm, -90°)にセットアップし、図26aに示すように対象者を座った状態に仮定した。
852 また、このときの人の視野範囲は図26bの赤いエリアで示している。
853
854 # n
855 図27で候補1のワゴンを掴み移動する行動計画結果を示す。
856 aは、ワゴンを掴む位置で、bはワゴンを掴みにいく移動経路である。
857 c,d,eは物を対象者のところに運ぶ行動計画の候補である。
858 dは対象者の後ろからまわる移動経路が示されている。
859
860 # n
861 同様に、候補2としてワゴンの逆の辺を掴み移動する行動計画結果を図28に示す。
862 ここのc,d,eの候補では全て対象者の前から通る移動経路が示されている。
863
864 # n
865 さらに、各計画結果のために各評価の重みを変更した評価値をを表5,6,7に記載する.
866 Plan No.が先ほどあげた6つの移動経路である。
867 計画2-3の行動は最も高く評価された(表5)。次いで2-1が高い。
868 対応する計画である図28aとdは人の全ての行動は視野に入っている。
869
870 # n
871 つまり、対象者からロボットの行動が常に監視できるので、予想外の方にロボットと触れる危険性が低く、ロボットの行動を見逃した場合すぐに対処ができる状況と言える。
872
873 それに従って表の結果からこの選択された行動計画は、高い安全性と効率性の両方を示す。
874
875 # n
876 6.4. Service experiments
877 我々は、これらの一連の計画を組み合わせた結果に従い、物品運搬のためのサービス実験を行った。
878 一連の動作の状態を図29に示す。
879 1.初期位置からオブジェクトを運ぶ位置に移動計画が実行される。a
880 2.ロボットはワゴンを掴む位置に初期位置から移動する。ロボットの位置はRGB-D カメラによって補正される
881 3.腕の軌道がワゴンを掴むために計画・実行される(図29b)。
882 4.ロボットがワゴンを押しながら運ぶ位置に移動する(図29c)。
883 5.腕の軌跡がワゴンから離れるてワゴンの上にある対象物を掴むために計画・実行される(図29d)。
884 6.腕の軌道が運ばれる位置にオブジェクトを持つために計画・実行される(図29e、f)。
885
886 # n
887 このサービスは環境との接触を避け運び切ることに成功した。
888 安全面のためにSmartPal-V10mm/secに制限されている最大速度の場合、タスク実行のための合計時間は312秒である。
889 また、ロボットの位置は常に被験者の視野の中で実行されていた。したがって、計画された行動が安全性の適切なレベルだったということが言える。
890
891 # n
892 また、図29fで示すように手の動きにも余裕があり、運搬処理はロボットの移動誤差に適切に対処することができた。
893 実際には、この実験での目標軌道からの最大誤差は0.092mmであった。
894
895 # n
896 6.5. Verification of modularity and scalability
897
898 高いモジュール性と拡張性を確認するために、3種類の部屋のためのROS-TMSを構築した。
899 部屋の構造と大きさ、センサー設定、センサーの種類とロボットは部屋によってすべて異なる。
900 部屋の実際の写真とシミュレーションモデルをそれぞれ図30,31に示す。
901
902 部屋A(図30a/31a、4m×4m)は18のパッケージとLRFを含む32の処理ノード3つのRFIDタグリーダー、1つのXtionセンサーとヒューマノイドロボットを使用した。
903
904 部屋Bは(図30b/31b、4.5m×8m)52のパッケージと2つのLRFを含む93の処理ノード、2つのRFIDタグリーダー、4つのXtionセンサーと10このViconカメラ、2つのヒューマノイドロボット、1つの床クリーニングロボットと冷蔵庫と車いすロボットで構成されている。
905
906 部屋Cは(図30c/31c~f、8m×15m)が73のパッケージと8つのLRFを含む151の処理ノード、2つのRFIDタグリーダー、1つのXtionセンサー、5つのKinectセンサー、18のViconカメラ、3つのヒューマノイドロボット、1つの床掃除ロボットとモバイル操作ロボットと車いすロボットが利用されている。
907
908 ROS–TMSの高いスケーラビリティと柔軟性のおかげで、我々は短時間で様々な環境を設定することができた。
909
910 # n
911 # n
912 # n
913
914 # n
915 7. まとめ
916 本論文では、高齢者の生活をサポートするように設計されたROS–TMSという情報的に構造化された環境でのサービスロボットを紹介している。
917
918 部屋には環境と人をモニタリングするためのいくつかのセンサーが中に含まれているものとみなす。
919
920 様々な活動をサポートするために環境の情報を用いたヒューマノイドロボットで人は支援される。
921
922 # n
923 本研究では、高齢者の生活で最も一般的に要求されるタスクのひとつである検出とfetch-and-giveタスクに焦点をあてた。
924
925 タスクを完了するために必要な様々なサブシステムを提案し、これらサブシステムが適していることを実証するために、ROS–TMSのロボットモーションプランニングシステムを使うfetch-and-giveタスクやセンシングシステムを使う検出タスクといった、いくつかの独立した短期的実験を導いた。
926
927 # n
928 現在我々は、手動で定義された信頼性に基づいた冗長な感覚情報による適切なデータ選択のための決定論的なアプローチを採用している。
929
930 今後の課題としては、冗長な感覚情報を融合させるための確率論的アプローチへの拡張がある。
931
932 また、完成されたシステムを長期間テストできる長期的な実験の設計と準備をしていきます。