Mercurial > hg > Members > atton > intelligence_robotics
view slide.html @ 7:8fd9385f952b
add js
author | tatsuki |
---|---|
date | Wed, 24 Jun 2015 15:21:19 +0900 |
parents | 74689630ff47 |
children | 62f384a20c2c |
line wrap: on
line source
<!DOCTYPE html> <html> <head> <meta http-equiv="content-type" content="text/html;charset=utf-8"> <title>知能ロボット</title> <!-- Notes on CSS media types used: 1) projection -> slideshow mode (display one slide at-a-time; hide all others) 2) screen -> outline mode (display all slides-at-once on screen) 3) print -> print (and print preview) Note: toggle between projection/screen (that is, slideshow/outline) mode using t-key Questions, comments? - send them along to the mailinglist/forum online @ http://groups.google.com/group/webslideshow --> <!-- styles --> <style media="screen,projection"> html, body, .presentation { margin: 0; padding: 0; } .slide { display: none; position: absolute; top: 0; left: 0; margin: 0; border: none; padding: 2% 4% 0% 4%; /* css note: order is => top right bottom left */ -moz-box-sizing: border-box; -webkit-box-sizing: border-box; box-sizing: border-box; width: 100%; height: 100%; /* css note: lets use border-box; no need to add padding+border to get to 100% */ overflow-x: hidden; overflow-y: auto; z-index: 2; } .slide.current { display: block; } /* only display current slide in projection mode */ .slide .stepcurrent { color: black; } .slide .step { color: silver; } /* or hide next steps e.g. .step { visibility: hidden; } */ .slide { /* background-image: -webkit-linear-gradient(top, blue, aqua, blue, aqua); background-image: -moz-linear-gradient(top, blue, aqua, blue, aqua); */ } </style> <style media="screen"> .slide { border-top: 1px solid #888; } .slide:first-child { border: none; } </style> <style media="print"> .slide { page-break-inside: avoid; } .slide h1 { page-break-after: avoid; } .slide ul { page-break-inside: avoid; } </style> <!-- add js lib (jquery) --> <script src="js/jquery-1.7.min.js"></script> <!-- S6 JS --> <script src="js/jquery.slideshow.js"></script> <script src="js/jquery.slideshow.counter.js"></script> <script src="js/jquery.slideshow.controls.js"></script> <script> $(document).ready( function() { Slideshow.init(); // Example 2: Start Off in Outline Mode // Slideshow.init( { mode: 'outline' } ); // Example 3: Use Custom Transition // Slideshow.transition = transitionScrollUp; // Slideshow.init(); // Example 4: Start Off in Autoplay Mode with Custom Transition // Slideshow.transition = transitionScrollUp; // Slideshow.init( { mode: 'autoplay' } ); } ); </script> </head> <body> <div class="presentation"> <!-- add slides here; example --> <div class='cover'> <h1>Implementation on ARMAR-IIIb(ARMAR-IIIbの実装)</h1> <font size = 5> <p>ARMAR-III is designed for close cooperation with humans(アーマーは人間との緊密な協力の為に設計されたロボットです)</p> <p> ARMAR-III has a humanlike appearance(アーマーは人間に似た外見を持つ)</p> <p> sensory capabilities similar to humans(それは人間に似た感覚等を持つため)</p> <p>ARMAR-IIIb is a slightly modified version with different shape to the head, the trunk, and the hands(アーマーⅢ bは頭、胴体、手に修正を加えた物)</p> </font> </div> <div> <h1> Implementation of gestures(ジェスチャーの実装)</h1> <font size = 5> <p>The implementation on the robot of the set of gestures it is not strictly hardwired to the specific hardware.(ジェスチャのロボットへの実装はハードウェアに行っていない)</p> <p>manually defining the patterns of the gestures(ジェスチャーのパターンを定義する)</p> <p>Definition gesture is performed by Master Motor Map(MMM) format and is converted into robot(ジェスチャの定義はMMM形式で行い、ロボット用に変換している</p> </font> </div> <div> <h1>Master Motor Map</h1> <font size=5> <p>The MMM is a reference 3D kinematic model(MMMは3D運動学的モデル)</p> <p>providing a unified representation of various human motion capture systems, action recognition systems, imitation systems, visualization modules(モーションキャプチャ、動作認識、模倣、可視化システムの統合した表現を提供する) </p> <p>This representation can be subsequently converted to other representations, such as action recognizers, 3D visualization, or implementation into different robots(この表現は、異なるロボット用の表現に変換することができる)</p> <p> The MMM is intended to become a common standard in the robotics community(MMMはロボット工学分野における標準になるのを目指している)</p> <p>ここに図4を入れる</p> <p>図4はMMMを使った表現の変換図かな?</p> <p>MMMのモデルのデータ展開とかはいらないかな</p> </font> </div> <div> <h1>MMM2</h1> <font size=5> <p>The body model of MMM model can be seen in the left-hand illustration in Figure 5(図5の左のモデルは、MMMのボディーモデルです</p> <p>It contains some joints, such as the clavicula, which are usually not implemented in humanoid robots(このモデルには通常のロボットには実装されていない鎖骨等の関節が含まれている)</p> <p>A conversion module is necessary to perform a transformation between this kinematic model and ARMAR-IIIb kinematic model(ARMAR-IIIbとMMMモデル間の変換を、変換モジュールを用いて行う必要がある)</p> <p></p> </font> </div> <div> <h1>converter</h1> <font size=5> <p>converter given joint angles would consist in a one-to-one mapping between an observed human subject and the robot(コンバーターは与えられた関節角度等から人とロボット間の1対1のマッピングを構成する)</p> <p>differences in the kinematic structures of a human and the robot one-to-one mapping can hardly show acceptable results in terms of a human like appearance of the reproduced movement(通常は人間とロボットの構造の違いがあるため変換できない。)ここちょっと怪しい</p> <p> this problem is addressed by applying a post-processing procedure in joint angle space(この問題は関節角度を以下のように調整することで解決する</p> <p>the joint angles, given in the MMM format,are optimized concerning the tool centre point position(MMM形式で与えられた関節角度はtool centre point position(調べる何かのロボット用語っぽい)で最適化されている)</p> <p>solution is estimated by using the joint configuration of the MMM model on the robot(MMMモデルを使ってロボットの関節構造を推定することでこの問題を解決する)</p> <p>もうちょい詰めたい感ある</p> </font> </div> <div> <h1>MMMのサポートみたいなタイトル</h1> <font size=5> <p>The MMM framework has a high support for every kind of human-like robot(MMMはほとんどの人型ロボットをサポートしています)</p> <p>MMM can define the transfer rules(転送のルールを定義することができる)</p> <p>Using the conversion rules, it can be converted from the MMM Model to the movement of the robot(転送ルールを用いて、MMMモデルからロボットのモーションへ変換する</p> <p>may not be able to convert from MMM model for a specific robot(特定のロボットに対してMMMモデルからの変換ができない可能性がある</p> <p> the motion representation parts of the MMM can be used nevertheless(しかしMMMのモーションの表現部分は使用できる</p> </font> </div> <div> <h1>MMMを使った変換例みたいな感じ</h1> <font size=5> <p>After programming the postures directly on the MMM model they were processed by the converter(図6の説明、MMMモデルに直立姿勢をプログラミングした後変換した)</p> <p>Conversion is not easy(変換は簡単ではない)</p> <p>the human model contains many joints, which are not present in the robot configuration(なぜなら人体はロボットに存在しない多くの関節を持っている)</p> <p>ARMAR is not bending the body when performing a bow(ARMARは挨拶を行う際身体を大きく曲げれない)</p> <p>It was expressed using a portion present in the robot (e.g., the neck)(ロボットに存在する部分を使って表現した)</p> <p>図7はARMARでの変換後の動き</p> </font> </div> <div> <h1>MCA</h1> <font size=5> <p>The postures could be triggered from the MCA (Modular Controller Architecture, a modular software framework)interface, where the greetings model was also implemented(姿勢や挨拶のモデルはMCAインターフェースを使用して実行する)</p> <p>the list of postures is on the left together with the option(姿勢のリストはオプションと一緒に左側にある)</p> <p>When that option is activated, it is possible to select the context parameters through the radio buttons on the right(このオプションが有効になると右側のラジオボタンから増強のパラメータを選択することが可能になる)</p> <p>ここに図8を入れる</p> </font> </div> <div> <h1>Implementation of words</h1> <font size=5> <p> Word set of greetings has been translated into both German and Japanese, as in Table 2(挨拶の単語のセットはドイツ語と日本語)で表2のようになります</p> <p>For example,Japan it is common to use a specific greeting in the workplace 「otsukaresama desu」(そして、例えば日本の職場ではお疲れ様ですという挨拶を使うのが一般的です)</p> <p> where a standard greeting like 「konnichi wa」 would be inappropriate(職場で「こんにちは」と言った挨拶は不適切です)</p> <p>In German, such a greeting type does not exist(しかし、ドイツではこのような特定の挨拶のタイプは存在しない)</p> <p>but the meaning of “thank you for your effort” at work can be directly translated into German(しかし、お疲れ様です)をドイツ語に翻訳することが出来ます</p> <p> the robot knows dictionary terms, but does not understand the difference in usage of these words in different contexts(ロボットは言葉の意味は知っているが、状況に応じた使い方の違いを理解していない)</p> <p>ここに表8を書かなきゃ!!</p> </font> </div> <div> <h1>Implementation of words</h1> <font size=5> <p>These words have been recorded through free text-to-speech software into wave files that could be played by the robot(また、これらの単語は、テキストをwaveファイルに変換するソフトウェアを介して記録されています)</p> <p>ARMAR does not have embedded speakers in its body(アーマーは本体にスピーカーを持っていない)</p> <p>added two small speakers behind the head and connected them to another computer(頭の後ろに小さな2つのスピーカーを追加し別のコンピュータに接続している)</p> </font> </div> <div> <h1> Experiment description</h1> <font size=5> <p>Experiments were conducted at room as shown in Figure 9 , Germany.(実験は、ドイツの図9に示されているような部屋で行われました)</p> <p>Participants were 18 German people of different ages, genders, workplaces(参加者は、異なる年齢、性別、職場の18人のドイツ人です)</p> <p>robot could be trained with various combinations of context(ロボットは様々な状況の組み合わせでトレーニングができる)</p> <p>It was not possible to include all combinations of feature values in the experiment(しかし、全ての状況の組み合わせで実験は行えなかった)</p> <p>for example there cannot be a profile with both [‘location’: ‘workplace’] and [‘social distance’: ‘unknown’](例えば、職場の同僚は必ず社会的立場を知っているはずなので、両方を満たすことは出来ない)</p> <p>the [‘location’:‘private’] case was left out, because it is impossible to simulate the interaction in a private context, such as one’s home(また、実験室では、自分の家のような場所での交流をシミュレートすることは不可能であるため、このような状況でも実験も行っていない)</p> </font> </div> <div> <h1>Experiment description</h1> <font size=5> <p>repeated the experiment more than(また、参加者の一部は複数回実験を行いました)</p> <p>for example experiment is repeated at different times(異なる時間に繰り返し行なったり)</p> <p>Change the acquaintance from unknown social distance at the time of exchange(交流時の社会的立場を不明から知人に変える)</p> <p>we could collect more data by manipulating the value of a single feature(このように、特徴の値を操作することで多くのデータを取得した)</p> </font> </div> <div> <h1>Statistics of participants参加 の統計)</h1> <font size=5> <p>The demographics of the 18 participants were as follows(実験の参加者の統計は以下のとおりでした)</p> <li>gender :M: 10; F: 8;</li> <li>average age: 31.33;</li> <li>age standard deviation:13.16</li> <p>the number of interactions was determined by the stopping condition of the algorithm(実験の交流回数は使用したアルゴリズムの停止条件で決定されました)</p> <p>The number of interactions taking repetitions into account was 30(停止までの交流会数は30回でした)</p> <li>gender :M: 18; F: 12(交流会数は、男性18回、女性12回) </li> <li>average age: 29.43;(平均年齢は19.43)</li> <li> age standard deviation: 12.46(年齢の標準偏差は12.46才)</li> </font> </div> <div> <h1> Experiment setup</h1> <font size=5> <p>The objective of the experiment was to adapt ARMAR-IIIb greeting behaviour from Japanese to German culture.(実験の目的は、日本の挨拶データを持ったARMARをドイツの文化へ適応させること)</p> <p>the algorithm working for ARMAR was trained with only Japanese sociology data and two mappings M0J were built for gestures and words(そのため、ARMARは日本の社会学データとジェスチャーと言葉のマッピングのために作られたM0Jの2つを使って訓練されました)</p> <p> After interacting with German people, the resulting mappings M1 were expected to synthesize the rules of greeting interaction in Germany(ドイツの人々と対話した後得られたマッピングM1は日本とドイツの交流時の挨拶のルールが統合されていることを期待された)</p> <p>M0Gについては触れてない、後で使いそうならちゃんと書く</p> </font> </div> <div> <h1>The experiment protocol is as follows(実験の流れ)</h1> <font size=5> <ol> <li>ARMAR-IIIb is trained with Japanese data(ARMAR-Ⅲbを日本のデータでトレーニングする)</li> <li>encounter are given as inputs to the algorithm and the robot is prepared(ロボットに、今の状況が入力される)</li> <li>Participants entered the room , you are prompted to interact with consideration robot the current situation(参加者は部屋に入って、現在の状況を考慮しロボットと交流するように指示される)</li> <li>The participant enters the room shown in Figure 9(参加者は、図9に示されている部屋に入る)カーテンの説明はいるかな?</li> <li>The robot’s greeting is triggered by an operator as the human participant approaches(参加者がロボットに近づくと、オペレータが挨拶を開始する命令をロボットに出します)</li> <li>After the two parties have greeted each other, the robot is turned off(挨拶が終わった後ロボットの電源を切る)</li> <li>the participant evaluates the robot’s behaviour through a questionnaire(参加者はアンケートを介してロボットの行動を評価する)</li> <li>The mapping is updated using the subject’s feedback (マッピングは被験者のフィードバックを使用して更新されます)</li> <li>Repeat steps 2–8 for each participant(2~8のステップを繰り返す)</li> <li> Training stops after the state changes are stabilized(状態の変化が安定したらトレーニングを終了する)</li> </ol> </font> </div> <div> <h1>Results</h1> <font size=5> <p>The experiment was carried out through 30 interactions(実験は30回の交流を介して行われました)</p> <p>all greeting gestures and word types had the chance of being selected at least once(全ての挨拶のジェスチャーや単語は、少なくとも一度は選択される機会があった)</p> <p>When searching below , show the number of times that has been the use of context(以下に条件の使用回数を記す)</p> <li>gender 34 times</li> <li>location 50 times</li> <li>power relationship 56 times</li> <li>social distance 46 times</li> <li>time of the day 39 times</li> </font> </div> <div> <h1>Results</h1> <font size=5> <p>式の前後のところは後で訳す</p> <p>The new mapping of gestures was verified からJ towards M0G.まで</p> </font> </div> <div> <h1>Result</h1> <font size=5> <p>It referred to how the change in the gesture of the experiment(ジェスチャーの実験での変化を以下に記す)</p> <p>It has become common Bowing is greatly reduced handshake(深い挨拶が大きく減少し、握手が一般的になってきている)</p> <p>It has appeared hug that does not exist in Japan of mapping(日本のマッピングに存在しないハグが出現している)</p> <p>This is because the participants issued a feedback that hug is appropriate(これは、参加者がハグが適切であるというフィードバックを出したからである)</p> <p>ここに表3かな</p> </font> </div> <div> <h1>Result</h1> <font size=5> <p>The biggest change in the words of the mapping , are gone workplace of greeting(言葉のマッピングの最大の変化は、職場の挨拶がなくなっている)</p> <p>Is the use of informal greeting as a small amount of change(微量な変化としては軽い挨拶の使用がある)</p> <p> the changes cannot be considered significant.の訳がわからん</p> <p>some other patterns can be found in the gestures mappings judging from the columns in Table 3 for T = 0,(テーブル3のT=0の時の列からジャスチャーのマッピングパターンを見つけることができる)</p> <p>Japan there is a pattern to the gesture by social distance(日本には社会的立ち位置によってジェスチャーにパターンがある)</p> <p>But in Germany not the pattern(しかしドイツにはそのパターンはない)</p> <p>This is characteristic of Japanese society(これは日本の社会の特徴である)</p> <p>The two mapping has been referring to the feedback of the Japanese sociology literature and the German participants(この2つのマッピングは日本の社会学の文献とドイツの参加者のフィードバックを参考にしている)</p> <p>ここに表4</p> </font> </div> <div> <h1>Discussion</h1> <font size=5> <p>ここはいらない説ある5.1~5.2は前と同じようなこと書いてるからスライドにはいらない</p> <p>ここもいらないかな?</p> <p> concept of a greeting selection system is novel(挨拶選択システムの概念は新しい)</p> <p>its modelling and application can be useful in robotics(モデリングとアプリケーションはロボット工学において非常に有用)</p> <p>In particular, one advantage of the current implementation is that gestures are not robot-specific, since the Master Motor Map framework can be used and converted to any other humanoid robot(特にMMMを使用しているので、ジェスチャを他のロボットに変換することができるのでロボット固有ではない)</p> </font> </div> <div> <h1>Limitations and improvements</h1> <font size=5> <p>In the current implementation, there are also a few limitations. (今の実装には色々制限(問題)がある)</p> <p>The first obvious limitation is related to the manual input of context data(はじめに状況のデータ入力が手動入力であること)</p> <p>→ The integrated use of cameras would make it possible to determine features such as gender, age, and race of the human(カメラ等を用いることにより、人の性別、年齢、人種などを判断できるようになる)</p> <p>Speech recognition system and cameras could also detect the human's own greeting(音声認識システムとカメラは人の挨拶を検出することが出来た)</p> <p>→ Robot itself , to determine whether the greeting was correct(ロボット自身が、挨拶が正しかったかを判断する)</p> <p>The decision to check the distance to the partner , the timing of the greeting , head orientation , or to use other information , whether the response to a greeting is correct and what is expected(判断には、相手との距離、挨拶のタイミング、頭の向き、やその他の情報を使い、挨拶に対する反応が予想されているものと合っているかを調べる)</p> <p>Accurate der than this information is information collected using a questionnaire(この情報はアンケートを使った情報収集より正確である</p> <p>It is possible to extend the set of context by using a plurality of documents(複数の文献を使用することでコンテキストのセットを拡張することができる)</p> <p>This in simplification of greeting model was canceled(挨拶モデルの簡易化中のこれは中止になった</p> </font> </div> <div> <h1>Different kinds of embodiment</h1> <font size=5> <p>Humanoid robot has a body similar to the human(ヒューマノイドロボットは人間に似たボディを持っている</p> <p>But the robot can change shape , the size capability(しかしロボットは形状、大きさ能力を変えることができる</p> <p>Type of greeting me to select the appropriate effect for each robot(挨拶のタイプは各ロボットに対して合った効果を選択する</p> <p>By expanding this robot , depending on their physical characteristics , it is possible to start discovering interaction method with the best human yourself(これを拡張することで、ロボットが、自身の身体的特徴に応じて、自分で最適な人間との対話法を発見し開始することができる</p> <p>And thus rely on visual or hearing the communication(通信には視覚や聴覚に頼ることになる</p> </font> </div> </div> </div> <!-- presentation --> </body> </html>