Mercurial > hg > Members > masakoha > seminar
diff 2014/robot.html @ 17:ff03dd29fd52
arrange
author | Masataka Kohagura <kohagura@cr.ie.u-ryukyu.ac.jp> |
---|---|
date | Tue, 07 Apr 2015 17:59:01 +0900 |
parents | robot.html@1308906213ab |
children |
line wrap: on
line diff
--- /dev/null Thu Jan 01 00:00:00 1970 +0000 +++ b/2014/robot.html Tue Apr 07 17:59:01 2015 +0900 @@ -0,0 +1,443 @@ +<!DOCTYPE html> +<html> +<head> + <meta http-equiv="content-type" content="text/html;charset=utf-8"> + <title>Robot Slide</title> + +<!-- + Notes on CSS media types used: + + 1) projection -> slideshow mode (display one slide at-a-time; hide all others) + 2) screen -> outline mode (display all slides-at-once on screen) + 3) print -> print (and print preview) + + Note: toggle between projection/screen (that is, slideshow/outline) mode using t-key + + Questions, comments? + - send them along to the mailinglist/forum online @ http://groups.google.com/group/webslideshow +--> + +<!-- styles --> +<style media="screen,projection"> + +html, +body, +.presentation { margin: 0; padding: 0; } + +.slide { display: none; + position: absolute; + top: 0; left: 0; + margin: 0; + border: none; + padding: 2% 4% 0% 4%; /* css note: order is => top right bottom left */ + -moz-box-sizing: border-box; + -webkit-box-sizing: border-box; + box-sizing: border-box; + width: 100%; height: 100%; /* css note: lets use border-box; no need to add padding+border to get to 100% */ + overflow-x: hidden; overflow-y: auto; + z-index: 2; + } + +.slide.current { display: block; } /* only display current slide in projection mode */ + +.slide .stepcurrent { color: black; } +.slide .step { color: silver; } /* or hide next steps e.g. .step { visibility: hidden; } */ + +.slide { +/* + background-image: -webkit-linear-gradient(top, blue, aqua, blue, aqua); + background-image: -moz-linear-gradient(top, blue, aqua, blue, aqua); +*/ +} +</style> + +<style media="screen"> +.slide { border-top: 1px solid #888; } +.slide:first-child { border: none; } +</style> + +<style media="print"> +.slide { page-break-inside: avoid; } +.slide h1 { page-break-after: avoid; } +.slide ul { page-break-inside: avoid; } +</style> + + +<!-- add js lib (jquery) --> +<script src="js/jquery-1.7.min.js"></script> + +<!-- S6 JS --> +<script src="js/jquery.slideshow.js"></script> +<script src="js/jquery.slideshow.counter.js"></script> +<script src="js/jquery.slideshow.controls.js"></script> +<script> + $(document).ready( function() { + Slideshow.init(); + + // Example 2: Start Off in Outline Mode + // Slideshow.init( { mode: 'outline' } ); + + // Example 3: Use Custom Transition + // Slideshow.transition = transitionScrollUp; + // Slideshow.init(); + + // Example 4: Start Off in Autoplay Mode with Custom Transition + // Slideshow.transition = transitionScrollUp; + // Slideshow.init( { mode: 'autoplay' } ); + } ); +</script> + +</head> +<body> + + +<div class="presentation"> + + <div class='slide cover'> + <table width="90%" height="90%" border="0" align="center"> + <tr> + <td><div align="center"> + <h1>A Hierarchical Fuzzy Control Design for Indoor Mobile Robot</h1> + </div> + </td> + </tr> + <tr> + <td><div align="right"> + <name>30th May,2014</name> + </div></td> + </tr> + </tr> + </table> + </div> + + + + <div id="cover"> + <h1>Abstract</h1> + + <ul> + <li> + この論文では、自動制御ロボットの制御方法として fuzzy logic motion control と stereo vision based path-planning module を使用した。 + </li> + <li> + どんな未知な環境でも制御できる必要がある。 + </li> + <li> + ロボットの目的はターゲットまでに到達することであるが、その移動の過程で予期しない障害物が出現してもうまくかわしてくれる必要がある。 + </li> + <li> + この論文のオリジナルな要素として、危機的な状況 ( 障害物で進路が邪魔されている状況 ) で fuzzy rules を使用するだけでなく、stereo vision camera を使用した。 + </li> + </ul> + </div> + + <div id="cover"> + <h1>Introduction(1/2)</h1> + <ul> + <li> + Mobile robot application は日々進化をしており、様々なサービスでも使用されるようになっている。これらは予め決められた行動を遂行するようにチューニングされている。 + </li> + <li> + しかし、これらの robot は、想定外の事柄や、様々な環境下に置かれたとしても、 Task が実行される必要がある。 + </li> + <li> + unstructured environment : その環境がどういう地形で、障害物がどこにあるのかわからない環境 + </li> + <li> + dynamic environment : 障害物が動いてたりと、ロボットの周りが変化するような環境 + </li> + <li> + 障害物を避ける手法は、たくさんの論文が出ており、今でも新しい手法がつくられる。 + それらに応じた fuzzy logic control がすでに存在する。 + </li> + <li> + 様々な手法によって fuzzy logic control が成功を収めているが、fuzzy logic controller がいかに効果的に If-Then ルールにのっとって最適化するという問題が残っている。 + </li> + </ul> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + </div> + + <div id="cover"> + <h1>Introduction(2/2)</h1> + <ul> + <li> + robot には、ultra sonic sensors (US sensor) を使用している。 + </li> + <li> + US sensor は 障害物までの距離、壁との関係、vision system をアシストするための機能が付いている。 + </li> + <li> + この論文では、ロボットが障害物を避けるときの問題を階層構造として取り扱った。 + </li> + </ul> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + </div> + + <div id="cover"> + <h1>Behavioral-based fuzzy control architecture </h1> + <p>Fuzzy control は 3つのステップがある。</p> + <ol> + <li> + Fuzzification<br> + 変数を数値で扱うのではなく、アバウトな値として取る。<br> + 例) distance = {Zero, Near, Far} + </li> + <li> + Inference engine<br> + IF_THEN ルールにのっとって、input Data、output Dataを定義する。 + </li> + <li> + Defuzzification<br> + 実数値をアバウトな値に変換する。 + </li> + </ol> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + </div> + + <div id="cover"> + <h1>Behavior-based design</h1> + <ul> + <img src="images/fig01.png" width=50%> + <li> + robot のセンサーがそれぞれの振る舞いを決定する。 + </li> + <li> + ゴールに到達するまでの振る舞いと、壁との位置関係における振る舞いを合成する。 + </li> + <li> + もし障害物があって、それを避けるような振る舞いが起こればそれが最優先される。 + </li> + </ul> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + </div> + + <div id="cover"> + <h1>Path following behavior(1/3)</h1> + <p> + ロボットがゴールに到達するまでの振る舞いに関して説明している<br> + </p> + <img src="images/disori.png" width=50%> + <img src="images/velo.png" width=50%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + <ul> + <li> + Distance : 目標までの距離 + </li> + <li> + Orientation : 目標に対するロボットの向きの角度 + </li> + <li> + Velocity : ロボットの速さ<br> + vl : Velocity of Left wheel<br> + vr : Velocity of Right wheel<br> + </li> + </ul> + </div> + + <div id="cover"> + <h1>Path following behavior(2/3)</h1> + <img src="images/membership.png" width=40%> + <ul> + <li> + どのように変数をとっているのかを表しているグラフ。 + </li> + <li> + 例えば、distance が 200 - 300 のとき、NF(Near-Far)となる。 + </li> + </ul> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + </div> + + <div id="cover"> + <h1>Path following behavior(3/3)</h1> + <p> + ゴールまでの距離とゴールに対するロボットの向きの角度によるホイールの対応表 + </p> + <img src="images/rulefuzzy.png" width=60%> + <p> + 例 : If (d is M Λ α is PM) Then (vl is H Λ vr is S)<br> + ゴールまでの距離が M で、ゴールに対するロボットの向きが PM の場合、vl は H 、vr は S の速度で動く。 + </p> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + </div> + + <div id="cover"> + <h1>Obstacle avoidance behavior 1st layer(1/4)</h1> + <ul> + <li> + US sensor は 3セット一列横並びで並んでいる。 + </li> + <li> + 並んでいるそれぞれのセンサーから障害物がどのぐらい離れているか、その障害物のある角度、camera にて避けるときの振る舞いが決定される。 + </li> + </ul> + <img src="images/fig7.png" width=60%> + </div> + + <div id="cover"> + <h1>Obstacle avoidance behavior 1st layer(2/4)</h1> + + <img src="images/3ori.png" width=60%> + <ul> + <li> + US sensor は 3セット一列横並びで並んでいる。 + </li> + <li> + 並んでいるそれぞれのセンサーから障害物がどのぐらい離れているか、その障害物のある角度、camera にて避けるときの振る舞いが決定される。 + </li> + <li> + 目の前に障害物が現れたとき、どういう避け方をするか決定される. + </li> + <img src="images/steering.png" width=60%> + </ul> + <li> + センサーとの距離と障害物の位置の角度によってロボットが方向転換を行う。 + </li> + <img src="images/case.png" width=60%> + </div> + + + <div id="cover"> + <h1>Obstacle avoidance behavior 1st layer(3/4)</h1> + <img src="images/dis2.png" width=60%> + <img src="images/dis3.png" width=60%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + </div> + + + <div id="cover"> + <h1>Obstacle avoidance behavior 1st layer(4/4)</h1> + <img src="images/rule00.png" width=60%> + <img src="images/rule01.png" width=60%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + <ul> + <li> + 障害物と、それぞれの3つのセンサーからの距離と角度に対応する振る舞い。 + </li> + </ul> + + </div> + + <div id="cover"> + <h1>Obstacle avoidance behavior 2nd layer</h1> + <img src="images/2ndlayer.png" width=60%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + <ul> + <li> + 1st layer で出力された結果に基いて、vl、vr の動作が決定される。 + </li> + <li> + 3rd layer では 2nd layer で決定された振る舞いをホイールに伝える。 + </li> + </ul> + </div> + + <div id="cover"> + <h1>Direct Visual Controlling</h1> + <ul> + <li> + 2nd Layer で XX (未定義) の時には、bumblebee というステレオカメラを使用して周りの状況をつかむ。 + <a href="http://www.viewplus.co.jp/product/camera/bumblebee.html">http://www.apherrecords.com/</a> + </li> + <img src="images/stereovision.png" width=60%> + <li> + ROI : Region Of Interest 着目領域 (要するにウィンドウ) + </li> + <li> + RANSAC : パラメータ推定のアルゴリズム + </li> + <li> + SLAM : Simultaneous Localization and Mapping<br> + 画像解析によって、障害物の情報や避けるための情報を解析する。 + </li> + </ul> + </div> + + <div id="cover"> + <h1>Experimental results(1/7)</h1> + <img src="images/noobs.png" width=50%> + <img src="images/ranobs.png" width=50%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + <ul> + <li> + スムーズに目標に向かって最適な経路をたどっていることがわかる + </li> + </ul> + </div> + + <div id="cover"> + <h1>Experimental results(2/7)</h1> + <img src="images/cul.png" width=50%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + <ul> + <li> + Cul-de-Sac にハマる前までは、FLMC(Fuzzy-Logic motion controller)で制御されていた。 + </li> + <li> + Cul-de-Sac にハマった後では、SVPPM(stereovision based path-planning module)で制御している。 + </li> + <li> + + </li> + </ul> + </div> + + + <div id="cover"> + <h1>Experimental results(3/7)</h1> + <img src="images/cul2.png" width=50%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + </div> + + <div id="cover"> + <h1>Experimental results(4/7)</h1> + <img src="images/pedestrian.png" width=50%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + </div> + + <div id="cover"> + <h1>Experimental results(5/7)</h1> + <img src="images/fast.png" width=50%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + <p> + 他の論文の fast_SLAM との比較 + </p> + </div> + + <div id="cover"> + <h1>Experimental results(6/7)</h1> + <img src="images/var.png" width=50%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + <p> + Obstacl と Robot の位置関係による動作の違いと、使用するデバイスによる動作の違い。 + </p> + </div> + + <div id="cover"> + <h1>Experimental results(7/7)</h1> + <img src="images/result.png" width=50%> + <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> --> + <p> + </p> + </div> + + <div id="cover"> + <h1>Conclusion</h1> + <ul> + <li> + この論文では、Fuzzy control を使ったロボット制御を実装した。 + </li> + <li> + 複雑な環境下における自動制御の能力が、hierarchical architecture based on fuzzy reasoning によって上昇した。 + </li> + <li> + Fuzzy control だけでなく、ステレオカメラを使用することによって、cul-de-sac のような状況を assist できるようにした。 + </li> + </ul> + </div> + + </div> + +</div> <!-- presentation --> +</body> +</html>