comparison 2014/robot.html @ 17:ff03dd29fd52

arrange
author Masataka Kohagura <kohagura@cr.ie.u-ryukyu.ac.jp>
date Tue, 07 Apr 2015 17:59:01 +0900
parents robot.html@1308906213ab
children
comparison
equal deleted inserted replaced
16:a8f7ca92921c 17:ff03dd29fd52
1 <!DOCTYPE html>
2 <html>
3 <head>
4 <meta http-equiv="content-type" content="text/html;charset=utf-8">
5 <title>Robot Slide</title>
6
7 <!--
8 Notes on CSS media types used:
9
10 1) projection -> slideshow mode (display one slide at-a-time; hide all others)
11 2) screen -> outline mode (display all slides-at-once on screen)
12 3) print -> print (and print preview)
13
14 Note: toggle between projection/screen (that is, slideshow/outline) mode using t-key
15
16 Questions, comments?
17 - send them along to the mailinglist/forum online @ http://groups.google.com/group/webslideshow
18 -->
19
20 <!-- styles -->
21 <style media="screen,projection">
22
23 html,
24 body,
25 .presentation { margin: 0; padding: 0; }
26
27 .slide { display: none;
28 position: absolute;
29 top: 0; left: 0;
30 margin: 0;
31 border: none;
32 padding: 2% 4% 0% 4%; /* css note: order is => top right bottom left */
33 -moz-box-sizing: border-box;
34 -webkit-box-sizing: border-box;
35 box-sizing: border-box;
36 width: 100%; height: 100%; /* css note: lets use border-box; no need to add padding+border to get to 100% */
37 overflow-x: hidden; overflow-y: auto;
38 z-index: 2;
39 }
40
41 .slide.current { display: block; } /* only display current slide in projection mode */
42
43 .slide .stepcurrent { color: black; }
44 .slide .step { color: silver; } /* or hide next steps e.g. .step { visibility: hidden; } */
45
46 .slide {
47 /*
48 background-image: -webkit-linear-gradient(top, blue, aqua, blue, aqua);
49 background-image: -moz-linear-gradient(top, blue, aqua, blue, aqua);
50 */
51 }
52 </style>
53
54 <style media="screen">
55 .slide { border-top: 1px solid #888; }
56 .slide:first-child { border: none; }
57 </style>
58
59 <style media="print">
60 .slide { page-break-inside: avoid; }
61 .slide h1 { page-break-after: avoid; }
62 .slide ul { page-break-inside: avoid; }
63 </style>
64
65
66 <!-- add js lib (jquery) -->
67 <script src="js/jquery-1.7.min.js"></script>
68
69 <!-- S6 JS -->
70 <script src="js/jquery.slideshow.js"></script>
71 <script src="js/jquery.slideshow.counter.js"></script>
72 <script src="js/jquery.slideshow.controls.js"></script>
73 <script>
74 $(document).ready( function() {
75 Slideshow.init();
76
77 // Example 2: Start Off in Outline Mode
78 // Slideshow.init( { mode: 'outline' } );
79
80 // Example 3: Use Custom Transition
81 // Slideshow.transition = transitionScrollUp;
82 // Slideshow.init();
83
84 // Example 4: Start Off in Autoplay Mode with Custom Transition
85 // Slideshow.transition = transitionScrollUp;
86 // Slideshow.init( { mode: 'autoplay' } );
87 } );
88 </script>
89
90 </head>
91 <body>
92
93
94 <div class="presentation">
95
96 <div class='slide cover'>
97 <table width="90%" height="90%" border="0" align="center">
98 <tr>
99 <td><div align="center">
100 <h1>A Hierarchical Fuzzy Control Design for Indoor Mobile Robot</h1>
101 </div>
102 </td>
103 </tr>
104 <tr>
105 <td><div align="right">
106 <name>30th May,2014</name>
107 </div></td>
108 </tr>
109 </tr>
110 </table>
111 </div>
112
113
114
115 <div id="cover">
116 <h1>Abstract</h1>
117
118 <ul>
119 <li>
120 この論文では、自動制御ロボットの制御方法として fuzzy logic motion control と stereo vision based path-planning module を使用した。
121 </li>
122 <li>
123 どんな未知な環境でも制御できる必要がある。
124 </li>
125 <li>
126 ロボットの目的はターゲットまでに到達することであるが、その移動の過程で予期しない障害物が出現してもうまくかわしてくれる必要がある。
127 </li>
128 <li>
129 この論文のオリジナルな要素として、危機的な状況 ( 障害物で進路が邪魔されている状況 ) で fuzzy rules を使用するだけでなく、stereo vision camera を使用した。
130 </li>
131 </ul>
132 </div>
133
134 <div id="cover">
135 <h1>Introduction(1/2)</h1>
136 <ul>
137 <li>
138 Mobile robot application は日々進化をしており、様々なサービスでも使用されるようになっている。これらは予め決められた行動を遂行するようにチューニングされている。
139 </li>
140 <li>
141 しかし、これらの robot は、想定外の事柄や、様々な環境下に置かれたとしても、 Task が実行される必要がある。
142 </li>
143 <li>
144 unstructured environment : その環境がどういう地形で、障害物がどこにあるのかわからない環境
145 </li>
146 <li>
147 dynamic environment : 障害物が動いてたりと、ロボットの周りが変化するような環境
148 </li>
149 <li>
150 障害物を避ける手法は、たくさんの論文が出ており、今でも新しい手法がつくられる。
151 それらに応じた fuzzy logic control がすでに存在する。
152 </li>
153 <li>
154 様々な手法によって fuzzy logic control が成功を収めているが、fuzzy logic controller がいかに効果的に If-Then ルールにのっとって最適化するという問題が残っている。
155 </li>
156 </ul>
157 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
158 </div>
159
160 <div id="cover">
161 <h1>Introduction(2/2)</h1>
162 <ul>
163 <li>
164 robot には、ultra sonic sensors (US sensor) を使用している。
165 </li>
166 <li>
167 US sensor は 障害物までの距離、壁との関係、vision system をアシストするための機能が付いている。
168 </li>
169 <li>
170 この論文では、ロボットが障害物を避けるときの問題を階層構造として取り扱った。
171 </li>
172 </ul>
173 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
174 </div>
175
176 <div id="cover">
177 <h1>Behavioral-based fuzzy control architecture </h1>
178 <p>Fuzzy control は 3つのステップがある。</p>
179 <ol>
180 <li>
181 Fuzzification<br>
182 変数を数値で扱うのではなく、アバウトな値として取る。<br>
183 例) distance = {Zero, Near, Far}
184 </li>
185 <li>
186 Inference engine<br>
187 IF_THEN ルールにのっとって、input Data、output Dataを定義する。
188 </li>
189 <li>
190 Defuzzification<br>
191 実数値をアバウトな値に変換する。
192 </li>
193 </ol>
194 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
195 </div>
196
197 <div id="cover">
198 <h1>Behavior-based design</h1>
199 <ul>
200 <img src="images/fig01.png" width=50%>
201 <li>
202 robot のセンサーがそれぞれの振る舞いを決定する。
203 </li>
204 <li>
205 ゴールに到達するまでの振る舞いと、壁との位置関係における振る舞いを合成する。
206 </li>
207 <li>
208 もし障害物があって、それを避けるような振る舞いが起こればそれが最優先される。
209 </li>
210 </ul>
211 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
212 </div>
213
214 <div id="cover">
215 <h1>Path following behavior(1/3)</h1>
216 <p>
217 ロボットがゴールに到達するまでの振る舞いに関して説明している<br>
218 </p>
219 <img src="images/disori.png" width=50%>
220 <img src="images/velo.png" width=50%>
221 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
222 <ul>
223 <li>
224 Distance : 目標までの距離
225 </li>
226 <li>
227 Orientation : 目標に対するロボットの向きの角度
228 </li>
229 <li>
230 Velocity : ロボットの速さ<br>
231 vl : Velocity of Left wheel<br>
232 vr : Velocity of Right wheel<br>
233 </li>
234 </ul>
235 </div>
236
237 <div id="cover">
238 <h1>Path following behavior(2/3)</h1>
239 <img src="images/membership.png" width=40%>
240 <ul>
241 <li>
242 どのように変数をとっているのかを表しているグラフ。
243 </li>
244 <li>
245 例えば、distance が 200 - 300 のとき、NF(Near-Far)となる。
246 </li>
247 </ul>
248 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
249 </div>
250
251 <div id="cover">
252 <h1>Path following behavior(3/3)</h1>
253 <p>
254 ゴールまでの距離とゴールに対するロボットの向きの角度によるホイールの対応表
255 </p>
256 <img src="images/rulefuzzy.png" width=60%>
257 <p>
258 例 : If (d is M Λ α is PM) Then (vl is H Λ vr is S)<br>
259 ゴールまでの距離が M で、ゴールに対するロボットの向きが PM の場合、vl は H 、vr は S の速度で動く。
260 </p>
261 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
262 </div>
263
264 <div id="cover">
265 <h1>Obstacle avoidance behavior 1st layer(1/4)</h1>
266 <ul>
267 <li>
268 US sensor は 3セット一列横並びで並んでいる。
269 </li>
270 <li>
271 並んでいるそれぞれのセンサーから障害物がどのぐらい離れているか、その障害物のある角度、camera にて避けるときの振る舞いが決定される。
272 </li>
273 </ul>
274 <img src="images/fig7.png" width=60%>
275 </div>
276
277 <div id="cover">
278 <h1>Obstacle avoidance behavior 1st layer(2/4)</h1>
279
280 <img src="images/3ori.png" width=60%>
281 <ul>
282 <li>
283 US sensor は 3セット一列横並びで並んでいる。
284 </li>
285 <li>
286 並んでいるそれぞれのセンサーから障害物がどのぐらい離れているか、その障害物のある角度、camera にて避けるときの振る舞いが決定される。
287 </li>
288 <li>
289 目の前に障害物が現れたとき、どういう避け方をするか決定される.
290 </li>
291 <img src="images/steering.png" width=60%>
292 </ul>
293 <li>
294 センサーとの距離と障害物の位置の角度によってロボットが方向転換を行う。
295 </li>
296 <img src="images/case.png" width=60%>
297 </div>
298
299
300 <div id="cover">
301 <h1>Obstacle avoidance behavior 1st layer(3/4)</h1>
302 <img src="images/dis2.png" width=60%>
303 <img src="images/dis3.png" width=60%>
304 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
305 </div>
306
307
308 <div id="cover">
309 <h1>Obstacle avoidance behavior 1st layer(4/4)</h1>
310 <img src="images/rule00.png" width=60%>
311 <img src="images/rule01.png" width=60%>
312 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
313 <ul>
314 <li>
315 障害物と、それぞれの3つのセンサーからの距離と角度に対応する振る舞い。
316 </li>
317 </ul>
318
319 </div>
320
321 <div id="cover">
322 <h1>Obstacle avoidance behavior 2nd layer</h1>
323 <img src="images/2ndlayer.png" width=60%>
324 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
325 <ul>
326 <li>
327 1st layer で出力された結果に基いて、vl、vr の動作が決定される。
328 </li>
329 <li>
330 3rd layer では 2nd layer で決定された振る舞いをホイールに伝える。
331 </li>
332 </ul>
333 </div>
334
335 <div id="cover">
336 <h1>Direct Visual Controlling</h1>
337 <ul>
338 <li>
339 2nd Layer で XX (未定義) の時には、bumblebee というステレオカメラを使用して周りの状況をつかむ。
340 <a href="http://www.viewplus.co.jp/product/camera/bumblebee.html">http://www.apherrecords.com/</a>
341 </li>
342 <img src="images/stereovision.png" width=60%>
343 <li>
344 ROI : Region Of Interest 着目領域 (要するにウィンドウ)
345 </li>
346 <li>
347 RANSAC : パラメータ推定のアルゴリズム
348 </li>
349 <li>
350 SLAM : Simultaneous Localization and Mapping<br>
351 画像解析によって、障害物の情報や避けるための情報を解析する。
352 </li>
353 </ul>
354 </div>
355
356 <div id="cover">
357 <h1>Experimental results(1/7)</h1>
358 <img src="images/noobs.png" width=50%>
359 <img src="images/ranobs.png" width=50%>
360 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
361 <ul>
362 <li>
363 スムーズに目標に向かって最適な経路をたどっていることがわかる
364 </li>
365 </ul>
366 </div>
367
368 <div id="cover">
369 <h1>Experimental results(2/7)</h1>
370 <img src="images/cul.png" width=50%>
371 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
372 <ul>
373 <li>
374 Cul-de-Sac にハマる前までは、FLMC(Fuzzy-Logic motion controller)で制御されていた。
375 </li>
376 <li>
377 Cul-de-Sac にハマった後では、SVPPM(stereovision based path-planning module)で制御している。
378 </li>
379 <li>
380
381 </li>
382 </ul>
383 </div>
384
385
386 <div id="cover">
387 <h1>Experimental results(3/7)</h1>
388 <img src="images/cul2.png" width=50%>
389 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
390 </div>
391
392 <div id="cover">
393 <h1>Experimental results(4/7)</h1>
394 <img src="images/pedestrian.png" width=50%>
395 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
396 </div>
397
398 <div id="cover">
399 <h1>Experimental results(5/7)</h1>
400 <img src="images/fast.png" width=50%>
401 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
402 <p>
403 他の論文の fast_SLAM との比較
404 </p>
405 </div>
406
407 <div id="cover">
408 <h1>Experimental results(6/7)</h1>
409 <img src="images/var.png" width=50%>
410 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
411 <p>
412 Obstacl と Robot の位置関係による動作の違いと、使用するデバイスによる動作の違い。
413 </p>
414 </div>
415
416 <div id="cover">
417 <h1>Experimental results(7/7)</h1>
418 <img src="images/result.png" width=50%>
419 <!-- <a href="http://www.apherrecords.com/">http://www.apherrecords.com/</a> -->
420 <p>
421 </p>
422 </div>
423
424 <div id="cover">
425 <h1>Conclusion</h1>
426 <ul>
427 <li>
428 この論文では、Fuzzy control を使ったロボット制御を実装した。
429 </li>
430 <li>
431 複雑な環境下における自動制御の能力が、hierarchical architecture based on fuzzy reasoning によって上昇した。
432 </li>
433 <li>
434 Fuzzy control だけでなく、ステレオカメラを使用することによって、cul-de-sac のような状況を assist できるようにした。
435 </li>
436 </ul>
437 </div>
438
439 </div>
440
441 </div> <!-- presentation -->
442 </body>
443 </html>