SlideShare a Scribd company logo
1 of 25
自律走行システムの考案
-強いキーパーロボットを作るために-
佐伯 明俊 橋本 紘弥 檜垣 秀汰
東山高等学校 ロボット研究会
1 要旨・概要
本研究は、サッカー競技を行う自律制御ロボットにおける全方位視覚センサを用いた確実な測距方
法の検討とそれを用いた移動制御方法の考案である。
我々は、強いゴールキーパーロボットの条件を、ゴールから一定の距離を保ったまま左右に移動
し、素早くボールの正面に行きシュートを防ぐことができることだと考えている。そのためには、ロ
ボットがゴールまでの距離を常に確実に測定できることが必要となってくる。従来、一般的に使用さ
れてきた測距センサである赤外線センサや超音波センサは、周囲の物体等の影響を受けて正しく測距
ができない場合があり、ロボットが予測不能の動きをするという問題点がある。この問題を解決する
ために、ボール検出用に使用している光学センサである全方位視覚センサを活用することとし、測距
の実験を行った。検証を重ねた結果、赤外線センサや超音波センサと言った反射型測距センサを使わ
なくても、ゴールとの距離を測定できることがわかった。さらに、全方位視覚センサから得られる
ゴールの座標情報をもとに適切な座標変換を行うことによって、ロボットからゴールまでの距離を確
実に把握できるようになり、ロボットはゴールから一定の距離を保ったまま平行移動ができるように
なった。
自律制御ロボットが対象物との距離を確実に測定できることは、ロボットの自由自在な動きを可能
にする。この全方位視覚センサによる測距技術は様々な分野に応用できると考えられる。
2 問題提起、研究目的
2.1 はじめに
我々は、自律制御ロボットでサッカーをする RobocupJunior*1
という競技に参加している。各
チーム、二台のロボットで対戦する競技となっており、一台は攻撃用のアタッカー、もう一台をゴー
ルキーパーとしてプログラムをするチームが多い。具体的な競技の様子を (図 1) に示す。使用する
コートの寸法は長辺 243 cm、短辺 182 cm で (図 2) に示すとおりである。競技で勝つためには、強
いゴールキーパーロボットを作ることが大きな課題になってくる。以下、本研究では二台のうちゴー
ルを守る役割をするロボットを「キーパーロボット」(図 3) と称する。
*1 次世代のロボット開発者を育てる競技 (https://junior.robocup.org/)
1
我々が目指すキーパーロボットの条件は以下の 3 点である。
1. ボールがゴールに向かってくる時に、素早くボールを認識する。
2. ゴールから一定の距離を保って、ゴール前を左右方向に正確に平行移動する。
3. ボール正面に動いて、ボールを確実にキャッチする。
一定の距離を保ってゴール前を平行移動するためには、キーパーロボットがゴールとの距離を常に
正確に測定できることが重要である。
2.2 測距センサの課題
一般的にゴールや周囲の壁との距離の測定には超音波センサや赤外線センサが使われている。これ
らの測距センサは周囲の環境に影響されるという問題点がある。
赤外線センサの問題点 RobocupJunior のコート壁面色はマットブラックと指定されている (競技
規定 5-3)[1]。マットブラックは赤外線を反射しにくく、赤外線センサは壁から離れた位置で
は正確な測距ができない。
超音波センサの問題点 指向性が広いため周りの反射波を拾いやすく、コート面など目的物以外の距
離を測定してしまうことがある。
2018 年 RobocupJuniorJapanOpen*2
ビギナーズ競技時には超音波センサを使用していたが、測
距が安定しないため、ロボットがボールを取りに行けないことやオウンゴールをすることがあった。
そこで、誤動作を防ぐために取り付け位置の調整をし、指向性を鋭くするために超音波センサの周囲
をスポンジで囲んだりしたが、誤動作が無くなることはなかった。
2.3 測距センサの代替案
2018 年 RobocupJuniorJapanOpen の情報交換の場で、測距の不安定さを改善する案として、全
方位視覚センサが使えるのではないかという議論があった。全方位視覚センサはカメラで捉えた映像
を画像処理するしくみになっており、必要な情報を視覚的に捉えることができる。ロボカップ競技で
はゴールの誤認識を避けるため、ゴールに使用されている黄色と青色の二色はロボットに使用しては
いけないルールになっている。(競技規定 4-2)[1] コートの周囲にいる選手もこの二色を使用すること
はできない。(競技規定 3-2)[1] 例えば、黄色、青色の服装は禁止で、工具やケースの色がこの 2 色に
近い場合、コート付近に置くことはできないことになっている。よって、全方位視覚センサを用いれ
ば、周囲の環境の影響を受けずに測距できる可能性は高い。そこで、全方位視覚センサを測距に応用
する方法を検討したのだが、その時点では検討時間が不足しロボットに搭載することはできなかっ
た。2019 年の全国大会でも全方位視覚センサを測距センサとして使用しているチームはなかった。
継続して全方位視覚センサについての情報を探す中で、Interface2018 年 7 月号の記事 [2] から、適
切な画像処理を行うことで測距ができるのではないかと考えた。その後、1996 年 5 月の電子情報通
信学会論文誌に掲載されている論文 [3] を発見し、記載されている「床面方向への変換」を応用すれ
*2 RobocupJunior の全国大会
2
ば全方位視覚センサを測距センサとして使用できると考えた。
2.4 全方位視覚センサについて
我々が使っている全方位視覚センサは、(図 4) のような構造をしており、双曲面ミラー使って
360 ° 全周の画像を一度にカメラに写すことができる。また、カメラを通して写る像の指定された色
の物体の中心座標を得ることができる。(図 5)
(図 6) には黄色のゴールがカメラに写っている様子を示す。緑色の四角はカメラが認識している
ゴールであり、白い十字はその中心を示している。
2.5 システムの構成
実験に使ったロボットの構成の概要を (図 7) に示す。
このロボットは本サッカー競技に出場するために設計されており、全方位視覚センサ、ジャイロセ
ンサ、四輪のオムニホイールを搭載している。オムニホイールを採用していることで 360 ° 全方向
への移動が可能である。さらに、ジャイロセンサで方位を検出することにより常に一定の方向を向い
たまま移動することが可能である。
RobocupJunior の競技規定 9-2[1] により、ロボットは直径 22 cm、重量 2400 g 以内である。
2.6 全方位視覚センサによる測距の課題
キーパーロボットは常にゴールに背を向けた状態で動くことになる。(図 8) このため、カメラから
得られるゴールの y 座標 は正の値をとる。また、ゴールの x 座標はロボットがゴールの中心にいる
ときに 0 になり、ゴール中心から左右に移動することによって正または負の値を取る。(図 9)(図 10)
このことから、カメラ画像から得られるゴール座標の y 座標値 が一定になるように制御すれば、
キーパーロボットがゴールからの距離を一定に保って移動できるのではないかと考えた。ロボットを
ゴールの正面
(
x 座標 = 0
)
でゴールから 250 mm の地点に置いたときに y 座標 の値が 45 であった
ので y 座標 = 45 になるように制御することとし、このアルゴリズムを実装したプログラムを 2020
年冬に作成し、実際に試合で使用してみた。
しかし y 座標値 が一定になるように制御しても、キーパーロボットはゴールラインに対して平行
移動をしなかった。試合でのキーパーロボットの動きは下記の通りであった。
1. ゴールとの距離を一定に保てず、コートの左右の端で前に出てしまい、対戦相手ロボットに後
ろに回り込まれた。
2. 平行移動してボールの前面に行こうとする動きではなく、ロボット自体が前方に出る動きをし
てしまうため、ボールに追いつけなくなった。
3. ゴールから離れていくとゴールを見失うことがあった。 左右のサイドラインに近づくにつれ
てゴールを見失っているような動きになった。
動きそのものは、超音波センサ使用時よりも改善されたが、目標とするキーパーロボットの動きは
できなかった。y 座標 を一定にするだけでは、 キーパーロボットはゴールと平行には動かないこと
3
がわかった。
2.7 研究目的
本研究の目的は、全方位視覚センサを用いた自律制御ロボットの正確な測距方法の検討とそれを用
いた移動制御方法の考案である。
3 実験 I
3.1 目的
試合時の不具合の原因を探るためにロボットの動きの測定を行った。
プログラムは試合時と同じものである。
3.2 方法
ゴールラインの白線上にゴール中央から 10 cm おきに計測点(緑色)を作り (図 11)、y 座標 = 45
に保った状態でロボットを移動させゴールラインからの距離と x 座標の値を測定すると共に、その位
置の印(オレンジ色)をコートに付ける。
又、ロボットを動かして動画を撮影する。
3.3 結果
実際に動かした様子を (図 12) に示す。また実験で得られた座標データを (図 13) に示す。
ロボットはほぼ印を付けたところを通過したことが動画で確認できた。このことから、ロボットは
正しく y 座標 = 45 になるように制御されていることが確認できた。さらに取得した座標データか
ら、y 座標 を一定に保ちながらゴールからの変位を大きくするとロボットはゴールラインから遠ざか
ることが分かった。
3.4 考察
カメラから見た画像を確認すると、ロボットの移動に伴ってゴールの中心はカメラの画像内を円弧
状に移動していることが確認できた。(図 14) そのため、ロボットをゴールラインから一定の距離を
保ったまま移動させるためには、ゴール中心からの変位が大きくなった時に目標とするゴールの座標
を円弧に合わせるような制御が必要だと考えられた。
4
4 実験 II
4.1 目的
x 座標 が大きくなった時に y 座標 の目標値を小さくしゴールの軌跡を円弧状する動作を考え、ロ
ボットの軌跡を直線に近づける。
4.2 方法
円弧状の軌跡を描かせる方法として、カメラから得られるゴール中心の座標 (x, y) を元に x2
+ y2
が一定になるように制御する。
実験 I と同様にゴールラインの白線上に 10 cm おきに計測点を作り、x2
+ y2
= 452
の時のロボッ
トのゴールラインからの距離と x 座標の値を測定し、コートに印(青色)を付ける。
又、ロボットを動かして動画を撮影する。
4.3 結果
実際に動かした様子を (図 15) に示す。また実験で得られた座標データを (図 16) に示す。
このことから、単純に x2
+ y2
が一定になるようにするとロボットはゴールを中心にして半円形を
描くように動くことが分かった。
4.4 考察
x2
+ y2
= 452
という式ではカメラ画像内でゴールが移動する円弧状の軌跡をうまく実現できてい
ないことが分かる。x2
+ y2
= R2
(R は定数) とした場合にロボットはゴールを中心とした半円形を
描いて動くので、半径 R が小さくなると行動範囲が小さくなるため守備範囲が狭くなる。逆に半径
R を大きくするとゴールの正面の位置では前方に大きく出ることになる。この方法はキーパーロボッ
トのプログラムとしては適切ではないことが分かった。
実験 I 及び II の結果より、
、ロボットをゴールラインに対して平行に動かすためには双曲面ミラー
の光学的特性を正確に考慮した制御を行わなければ難しいと考えられる。
5 実験 III
5.1 目的
全方位視覚センサの座標情報からゴールとの正確な距離を求める座標変換方法を調べて、その効果
をシミュレーションで確認する。
5
5.2 方法
参考文献 [4] から全方位視覚センサから得られる座標位置と実際の目標物の座標位置の関係は全方
位視覚センサの構造を (図 17) とすると、次の式で表される。
x = X × f ×
(
b2
− c2
)
(b2 + c2) Z − 2bc
√
X2 + Y 2 + Z2
(1)
y = Y × f ×
(
b2
− c2
)
(b2 + c2) Z − 2bc
√
X2 + Y 2 + Z2
(2)
上記の式使うことで、3 次元空間中の任意の座標 (X, Y, Z) から視覚センサから得られる座標 (x, y)
に変換することができる。この変換式を用いることで、
ゴールとロボットの位置関係が座標 (X, Y, Z)
で与えられたときに、カメラ画像上でのゴールの目標値としての 座標 p (x, y) を求めることがで
きる。
その 座標 p と全方位視覚センサから得られた実際のゴールの座標を比較することでロボットの動
きを制御することができると考えた。以下に具体的な変換方法を示す。
全方位視覚センサのカメラから得られたゴール座標 (図 9, 図 10) を (x, y) とし、(図 18) に示すよ
うに、コート上でのロボットとゴールラインとの距離を D、ロボットとゴールとの距離を d と、ロ
ボットからゴールへの角度を θ とすると、
θ = arctan
(
x
y
)
(3)
d =
D
cos θ
(4)
式 (2) に双曲面ミラーの設計パラメータ (図 17) を代入し、さらにロボットのカメラ画像上で Y 軸
をゴール方向 (d) に合わせると X=0 とすることができるため、
y = Y × f ×
48.59
15853.8 + 72.01 ×
√
Y 2 + 33306.2
(5)
この式に、実験 I の結果 (図 13) から分かるロボットがゴール正面 (θ = 0) にあるときの実測デー
タを代入し、f を算出する。
Y = 263 mm
y = 45
式 (5) に代入し、
45 = 263 × f ×
48.59
15853.8 + 72.01 ×
√
69169 + 33306.2
f = 137.0 (6)
6
式 (5) に f を代入することで次のような式を得ることができる。
y = Y ×
6656.83
15853.8 + 72.01 ×
√
Y 2 + 33306.2
(7)
式 (7) を適用し、ゴールラインから 250 mm の位置をロボットが移動するときのカメラ座標上での
原点からゴールまでの距離 y′
の計算値は下記の式で求めることができる。
D = 250 mm
Y =
D
cos θ
y′
= Y ×
6.657 × 103
1.585 × 104 + 7.201 × 101 ×
√
Y 2 + 3.331 × 104
(8)
この式から、ある位置でロボットからゴールを見た時の 角度θ が決まるとロボットからゴールま
でのカメラ座標上での距離の 目標値 y′
が求まる。また全方向視覚センサから得られたゴールの 座
標 (x, y) からカメラ座標上での原点とゴールまでの距離を r とすると r は
r =
√
x2 + y2 (9)
で求まるので y′
= r となるようにロボットの移動方向を制御することでロボットを指定した軌
跡で動かすことが可能になる。具体的には、本実験ではゴールは常にロボットの背面に有るので、
y′
< r の時はロボットをゴールラインに近づける方向に移動させ、y′
> r の時はロボットをゴール
ラインから遠ざける方向に移動させる。
本実験では実際にロボットを走行させる前にシミュレーションで確認を行う。シミュレーションの
方法は実際にロボットをゴールラインから 250 mm の距離を保って平行移動させ、その時のゴールの
座標データ (x, y) から r と y′
を計算した結果を比較する。
5.3 結果
ロボットから得たゴールの座標 (x,y) を元に式 (9) でゴールまでの距離 r を計算した結果(赤線)
とゴールまでの方位を元にゴールの目標値 y′
を式 (8) で計算した結果(青線)を比較した結果を (図
19) に図示する、2つの計算結果は概ね一致した。
5.4 考察
この結果から式 (8) を使うことにより双曲面ミラーによる画像の歪みが正確に補正されることが示
された。また全方位視覚センサから得られるゴールの座標情報を元にして r と y′
が一致するように
ロボットを制御することでゴールラインと平行に移動させることが可能であることが示された。
7
6 実験 IV
6.1 目的
実験 III で計算したパラメータをもとにプログラムを組み実際に走行実験を行い動作を確認する。
6.2 方法
実験 III で計算したパラメータをもとにプログラムを組み、ゴールラインからの距離 (図 18) の D
が 250 mm と 350 mm になる 2 つの場合のロボットの実際の動きを測定する。
6.3 結果
実際に動かした様子を (図 20, 図 21) に示す。
ゴールラインからの距離を指定された一定値に保ちながらゴールラインに対して平行に動いた。
6.4 考察
参考文献 [4] の式を用いて双曲面ミラーの光学的特性である画像の歪みを正確に補正することに
よって、全方位視覚センサを用いてロボットをゴールラインと平行に正確に移動させる制御が行える
ことが確認できた。
7 結論
本研究では、サッカー競技を行う自律制御ロボットに使用されている双曲面ミラーを使用した全方
位視覚センサを用いて正確かつ確実な測距を実現する方法を探った。
従来、一般的に用いられてきた測距センサである超音波センサや赤外線センサは反射型であるた
め、目標物以外からの反射によって確実な測距が出来ない場合があるという問題点があった。本研究
ではボール検出用に使用されていた光学センサである全方位視覚センサを使用しゴールとの距離及び
方位を測定しロボットを制御することが可能であることを実験 I で示し、この問題の解決の方向を示
すことができた。しかしながら実験 I 及び実験 II から、双曲線ミラーで得られる全方位画像には特
有の歪みがあり、ロボットをゴールラインに平行に移動させるためにはその歪みを補正する必要があ
ることが分かった。
そこで、全方位視覚センサからえられるゴールの座標情報をもとに画像の歪みを補正する適切な座
標変換を行うことによって、ロボットからゴールまでの距離を常に正確に把握し、一定の距離を保っ
たままロボットを平行移動させることが可能であることを実験 III 及び実験Ⅳにおいて示した。
本研究ではロボットをゴールラインと平行に動かすことを目標としたが、ロボットからマーカーま
での方位 θ と距離 d の関係に関する適切な関数を作成することで任意の曲線で動かすことも可能に
なると考えられる。今後の取り組み課題としたい。
8
さらに、この技術を適用することで、真横や正面などの限られた位置に物体が無かったとしても周
囲に存在する適切な物体をマーカーとして用いることで意図した動きをさせることが可能になる。こ
れは様々な環境に適応し、指定した動作を正確にすることが要求される災害対応ロボットや近年進化
の著しい宅配ロボットなど、様々な分野に応用することが可能であると考える。
なお、我々はこの成果を生かして「強いキーパーロボット」を作ることを最終目標としていたが、
2020 年3月以降は新型コロナウイルス感染症の影響による試合自粛のため研究成果を実地で試すこ
とが出来なかった。今後、大会が開催されれば本研究成果を実地で試し、さらなる移動制御方法の改
良を試みたい。
8 参考文献
参考文献
[1] RoboCupJunior Soccer Rules 2020. https://junior.robocup.org/wp-content/uploads/
2020Rules/final_2020rules/RCJ2020-Soccer-final.pdf.
[2] 床井浩平. 全方位画像から VR 的ビューを表示する仕組み. Interface 2018 年 7 月号, Vol. 44,
No. 7, pp. 38–44, 2018.
[3] 山澤一誠, 八木康史, 谷内田正彦. 移動ロボットのナビゲーションのための全方位視覚センサ
HyperOmni Vision の提案. 電子情報通信学会論文誌 D, Vol. 79, No. 5, pp. 698–707, 1996.
[4] 山澤一誠. 全方位視覚センサ HyperOmni Vision に関する研究: 移動ロボットのナビゲーション
のために. Osaka University Knowledge Archive:OUKA, 1997.
9 謝辞
本研究を行うにあたり、実験に快く協力してくれたロボット研究会の部員の皆さん、ご指導いただ
いた顧問の先生方及び草稿を読んでくれた同級生に深くお礼申し上げます。
9
10 図表・画像
図 1 競技の様子
図 2 使用するコート
10
図 3 キーパーロボットの写真
図 4 全方位視覚センサの構造
11
図 5 カメラ画像の座標系
図 6 カメラの撮影画像
12
図 7 ロボットの構成 (設計データ)
図 8 キーパーとロボットの位置関係
13
図 9 カメラ画像上でのゴールの位置 1
図 10 カメラ画像上でのゴールの位置 2
14
図 11 コートの写真 (実験 I)
15
[1]
[2]
[3]
[4]
図 12 実際に動かした様子 (実験 I)
16
回数 変位
変位(cm)
-50 -40 -30 -20 -10 0 10 20 30 40 50
1
距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 35.3 37.2 44.8
x座標 59 49 39 24 12 -5 -25 -40 -50 -57 -65
y座標 45 45 45 45 45 45 45 45 45 45 45
2
距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 35 39 44.9
x座標 59 49 39 24 12 -5 -25 -39 -50 -58 -65
y座標 45 45 45 45 45 45 45 45 45 45 45
3
距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 35 37.5 45
x座標 59 49 39 24 12 -5 -25 -40 -50 -58 -65
y座標 45 45 45 45 45 45 45 45 45 45 45
4
距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 34 37.5 44.8
x座標 59 49 39 24 12 -5 -25 -40 -50 -57 -65
y座標 45 45 45 45 45 45 45 45 45 45 45
5
距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 33.5 38 44.9
x座標 59 49 39 24 12 -5 -25 -39 -50 -57 -65
y座標 45 45 45 45 45 45 45 45 45 45 45
平均値
距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 34.56 37.84 44.88
x座標 59 49 39 24 12 -5 -25 -39.6 -50 -57.4 -65
y座標 45 45 45 45 45 45 45 45 45 45 45
図 13 実験 I の結果 (表 1 とグラフ 1)
17
[1]
[2]
[3]
[4]
図 14 カメラに写ったゴールの様子
18
[1]
[2]
[3]
[4]
図 15 実際に動かした様子 (実験 II)
19
表2 ロボットの変位と座標位置での測定結果(実験Ⅱ)
回数 変位
変位(cm)
-50 -40 -30 -20 -10 0 10 20 30 40 50
1
距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0
x座標 0 0 0 26 11 -4 -20 -33 0 0 0
y座標 0 0 0 37 44 44 40 31 0 0 0
2
距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0
x座標 0 0 0 26 11 -4 -20 -33 0 0 0
y座標 0 0 0 37 44 44 40 31 0 0 0
3
距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0
x座標 0 0 0 26 11 -4 -20 -33 0 0 0
y座標 0 0 0 37 44 44 40 31 0 0 0
4
距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0
x座標 0 0 0 26 11 -4 -20 -33 0 0 0
y座標 0 0 0 37 44 44 40 31 0 0 0
5
距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0
x座標 0 0 0 26 11 -4 -20 -33 0 0 0
y座標 0 0 0 37 44 44 40 31 0 0 0
平均値
距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0
x座標 0 0 0 26 11 -4 -20 -33 0 0 0
y座標 0 0 0 37 44 44 40 31 0 0 0
図 16 実験 II の結果 (表 2 とグラフ 2)
20
カメラのパラメーター
焦点距離 2.8 mm
画角 55.6 °
画素数 QVGA(320 × 240)
双曲面ミラーのパラメーター
b 4.375
c 8.23
d 13.125
Z -182.5
図 17 視覚センサの構造と寸法
21
図 18 ロボットとゴールの位置関係
22
表3 ロボットの変位と座標位置での測定結果(実験Ⅲ)
回数 変位
変位(cm)
-50 -40 -30 -20 -10 0 10 20 30 40 50
1
距離(cm) 25 25 25 25 25 25 25 25 25 25 25
x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78
y座標 28 33 40 41 42 43 41 41 37 32 27
2
距離(cm) 25 25 25 25 25 25 25 25 25 25 25
x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78
y座標 28 33 40 41 42 43 41 41 37 32 27
3
距離(cm) 25 25 25 25 25 25 25 25 25 25 25
x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78
y座標 28 33 40 41 42 43 41 41 37 32 27
4
距離(cm) 25 25 25 25 25 25 25 25 25 25 25
x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78
y座標 28 33 40 41 42 43 41 41 37 32 27
5
距離(cm) 25 25 25 25 25 25 25 25 25 25 25
x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78
y座標 28 33 40 41 42 43 41 41 37 32 27
平均値
距離(cm) 25 25 25 25 25 25 25 25 25 25 25
x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78
y座標 28 33 40 41 42 43 41 41 37 32 27
計算値
θ(rad) 1.17 1.01 0.69 0.55 0.26 -0.12 -0.53 -0.73 -0.97 -1.13 -1.24
θ(deg) 67.35 58.12 39.54 31.39 14.68 -6.64 -30.36 -42.09 -55.61 -64.50 -70.94
r=SQRT(x^2+y^2) 72.62 62.43 51.86 48.02 43.42 43.29 47.51 55.23 65.46 74.25 82.54
X=250/cos(θ) 648.35 472.98 324.10 292.81 258.43 251.68 289.68 336.75 442.30 580.07 764.27
y 67.06 60.13 50.60 47.89 44.53 43.81 47.60 51.61 58.52 64.74 70.24
図 19 実験 III の結果 (表 3 とグラフ 3)
23
[1]
[2]
[3]
[4]
図 20 実際に動かした様子/ゴールラインからの距離 250 mm(実験 IV)
24
[1]
[2]
[3]
[4]
図 21 実際に動かした様子/ゴールラインからの距離 350 mm(実験 IV)
25

More Related Content

Similar to 学生科学賞2020_自律走行システムの考案

ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例Yoshitaka HARA
 
(配布用)Virtual shizuoka(静岡県)
(配布用)Virtual shizuoka(静岡県)(配布用)Virtual shizuoka(静岡県)
(配布用)Virtual shizuoka(静岡県)Naoya Sugimoto
 
Akihiro Aritoshi Bachelor Thesis
Akihiro Aritoshi Bachelor ThesisAkihiro Aritoshi Bachelor Thesis
Akihiro Aritoshi Bachelor Thesispflab
 
Gps動態管理システムのご提案 2012 august
Gps動態管理システムのご提案 2012 augustGps動態管理システムのご提案 2012 august
Gps動態管理システムのご提案 2012 augustITDORAKU
 
まねっこロボット
まねっこロボットまねっこロボット
まねっこロボットopenrtm
 
単眼カメラを用いた握力計測に向けた基礎検討(EC2019)
単眼カメラを用いた握力計測に向けた基礎検討(EC2019)単眼カメラを用いた握力計測に向けた基礎検討(EC2019)
単眼カメラを用いた握力計測に向けた基礎検討(EC2019)sugiuralab
 

Similar to 学生科学賞2020_自律走行システムの考案 (8)

ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例
 
(配布用)Virtual shizuoka(静岡県)
(配布用)Virtual shizuoka(静岡県)(配布用)Virtual shizuoka(静岡県)
(配布用)Virtual shizuoka(静岡県)
 
Akihiro Aritoshi Bachelor Thesis
Akihiro Aritoshi Bachelor ThesisAkihiro Aritoshi Bachelor Thesis
Akihiro Aritoshi Bachelor Thesis
 
ICCV2011 report
ICCV2011 reportICCV2011 report
ICCV2011 report
 
Gps動態管理システムのご提案 2012 august
Gps動態管理システムのご提案 2012 augustGps動態管理システムのご提案 2012 august
Gps動態管理システムのご提案 2012 august
 
まねっこロボット
まねっこロボットまねっこロボット
まねっこロボット
 
単眼カメラを用いた握力計測に向けた基礎検討(EC2019)
単眼カメラを用いた握力計測に向けた基礎検討(EC2019)単眼カメラを用いた握力計測に向けた基礎検討(EC2019)
単眼カメラを用いた握力計測に向けた基礎検討(EC2019)
 
yamauchi b
yamauchi byamauchi b
yamauchi b
 

学生科学賞2020_自律走行システムの考案

  • 1. 自律走行システムの考案 -強いキーパーロボットを作るために- 佐伯 明俊 橋本 紘弥 檜垣 秀汰 東山高等学校 ロボット研究会 1 要旨・概要 本研究は、サッカー競技を行う自律制御ロボットにおける全方位視覚センサを用いた確実な測距方 法の検討とそれを用いた移動制御方法の考案である。 我々は、強いゴールキーパーロボットの条件を、ゴールから一定の距離を保ったまま左右に移動 し、素早くボールの正面に行きシュートを防ぐことができることだと考えている。そのためには、ロ ボットがゴールまでの距離を常に確実に測定できることが必要となってくる。従来、一般的に使用さ れてきた測距センサである赤外線センサや超音波センサは、周囲の物体等の影響を受けて正しく測距 ができない場合があり、ロボットが予測不能の動きをするという問題点がある。この問題を解決する ために、ボール検出用に使用している光学センサである全方位視覚センサを活用することとし、測距 の実験を行った。検証を重ねた結果、赤外線センサや超音波センサと言った反射型測距センサを使わ なくても、ゴールとの距離を測定できることがわかった。さらに、全方位視覚センサから得られる ゴールの座標情報をもとに適切な座標変換を行うことによって、ロボットからゴールまでの距離を確 実に把握できるようになり、ロボットはゴールから一定の距離を保ったまま平行移動ができるように なった。 自律制御ロボットが対象物との距離を確実に測定できることは、ロボットの自由自在な動きを可能 にする。この全方位視覚センサによる測距技術は様々な分野に応用できると考えられる。 2 問題提起、研究目的 2.1 はじめに 我々は、自律制御ロボットでサッカーをする RobocupJunior*1 という競技に参加している。各 チーム、二台のロボットで対戦する競技となっており、一台は攻撃用のアタッカー、もう一台をゴー ルキーパーとしてプログラムをするチームが多い。具体的な競技の様子を (図 1) に示す。使用する コートの寸法は長辺 243 cm、短辺 182 cm で (図 2) に示すとおりである。競技で勝つためには、強 いゴールキーパーロボットを作ることが大きな課題になってくる。以下、本研究では二台のうちゴー ルを守る役割をするロボットを「キーパーロボット」(図 3) と称する。 *1 次世代のロボット開発者を育てる競技 (https://junior.robocup.org/) 1
  • 2. 我々が目指すキーパーロボットの条件は以下の 3 点である。 1. ボールがゴールに向かってくる時に、素早くボールを認識する。 2. ゴールから一定の距離を保って、ゴール前を左右方向に正確に平行移動する。 3. ボール正面に動いて、ボールを確実にキャッチする。 一定の距離を保ってゴール前を平行移動するためには、キーパーロボットがゴールとの距離を常に 正確に測定できることが重要である。 2.2 測距センサの課題 一般的にゴールや周囲の壁との距離の測定には超音波センサや赤外線センサが使われている。これ らの測距センサは周囲の環境に影響されるという問題点がある。 赤外線センサの問題点 RobocupJunior のコート壁面色はマットブラックと指定されている (競技 規定 5-3)[1]。マットブラックは赤外線を反射しにくく、赤外線センサは壁から離れた位置で は正確な測距ができない。 超音波センサの問題点 指向性が広いため周りの反射波を拾いやすく、コート面など目的物以外の距 離を測定してしまうことがある。 2018 年 RobocupJuniorJapanOpen*2 ビギナーズ競技時には超音波センサを使用していたが、測 距が安定しないため、ロボットがボールを取りに行けないことやオウンゴールをすることがあった。 そこで、誤動作を防ぐために取り付け位置の調整をし、指向性を鋭くするために超音波センサの周囲 をスポンジで囲んだりしたが、誤動作が無くなることはなかった。 2.3 測距センサの代替案 2018 年 RobocupJuniorJapanOpen の情報交換の場で、測距の不安定さを改善する案として、全 方位視覚センサが使えるのではないかという議論があった。全方位視覚センサはカメラで捉えた映像 を画像処理するしくみになっており、必要な情報を視覚的に捉えることができる。ロボカップ競技で はゴールの誤認識を避けるため、ゴールに使用されている黄色と青色の二色はロボットに使用しては いけないルールになっている。(競技規定 4-2)[1] コートの周囲にいる選手もこの二色を使用すること はできない。(競技規定 3-2)[1] 例えば、黄色、青色の服装は禁止で、工具やケースの色がこの 2 色に 近い場合、コート付近に置くことはできないことになっている。よって、全方位視覚センサを用いれ ば、周囲の環境の影響を受けずに測距できる可能性は高い。そこで、全方位視覚センサを測距に応用 する方法を検討したのだが、その時点では検討時間が不足しロボットに搭載することはできなかっ た。2019 年の全国大会でも全方位視覚センサを測距センサとして使用しているチームはなかった。 継続して全方位視覚センサについての情報を探す中で、Interface2018 年 7 月号の記事 [2] から、適 切な画像処理を行うことで測距ができるのではないかと考えた。その後、1996 年 5 月の電子情報通 信学会論文誌に掲載されている論文 [3] を発見し、記載されている「床面方向への変換」を応用すれ *2 RobocupJunior の全国大会 2
  • 3. ば全方位視覚センサを測距センサとして使用できると考えた。 2.4 全方位視覚センサについて 我々が使っている全方位視覚センサは、(図 4) のような構造をしており、双曲面ミラー使って 360 ° 全周の画像を一度にカメラに写すことができる。また、カメラを通して写る像の指定された色 の物体の中心座標を得ることができる。(図 5) (図 6) には黄色のゴールがカメラに写っている様子を示す。緑色の四角はカメラが認識している ゴールであり、白い十字はその中心を示している。 2.5 システムの構成 実験に使ったロボットの構成の概要を (図 7) に示す。 このロボットは本サッカー競技に出場するために設計されており、全方位視覚センサ、ジャイロセ ンサ、四輪のオムニホイールを搭載している。オムニホイールを採用していることで 360 ° 全方向 への移動が可能である。さらに、ジャイロセンサで方位を検出することにより常に一定の方向を向い たまま移動することが可能である。 RobocupJunior の競技規定 9-2[1] により、ロボットは直径 22 cm、重量 2400 g 以内である。 2.6 全方位視覚センサによる測距の課題 キーパーロボットは常にゴールに背を向けた状態で動くことになる。(図 8) このため、カメラから 得られるゴールの y 座標 は正の値をとる。また、ゴールの x 座標はロボットがゴールの中心にいる ときに 0 になり、ゴール中心から左右に移動することによって正または負の値を取る。(図 9)(図 10) このことから、カメラ画像から得られるゴール座標の y 座標値 が一定になるように制御すれば、 キーパーロボットがゴールからの距離を一定に保って移動できるのではないかと考えた。ロボットを ゴールの正面 ( x 座標 = 0 ) でゴールから 250 mm の地点に置いたときに y 座標 の値が 45 であった ので y 座標 = 45 になるように制御することとし、このアルゴリズムを実装したプログラムを 2020 年冬に作成し、実際に試合で使用してみた。 しかし y 座標値 が一定になるように制御しても、キーパーロボットはゴールラインに対して平行 移動をしなかった。試合でのキーパーロボットの動きは下記の通りであった。 1. ゴールとの距離を一定に保てず、コートの左右の端で前に出てしまい、対戦相手ロボットに後 ろに回り込まれた。 2. 平行移動してボールの前面に行こうとする動きではなく、ロボット自体が前方に出る動きをし てしまうため、ボールに追いつけなくなった。 3. ゴールから離れていくとゴールを見失うことがあった。 左右のサイドラインに近づくにつれ てゴールを見失っているような動きになった。 動きそのものは、超音波センサ使用時よりも改善されたが、目標とするキーパーロボットの動きは できなかった。y 座標 を一定にするだけでは、 キーパーロボットはゴールと平行には動かないこと 3
  • 4. がわかった。 2.7 研究目的 本研究の目的は、全方位視覚センサを用いた自律制御ロボットの正確な測距方法の検討とそれを用 いた移動制御方法の考案である。 3 実験 I 3.1 目的 試合時の不具合の原因を探るためにロボットの動きの測定を行った。 プログラムは試合時と同じものである。 3.2 方法 ゴールラインの白線上にゴール中央から 10 cm おきに計測点(緑色)を作り (図 11)、y 座標 = 45 に保った状態でロボットを移動させゴールラインからの距離と x 座標の値を測定すると共に、その位 置の印(オレンジ色)をコートに付ける。 又、ロボットを動かして動画を撮影する。 3.3 結果 実際に動かした様子を (図 12) に示す。また実験で得られた座標データを (図 13) に示す。 ロボットはほぼ印を付けたところを通過したことが動画で確認できた。このことから、ロボットは 正しく y 座標 = 45 になるように制御されていることが確認できた。さらに取得した座標データか ら、y 座標 を一定に保ちながらゴールからの変位を大きくするとロボットはゴールラインから遠ざか ることが分かった。 3.4 考察 カメラから見た画像を確認すると、ロボットの移動に伴ってゴールの中心はカメラの画像内を円弧 状に移動していることが確認できた。(図 14) そのため、ロボットをゴールラインから一定の距離を 保ったまま移動させるためには、ゴール中心からの変位が大きくなった時に目標とするゴールの座標 を円弧に合わせるような制御が必要だと考えられた。 4
  • 5. 4 実験 II 4.1 目的 x 座標 が大きくなった時に y 座標 の目標値を小さくしゴールの軌跡を円弧状する動作を考え、ロ ボットの軌跡を直線に近づける。 4.2 方法 円弧状の軌跡を描かせる方法として、カメラから得られるゴール中心の座標 (x, y) を元に x2 + y2 が一定になるように制御する。 実験 I と同様にゴールラインの白線上に 10 cm おきに計測点を作り、x2 + y2 = 452 の時のロボッ トのゴールラインからの距離と x 座標の値を測定し、コートに印(青色)を付ける。 又、ロボットを動かして動画を撮影する。 4.3 結果 実際に動かした様子を (図 15) に示す。また実験で得られた座標データを (図 16) に示す。 このことから、単純に x2 + y2 が一定になるようにするとロボットはゴールを中心にして半円形を 描くように動くことが分かった。 4.4 考察 x2 + y2 = 452 という式ではカメラ画像内でゴールが移動する円弧状の軌跡をうまく実現できてい ないことが分かる。x2 + y2 = R2 (R は定数) とした場合にロボットはゴールを中心とした半円形を 描いて動くので、半径 R が小さくなると行動範囲が小さくなるため守備範囲が狭くなる。逆に半径 R を大きくするとゴールの正面の位置では前方に大きく出ることになる。この方法はキーパーロボッ トのプログラムとしては適切ではないことが分かった。 実験 I 及び II の結果より、 、ロボットをゴールラインに対して平行に動かすためには双曲面ミラー の光学的特性を正確に考慮した制御を行わなければ難しいと考えられる。 5 実験 III 5.1 目的 全方位視覚センサの座標情報からゴールとの正確な距離を求める座標変換方法を調べて、その効果 をシミュレーションで確認する。 5
  • 6. 5.2 方法 参考文献 [4] から全方位視覚センサから得られる座標位置と実際の目標物の座標位置の関係は全方 位視覚センサの構造を (図 17) とすると、次の式で表される。 x = X × f × ( b2 − c2 ) (b2 + c2) Z − 2bc √ X2 + Y 2 + Z2 (1) y = Y × f × ( b2 − c2 ) (b2 + c2) Z − 2bc √ X2 + Y 2 + Z2 (2) 上記の式使うことで、3 次元空間中の任意の座標 (X, Y, Z) から視覚センサから得られる座標 (x, y) に変換することができる。この変換式を用いることで、 ゴールとロボットの位置関係が座標 (X, Y, Z) で与えられたときに、カメラ画像上でのゴールの目標値としての 座標 p (x, y) を求めることがで きる。 その 座標 p と全方位視覚センサから得られた実際のゴールの座標を比較することでロボットの動 きを制御することができると考えた。以下に具体的な変換方法を示す。 全方位視覚センサのカメラから得られたゴール座標 (図 9, 図 10) を (x, y) とし、(図 18) に示すよ うに、コート上でのロボットとゴールラインとの距離を D、ロボットとゴールとの距離を d と、ロ ボットからゴールへの角度を θ とすると、 θ = arctan ( x y ) (3) d = D cos θ (4) 式 (2) に双曲面ミラーの設計パラメータ (図 17) を代入し、さらにロボットのカメラ画像上で Y 軸 をゴール方向 (d) に合わせると X=0 とすることができるため、 y = Y × f × 48.59 15853.8 + 72.01 × √ Y 2 + 33306.2 (5) この式に、実験 I の結果 (図 13) から分かるロボットがゴール正面 (θ = 0) にあるときの実測デー タを代入し、f を算出する。 Y = 263 mm y = 45 式 (5) に代入し、 45 = 263 × f × 48.59 15853.8 + 72.01 × √ 69169 + 33306.2 f = 137.0 (6) 6
  • 7. 式 (5) に f を代入することで次のような式を得ることができる。 y = Y × 6656.83 15853.8 + 72.01 × √ Y 2 + 33306.2 (7) 式 (7) を適用し、ゴールラインから 250 mm の位置をロボットが移動するときのカメラ座標上での 原点からゴールまでの距離 y′ の計算値は下記の式で求めることができる。 D = 250 mm Y = D cos θ y′ = Y × 6.657 × 103 1.585 × 104 + 7.201 × 101 × √ Y 2 + 3.331 × 104 (8) この式から、ある位置でロボットからゴールを見た時の 角度θ が決まるとロボットからゴールま でのカメラ座標上での距離の 目標値 y′ が求まる。また全方向視覚センサから得られたゴールの 座 標 (x, y) からカメラ座標上での原点とゴールまでの距離を r とすると r は r = √ x2 + y2 (9) で求まるので y′ = r となるようにロボットの移動方向を制御することでロボットを指定した軌 跡で動かすことが可能になる。具体的には、本実験ではゴールは常にロボットの背面に有るので、 y′ < r の時はロボットをゴールラインに近づける方向に移動させ、y′ > r の時はロボットをゴール ラインから遠ざける方向に移動させる。 本実験では実際にロボットを走行させる前にシミュレーションで確認を行う。シミュレーションの 方法は実際にロボットをゴールラインから 250 mm の距離を保って平行移動させ、その時のゴールの 座標データ (x, y) から r と y′ を計算した結果を比較する。 5.3 結果 ロボットから得たゴールの座標 (x,y) を元に式 (9) でゴールまでの距離 r を計算した結果(赤線) とゴールまでの方位を元にゴールの目標値 y′ を式 (8) で計算した結果(青線)を比較した結果を (図 19) に図示する、2つの計算結果は概ね一致した。 5.4 考察 この結果から式 (8) を使うことにより双曲面ミラーによる画像の歪みが正確に補正されることが示 された。また全方位視覚センサから得られるゴールの座標情報を元にして r と y′ が一致するように ロボットを制御することでゴールラインと平行に移動させることが可能であることが示された。 7
  • 8. 6 実験 IV 6.1 目的 実験 III で計算したパラメータをもとにプログラムを組み実際に走行実験を行い動作を確認する。 6.2 方法 実験 III で計算したパラメータをもとにプログラムを組み、ゴールラインからの距離 (図 18) の D が 250 mm と 350 mm になる 2 つの場合のロボットの実際の動きを測定する。 6.3 結果 実際に動かした様子を (図 20, 図 21) に示す。 ゴールラインからの距離を指定された一定値に保ちながらゴールラインに対して平行に動いた。 6.4 考察 参考文献 [4] の式を用いて双曲面ミラーの光学的特性である画像の歪みを正確に補正することに よって、全方位視覚センサを用いてロボットをゴールラインと平行に正確に移動させる制御が行える ことが確認できた。 7 結論 本研究では、サッカー競技を行う自律制御ロボットに使用されている双曲面ミラーを使用した全方 位視覚センサを用いて正確かつ確実な測距を実現する方法を探った。 従来、一般的に用いられてきた測距センサである超音波センサや赤外線センサは反射型であるた め、目標物以外からの反射によって確実な測距が出来ない場合があるという問題点があった。本研究 ではボール検出用に使用されていた光学センサである全方位視覚センサを使用しゴールとの距離及び 方位を測定しロボットを制御することが可能であることを実験 I で示し、この問題の解決の方向を示 すことができた。しかしながら実験 I 及び実験 II から、双曲線ミラーで得られる全方位画像には特 有の歪みがあり、ロボットをゴールラインに平行に移動させるためにはその歪みを補正する必要があ ることが分かった。 そこで、全方位視覚センサからえられるゴールの座標情報をもとに画像の歪みを補正する適切な座 標変換を行うことによって、ロボットからゴールまでの距離を常に正確に把握し、一定の距離を保っ たままロボットを平行移動させることが可能であることを実験 III 及び実験Ⅳにおいて示した。 本研究ではロボットをゴールラインと平行に動かすことを目標としたが、ロボットからマーカーま での方位 θ と距離 d の関係に関する適切な関数を作成することで任意の曲線で動かすことも可能に なると考えられる。今後の取り組み課題としたい。 8
  • 9. さらに、この技術を適用することで、真横や正面などの限られた位置に物体が無かったとしても周 囲に存在する適切な物体をマーカーとして用いることで意図した動きをさせることが可能になる。こ れは様々な環境に適応し、指定した動作を正確にすることが要求される災害対応ロボットや近年進化 の著しい宅配ロボットなど、様々な分野に応用することが可能であると考える。 なお、我々はこの成果を生かして「強いキーパーロボット」を作ることを最終目標としていたが、 2020 年3月以降は新型コロナウイルス感染症の影響による試合自粛のため研究成果を実地で試すこ とが出来なかった。今後、大会が開催されれば本研究成果を実地で試し、さらなる移動制御方法の改 良を試みたい。 8 参考文献 参考文献 [1] RoboCupJunior Soccer Rules 2020. https://junior.robocup.org/wp-content/uploads/ 2020Rules/final_2020rules/RCJ2020-Soccer-final.pdf. [2] 床井浩平. 全方位画像から VR 的ビューを表示する仕組み. Interface 2018 年 7 月号, Vol. 44, No. 7, pp. 38–44, 2018. [3] 山澤一誠, 八木康史, 谷内田正彦. 移動ロボットのナビゲーションのための全方位視覚センサ HyperOmni Vision の提案. 電子情報通信学会論文誌 D, Vol. 79, No. 5, pp. 698–707, 1996. [4] 山澤一誠. 全方位視覚センサ HyperOmni Vision に関する研究: 移動ロボットのナビゲーション のために. Osaka University Knowledge Archive:OUKA, 1997. 9 謝辞 本研究を行うにあたり、実験に快く協力してくれたロボット研究会の部員の皆さん、ご指導いただ いた顧問の先生方及び草稿を読んでくれた同級生に深くお礼申し上げます。 9
  • 10. 10 図表・画像 図 1 競技の様子 図 2 使用するコート 10
  • 11. 図 3 キーパーロボットの写真 図 4 全方位視覚センサの構造 11
  • 12. 図 5 カメラ画像の座標系 図 6 カメラの撮影画像 12
  • 13. 図 7 ロボットの構成 (設計データ) 図 8 キーパーとロボットの位置関係 13
  • 14. 図 9 カメラ画像上でのゴールの位置 1 図 10 カメラ画像上でのゴールの位置 2 14
  • 15. 図 11 コートの写真 (実験 I) 15
  • 17. 回数 変位 変位(cm) -50 -40 -30 -20 -10 0 10 20 30 40 50 1 距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 35.3 37.2 44.8 x座標 59 49 39 24 12 -5 -25 -40 -50 -57 -65 y座標 45 45 45 45 45 45 45 45 45 45 45 2 距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 35 39 44.9 x座標 59 49 39 24 12 -5 -25 -39 -50 -58 -65 y座標 45 45 45 45 45 45 45 45 45 45 45 3 距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 35 37.5 45 x座標 59 49 39 24 12 -5 -25 -40 -50 -58 -65 y座標 45 45 45 45 45 45 45 45 45 45 45 4 距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 34 37.5 44.8 x座標 59 49 39 24 12 -5 -25 -40 -50 -57 -65 y座標 45 45 45 45 45 45 45 45 45 45 45 5 距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 33.5 38 44.9 x座標 59 49 39 24 12 -5 -25 -39 -50 -57 -65 y座標 45 45 45 45 45 45 45 45 45 45 45 平均値 距離(cm) 52.5 42 36 29.9 28.4 26.3 28.5 31.3 34.56 37.84 44.88 x座標 59 49 39 24 12 -5 -25 -39.6 -50 -57.4 -65 y座標 45 45 45 45 45 45 45 45 45 45 45 図 13 実験 I の結果 (表 1 とグラフ 1) 17
  • 20. 表2 ロボットの変位と座標位置での測定結果(実験Ⅱ) 回数 変位 変位(cm) -50 -40 -30 -20 -10 0 10 20 30 40 50 1 距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0 x座標 0 0 0 26 11 -4 -20 -33 0 0 0 y座標 0 0 0 37 44 44 40 31 0 0 0 2 距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0 x座標 0 0 0 26 11 -4 -20 -33 0 0 0 y座標 0 0 0 37 44 44 40 31 0 0 0 3 距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0 x座標 0 0 0 26 11 -4 -20 -33 0 0 0 y座標 0 0 0 37 44 44 40 31 0 0 0 4 距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0 x座標 0 0 0 26 11 -4 -20 -33 0 0 0 y座標 0 0 0 37 44 44 40 31 0 0 0 5 距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0 x座標 0 0 0 26 11 -4 -20 -33 0 0 0 y座標 0 0 0 37 44 44 40 31 0 0 0 平均値 距離(cm) 0 0 0 17 24.7 24.7 21.4 12.2 0 0 0 x座標 0 0 0 26 11 -4 -20 -33 0 0 0 y座標 0 0 0 37 44 44 40 31 0 0 0 図 16 実験 II の結果 (表 2 とグラフ 2) 20
  • 21. カメラのパラメーター 焦点距離 2.8 mm 画角 55.6 ° 画素数 QVGA(320 × 240) 双曲面ミラーのパラメーター b 4.375 c 8.23 d 13.125 Z -182.5 図 17 視覚センサの構造と寸法 21
  • 23. 表3 ロボットの変位と座標位置での測定結果(実験Ⅲ) 回数 変位 変位(cm) -50 -40 -30 -20 -10 0 10 20 30 40 50 1 距離(cm) 25 25 25 25 25 25 25 25 25 25 25 x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78 y座標 28 33 40 41 42 43 41 41 37 32 27 2 距離(cm) 25 25 25 25 25 25 25 25 25 25 25 x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78 y座標 28 33 40 41 42 43 41 41 37 32 27 3 距離(cm) 25 25 25 25 25 25 25 25 25 25 25 x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78 y座標 28 33 40 41 42 43 41 41 37 32 27 4 距離(cm) 25 25 25 25 25 25 25 25 25 25 25 x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78 y座標 28 33 40 41 42 43 41 41 37 32 27 5 距離(cm) 25 25 25 25 25 25 25 25 25 25 25 x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78 y座標 28 33 40 41 42 43 41 41 37 32 27 平均値 距離(cm) 25 25 25 25 25 25 25 25 25 25 25 x座標 67 53 33 25 11 -5 -24 -37 -54 -67 -78 y座標 28 33 40 41 42 43 41 41 37 32 27 計算値 θ(rad) 1.17 1.01 0.69 0.55 0.26 -0.12 -0.53 -0.73 -0.97 -1.13 -1.24 θ(deg) 67.35 58.12 39.54 31.39 14.68 -6.64 -30.36 -42.09 -55.61 -64.50 -70.94 r=SQRT(x^2+y^2) 72.62 62.43 51.86 48.02 43.42 43.29 47.51 55.23 65.46 74.25 82.54 X=250/cos(θ) 648.35 472.98 324.10 292.81 258.43 251.68 289.68 336.75 442.30 580.07 764.27 y 67.06 60.13 50.60 47.89 44.53 43.81 47.60 51.61 58.52 64.74 70.24 図 19 実験 III の結果 (表 3 とグラフ 3) 23