11mm316 255 - saitama...

40
ICS-13M-116 コミュニケーションを 援する ロボット 25 2 5 システム 学コース 11MM316 大学 コンピュータ ジョン さいたま 255

Upload: others

Post on 26-Jan-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

ICS-13M-116

同伴者と搭乗者のコミュニケーションを支援するロボット車椅子

指導教員 久野 義徳 教授

平成 25年 2月 5日提出

理工学研究科 数理電子情報系専攻情報システム工学コース

11MM316

鈴木 亮太

埼玉大学 理工学研究科・工学部コンピュータビジョン研究室

埼玉県さいたま市桜区下大久保 255

Page 2: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

概要

同伴者の横位置で自動的に併走するロボット車椅子について,コミュニケーションの度合いに従って適応的に陣形を変更する複数ロボット車椅子システムへの拡張を行う.

同研究室ではこれまでに同伴者の横位置で自動的に併走するロボット車椅子の開発を行ってきた.このロボット車椅子は複数台システムへの拡張が可能だが,地形的要因などから陣形を変更する必要があった.しかし,これまでにどのような陣形がグループ中でのコミュニケーションを支援するにあたり適切であるかが考慮されていなかった.そこで,本研究では適切な陣形を見つけるための実験を行った.その結果に基づき,コミュニケーションを計測し,適切な陣形を生成し,陣形を保つように各車椅子が移動を行うシステムの開発を目指す.

本研究では,このうちコミュニケーション計測のための新たなデバイスとしての全方位カメラの導入,ならびに各車椅子の局所移動手法としての非ホロノミック動体のための車体形状を考慮したポテンシャルフィールド法の実装を行った.全方位カメラ導入について,これを用いた車椅子と同伴者のコミュニケーションを支援するアプリケーションの開発を行った.ポテンシャルフィールド法による移動については,シミュレータならびに実際の車椅子で併走動作を行い,提案手法の有効性を確認した.

第 1章では,本研究の背景と目的について述べる.第 2章では,本研究の開発プラットフォームとする従来の同伴者に併走するロボット車椅子システムについて述べる.第 3章では,コミュニケーションを考慮した複数台車椅子の動作に向けて行った調査実験について述べる.第 4章では,コミュニケーション考慮に必要な全方位カメラの導入について述べる.第 5章では,実験結果をもとに開発を行う複数台ロボット車椅子システムについて述べる.第 6章では,本研究のまとめと今後の課題について述べる.

i

Page 3: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

謝辞

研究ならびに生活面においてご指導を賜りました久野義徳教授,小林貴訓助教に深く感謝致します.また,研究の遂行にご協力いただきました,教養学部 山崎敬一教授,東京工科大学 山崎晶子准教授,実証実験を行う環境を提供してくださいました大宇陀 特別養護老人ホーム ラガールの皆様に感謝申し上げます.

そして,同研究グループとして多分にご支援を頂きました新井雅也氏,佐藤慶尚氏をはじめとする研究室の皆様,同期学生の皆様,並びに私を暖かく見守って頂いた両親はじめとする周囲のすべての皆様に深く感謝致します.

ii

Page 4: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

目 次

概要 i

謝辞 ii

図目次 vi

表目次 vii

第 1章 はじめに 1

1.1 背景 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2 従来研究 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.3 目標とするシステム . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.4 本研究で取り扱う課題と提案手法 . . . . . . . . . . . . . . . . . . . 4

1.5 本論文の構成 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

第 2章 従来の同伴者に併走するロボット車椅子システム 5

2.1 システム概要 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.2 同伴者追跡手法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.2.1 パーティクルフィルタ . . . . . . . . . . . . . . . . . . . . . 7

2.2.2 同伴者の楕円当てはめ . . . . . . . . . . . . . . . . . . . . . 9

第 3章 同伴者と車椅子利用者の位置関係に関する実験 10

iii

Page 5: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

3.1 実験 1:コミュニケーションの有無に応じた位置関係の変化の調査 . 10

3.1.1 実験概要 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3.1.2 結果 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3.2 実験 2:前後位置の変化による印象の調査 . . . . . . . . . . . . . . 12

3.2.1 実験概要 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3.2.2 結果 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3.3 2実験のまとめ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

第 4章 全方位カメラの導入 15

4.1 全方位カメラによる画像情報の付加 . . . . . . . . . . . . . . . . . . 15

4.2 同伴者選択インタフェースの改善 . . . . . . . . . . . . . . . . . . . 16

4.3 同伴者見失い時の再発見システム . . . . . . . . . . . . . . . . . . . 17

第 5章 複数台ロボット車椅子の移動プラットフォームの構築 19

5.1 概要 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

5.2 非ホロノミック動体のための車体形状を考慮したポテンシャルフィールド法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

5.2.1 理論 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

5.2.2 シミュレーション . . . . . . . . . . . . . . . . . . . . . . . . 23

5.2.3 実際の車椅子での動作 . . . . . . . . . . . . . . . . . . . . . 24

第 6章 おわりに 28

6.1 まとめ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

6.2 今後の課題 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

公表論文 30

参考文献 31

iv

Page 6: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

図 目 次

1.1 同伴者に自動的に併走追随するロボット車椅子 . . . . . . . . . . . . 2

1.2 介護士が複数の車椅子を扱う様子 . . . . . . . . . . . . . . . . . . . 2

1.3 道幅と生成される陣形の関係 . . . . . . . . . . . . . . . . . . . . . 3

1.4 障害物検知領域 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.1 システム外観 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.2 レーザ測域センサの計測例 . . . . . . . . . . . . . . . . . . . . . . . 6

2.3 パーティクルフィルタの概略図 . . . . . . . . . . . . . . . . . . . . 8

2.4 パーティクルフィルタと楕円モデルによる同伴者追跡の概略 . . . . 9

2.5 追随動作の例 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3.1 実験 1のシーンの例 . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3.2 実験 1のパターン毎の陣形生成結果 . . . . . . . . . . . . . . . . . . 12

3.3 実験 2の印象評価アンケート結果 . . . . . . . . . . . . . . . . . . . 13

4.1 全方位カメラの設置 . . . . . . . . . . . . . . . . . . . . . . . . . . 16

4.2 選択モード中のタッチパネル表示例 . . . . . . . . . . . . . . . . . . 17

4.3 再発見の例 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

5.1 ポテンシャルフィールド法の概略 . . . . . . . . . . . . . . . . . . . 21

5.2 車体形状を考慮したポテンシャルフィールドの強度 . . . . . . . . . 22

5.3 車椅子の形状およびレーザセンサ位置の設定 . . . . . . . . . . . . . 23

v

Page 7: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

5.4 右壁に壁沿い移動できる係数設定での壁沿い移動の様子 . . . . . . . 25

5.5 目的姿勢へ移動する様子 . . . . . . . . . . . . . . . . . . . . . . . . 26

5.6 併走移動する様子 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

5.7 障害物を避けつつ同伴者に付随する様子 . . . . . . . . . . . . . . . 27

5.8 狭路を通過する様子 . . . . . . . . . . . . . . . . . . . . . . . . . . 27

vi

Page 8: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

表 目 次

2.1 モータコントローラ iMCs01USB の仕様 . . . . . . . . . . . . . . . 7

2.2 レーザ測域センサ UTM-30LX の仕様 . . . . . . . . . . . . . . . . . 7

3.1 実験 2の印象評価アンケートの回答項目 . . . . . . . . . . . . . . . 13

4.1 全方位カメラ VS-C14U-80-ST の仕様 . . . . . . . . . . . . . . . . . 15

vii

Page 9: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

第1章 はじめに

1.1 背景

少子高齢化が現実のものとなってきた現在,介護者の負担軽減は急務となっている.2007年には 65歳以上の人口比率が 21%を超える超高齢社会に突入した.更に,2012年に発表された日本の将来推計人口によれば,2060年には 65歳以上の人口比率が 40%に達し,5人に 2人が高齢者となると推計されている [1].少子高齢化が進むことにより,介護者に対する被介護者の数が増し,介護者への負担は倍加されていく.実際の介護現場の現状として,一人の介護者が複数の要介護者をケアする場面は多く,目指すべききめ細やかなケアを行うことは難しい.また,一般家庭においても介護負担の増加はよく取り沙汰され,特に介護側の高齢化によって問題はより大きくなる.

このような問題に対し,これまでに多くのロボット車椅子の研究が行われてきた.例えば,Montesanoらは,設定された目的地に向かって移動するロボット車椅子を用い,認知障害を持つ子供の車椅子利用者に向けたインタフェースの開発を行っている [2].また,Demeesterらは,車椅子利用者の車椅子操作を簡単にする操作支援システムのために,統計モデルを用いて車椅子利用者の移動方法の傾向を推定し,予測する研究を行っている [3].このように,利用者が車椅子を利用するに当たり利便性を高め,一人で外出や移動が行いやすいように支援するものとなっている.

しかし,実際には車椅子利用者と一緒に同伴者が移動する場合が多い.同伴者が同伴する場合,特に介護現場で利用される場合には,同伴者が車椅子を後ろから押して利用することが多い.この同伴者にも目を向けたロボット車椅子が必要であると考える.渋谷らによれば,同伴者と車椅子利用者の位置関係が,第三者から見た同伴者と車椅子利用者の友好関係に影響するという結果が得られている [4].また,社会学者の山崎によれば,同伴者が車椅子を後ろから手押しすることによって,同伴者・車椅子利用者の間に介護する・介護されるという関係が生まれ,第三者にとって両者が友好的な関係に見られないと分析されている [5].

1

Page 10: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

そこで,我々の研究グループでは,図 1.1のように同伴者の横に自動的に追随して移動するロボット車椅子の研究を行ってきた.同伴者が後ろから車椅子を押さずに伴走できるため,身体的負担を軽減できる.また,併走によって,同伴者と車椅子搭乗者が顔を窺いながら移動でき,両者のコミュニケーションを促進できると考えられている.

このロボット車椅子システムについて,一人の同伴者が複数の車椅子を引き連れて移動できる複数台ロボット車椅子システムへの拡張が期待されている.実際の介護現場では,図 1.2のように複数台の車椅子を手で引いて移動する場面がある.しかし,これでは介助者の身体的負担が大きく,また一人一人に丁寧な介護を行うことができないという問題が挙げられた.介護現場では,複数台ロボット車椅子の需要があると考えられる.

図 1.1: 同伴者に自動的に併走追随するロボット車椅子

図 1.2: 介護士が複数の車椅子を扱う様子

1.2 従来研究

これまでに,高野により複数台のロボット車椅子への拡張が行われた [7].このシステムでは,事前に行われた人間が電動車椅子を操作しながら,同伴者と共に移動した場合の観察を基にしている.そこでは,図 1.3のように,基本は横並びとし,道幅の狭さに併せて 2列,1列へと陣形を変更していく様子が観察された.また,横並びになっている組同士で会話を行っている様子も見られた.高野は,この結果に

2

Page 11: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

従って,道幅に応じて複数台ロボット車椅子の陣形を変更することで継続した移動のできるシステムを作成した.

しかし,このシステムでは,各車椅子が図 1.4中の赤色矩形で示す領域で障害物を発見した場合,グループの後ろに回り込む形で陣形を変更するというものになっていた.しかし,これでは障害物の距離などを考慮できないため,衝突の恐れがある.また,コミュニケーション状況への対応が考慮されておらず,隣で会話をしていた車椅子利用者がグループの最後尾に回されてしまうというようなコミュニケーションの阻害の可能性が考えられる.

図 1.3: 道幅と生成される陣形の関係図 1.4: 障害物検知領域

1.3 目標とするシステム

同伴者と複数の車椅子利用者が,屋内で利用するにあたり,コミュニケーションが取りやすく,障害物や通行人などにぶつからないように避け,自動移動によって操作を気にする必要のない,複数台ロボット車椅子システムの開発を目標とする.

そのためには,各車椅子が道幅や障害物の有無,グループ間の人対人コミュニケーションがどういう状況にあるかをセンシングする必要がある.そして,それらの情報を統合し,コミュニケーションを阻害しない陣形を生成する.さらに,陣形を保ちつつ障害物や他の移動グループのメンバーと衝突しないように移動する局所移動手法が必要となる.

3

Page 12: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

1.4 本研究で取り扱う課題と提案手法

同伴者と車椅子利用者の立場が異なる 2人にとって,コミュニケーションが取りやすい陣形を調べる必要がある.そこで,同伴者が車椅子を操作した場合の陣形について調査する被験者実験を行う.

また,コミュニケーション状況に応じて陣形を変化にあたり,コミュニケーション状況を得る必要がある.そこで,全方位カメラを新たなセンサとして導入し,画像情報を用いたコミュニケーション状況の獲得を行う.

さらに,陣形の示す目的姿勢へ,障害物を考慮した移動を行う局所移動を実現する必要がある.これに対し,関らのポテンシャルフィールド法を適用させる事により解決する [12].

1.5 本論文の構成

第 1章では,本研究の背景と目的について述べた.第 2章では,本研究の開発プラットフォームとする従来の同伴者に併走するロボット車椅子システムについて述べる.第 3章では,コミュニケーションを考慮した複数台車椅子の動作に向けて行った調査実験について述べる.第 4章では,コミュニケーション考慮に必要な全方位カメラの導入について述べる.

第 5章では,実験結果をもとに開発を行う複数台ロボット車椅子システムについて述べる.第 6章では,本研究のまとめと今後の課題について述べる.

4

Page 13: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

第2章 従来の同伴者に併走するロボット車椅子システム

2.1 システム概要

ロボット車椅子を構成するハードウェアは以下の通りである.

• 電動車椅子: タウニィジョイTX (ヤマハ発動機)

• 制御用 PC: Let’s note CF-S9 (Intel Core i5) (Panasonic)

• モータコントローラ: iMCs01 (iXS Research)

• レーザ測域センサ: UTM-30LX (北陽電機)

• DC/DCコンバータ: PowerTite (未来舎)

• タッチパネルディスプレイ: MIMO UM720-S

システムの外観を図 2.1に示す.電動車椅子タウニィジョイTXをプラットフォームとし,電動車椅子を動かすための据え付けのジョイスティックからの出力を上書きすることで所望の動作を実現する.外部ボックス (図 2.1のExtension Unit)にはモータコントローラ iMCs01USB(表 2.1)が入っており,USB接続された制御用ノート PCからの指示をアナログ信号に変換し車椅子に伝達する.ジョイスティックはタッチセンサに取り換えられており,ジョイスティックに触っている間は通常のジョイスティックの操作で車椅子を動かすことができる.車椅子には前後駆動・回転駆動の 2系統の信号を送信する.制御用ノートPCにはLet’s note CF-S9を用いている.

同伴者への追随動作を行うために,同伴者の位置と体の向きを観測する.車椅子の後部に取り付けたポール上に同伴者の肩の高さにレーザ測域センサUTM-30LX(表2.2)を取り付け,同伴者を観測する.このレーザ測域センサにより,水平270度,30m以内の範囲の物体の距離を計測できる.計測例を図 2.2に示す.この画像がポール上に設置されたタッチパネルディスプレイに表示される.追随を始める前に,同伴者は追跡対象である自分をこの画像中から探してタッチして選択し,車椅子に追跡対象を通知する.選択された後,ロボット車椅子は同伴者の追跡を行い,同伴者の位置と体の向きに従って同伴者の横位置に自動的に追随していく.

5

Page 14: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

Laptop PCs

in the back pocket

Laser range sensor

(UTM-30-LX)

Laser range sensors

(URG-04LX)

touch-sensi!ve

joys!ck controller

Extension unit

Touch panel

display

図 2.1: システム外観

更に,足元にレーザ測域センサを設置することで外部環境を考慮した動作を行うことができる.たとえば,進行方向にひざ丈の障害物があった場合,同伴者の後方に回り込むことで,回避しつつ後追い動作を続けることができる.

レーザ測域センサは 12Vの電源を必要とする.これを,電動車椅子のバッテリーより供給する.バッテリーの出力は 21Vであるため,DC/DCコンバータを用いて降圧している.

図 2.2: レーザ測域センサの計測例

6

Page 15: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

表 2.1: モータコントローラ iMCs01USB の仕様電源電圧 5V±%5 (USBバスパワー可)

CPU HD-64F3067RF-20

クロック 20MHz

通信速度 USB1.1 12Mbps (Full speed)

表 2.2: レーザ測域センサ UTM-30LX の仕様電源電圧 DC12V±10%

光源 半導体レーザ λ=905nm (Class 1)

測距範囲 0.1~30m,270度測距精度 0.1~10m:±30mm,10~30m:±50mm

角度分解能 ステップ角:0.25度走査時間 25ms/scan

2.2 同伴者追跡手法

ロボット車椅子が同伴者の横について併進移動するためには,同伴者の位置・体の向きを知る必要がある.同伴者の位置のみを用いて併走を行った場合,同伴者が車椅子の方向に曲がる場合に同伴者が車椅子に衝突してしまう.これを防ぐためには,同伴者の移動しようとする方向を考慮する必要がある.社会学的知見により,人が移動方向を変える前に体の向きを変えることが知られている [6].そこで,体の向きを利用することで衝突を防ぎ,自然な併走動作を実現する.

レーザ測域センサで得られた同伴者の観測情報を用いて,同伴者の位置と向きを追跡する.追跡には,パーティクルフィルタを用いる.また,同伴者の肩の形状を,楕円モデルにあてはめる事により,同伴者の位置に加えて向きを考慮することができるようになる.詳細な同伴者追跡手法については,[8]を参照のこと.

2.2.1 パーティクルフィルタ

パーティクルフィルタとは,物体追跡手法の一つである.同様な物体追跡手法であるカルマンフィルタは,状態方程式が線形関数として表される必要がある.また,非線形的な運動に対応する為の拡張カルマンフィルタが提案されているが,誤差共分散行列やヤコビアンを用意する必要がある.これに対し,パーティクルフィ

7

Page 16: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

ルタは確率密度関数を粒子の分布として考え,各粒子の尤度に応じて予測が行われる.粒子の尤度関数を設定し,また必要に合わせて状態方程式を設定することで非線形的な運動の追跡を簡単に記述でき,また頑健に追跡できるという利点がある.概念自体は単純なものであり,各分野で応用されている.画像処理分野では特にConDensation法と呼ばれ,画像処理ライブラリOpenCVに実装されている.

パーティクルフィルタは,主に,次に示すリサンプリング・予測・尤度評価の 3

つのプロセスを持つ.概略図を図 2.3に示す.

1. リサンプリング粒子の分布の示す確率密度関数を元に,粒子を撒きなおす.尤度 (重み)の高い所で粒子の密度が高くなるようにするため,粒子の示す確率に従って粒子を選択する.なお,初回は一様に分布させる.

2. 予測各粒子を状態方程式に基づいて移動させる.状態方程式では,運動とノイズがあわせて記述される.

3. 尤度評価設定された評価関数に基づいて各粒子の尤度を決める.なお,現在の状態はこの尤度による重み付き平均として求める事ができる.

図 2.3: パーティクルフィルタの概略図

8

Page 17: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

2.2.2 同伴者の楕円当てはめ

パーティクルフィルタの粒子の尤度評価に,楕円当てはめを用いる.概略図を図2.4に示す.粒子の示す楕円モデルについて,評価点をサンプリングする.その各評価点と観測された肩形状を示す観測点と対応付け,そのうち距離が最も遠いペアの距離 dmaxに関係する値として尤度として用いる.本研究では,点の対応付けに最近傍法を用いている.具体的には,レーザ測域センサから得られた距離データを画像にプロットし,それを元に各観測点からの距離を各画素の値として設定した画像を生成する.その画像から楕円モデルのサンプリング点の示す画素の値を用いて尤度評価を行う.

更に,レーザセンサからは観測できない点が評価されてしまわないよう,楕円モデルのサンプリング点の除去を行っている.レーザセンサからサンプリング点への接線ベクトルと,サンプリング点での法線ベクトルとの内積が正になる点を除外する.

前後駆動は同伴者の車椅子に対する前後位置,回転駆動は同伴者の車椅子に対する体の向きに応じて決める.動作例を図 2.5に示す.同伴者の横位置を保ちつつ併走が行われている様子が確認できる.

図 2.4: パーティクルフィルタと楕円モデルによる同伴者追跡の概略 図 2.5: 追随動作の例

9

Page 18: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

第3章 同伴者と車椅子利用者の位置関係に関する実験

複数台ロボット車椅子システムでの適切な陣形生成について調査するため,2つの実験を行った.

3.1 実験1:コミュニケーションの有無に応じた位置関係の変化の調査

3.1.1 実験概要

コミュニケーションの有無によって,同伴者と車椅子利用者がどのように位置関係を生成するかを調べた.同伴者自身による位置関係の変化を観察するために,新たにリモコンによる車椅子の遠隔操作システムを開発した.リモコンはWiiリモコンと拡張機器のWiiヌンチャクを使用した.同伴者は,Wiiヌンチャクのアナログスティックにより,電動車椅子に備え付けられたジョイスティックの操作と同等の操作を遠隔で行うことができる.アナログスティックを前後に倒した大きさで前後に進む速さが大きくなる.また,左右に倒した大きさで回転の速さが大きくなる.WiiリモコンはBluetoothで制御用ノートPCに接続され,アナログスティック操作を車椅子に伝える.

実験には,埼玉大学の学生 26人が参加した.被験者は 13組のペアに分かれ,一人は同伴者役としてリモコン操作をし,もう一人は車椅子搭乗者役として車椅子に搭乗して頂いた.更に,対照比較のために被験者の組を会話タスクを与える組・与えない組に分けた.すべての被験者の組は,直線のコースを同伴者が車椅子を操作しながら車椅子と一緒に往復した.更に,会話タスクが与えられる組では,出発時にいくつか用意された世界遺産のうちランダムに選択された一つを話題として提示され,提示された世界遺産について話をしながら移動をして頂いた.また,往路の

10

Page 19: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

ゴール地点には掲示板が設置されており,世界遺産の写真が掲示され,その名称が紙で覆い隠されている.その中から,話題の世界遺産を協力して探し,紙をめくって名称を確認して頂いた.

3.1.2 結果

実験のシーンの一例を図 3.1に示す.また,生成された位置関係のパターンの結果を図 3.2に示す.

会話タスクを与えられなかった 6組のうち 5組で図 3.1(a)のように同伴者が車椅子の後ろで車椅子を操作する様子が見られた.操作を行いやすいように前後の位置関係になると考えられる.一方で,会話タスクを与えられた 7組すべてで図 3.1(b)

のように同伴者が車椅子の横で車椅子を操作する様子が見られた.同伴者は操作をしているにも関わらず,会話を行いやすいように横位置が優先されていると考えられる.なお,会話タスクを与えられなかった組のうち,同伴者が車椅子の後ろで操作をしなかった残りの 1組については,会話タスクが与えられて無いにも関わらず,同伴者が車椅子利用者と会話するために同伴者の横で車椅子を操作する様子が見られた.

これらの結果から,会話を行う状況では同伴者と車椅子利用者が隣り合うのが望ましい位置関係であると考えられる.

(a) 会話タスクを与えられなかった組 (b) 会話タスクを与えられた組

図 3.1: 実験 1のシーンの例

11

Page 20: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

図 3.2: 実験 1のパターン毎の陣形生成結果

3.2 実験2:前後位置の変化による印象の調査

3.2.1 実験概要

前後関係が同伴者・車椅子利用者に与える印象について調べるため,実験を行った.陣形においては,前後関係が重要になると考える.たとえば,通過する道幅が十分でない場合,同伴者と車椅子は縦一列で移動する必要がある.この場合,横位置と比べて相手の見え方が大きく変化する.前方からは振り返らなければ相手の様子を窺うのは難しい.しかし,後方からは常に相手が見えている.前方にいる人は不安に思い,後方にいる人は安心に思うという仮定のもと,実験を行った.

実験には埼玉大学の学生 30人が参加した.被験者は 15組のペアに分かれ,一人は同伴者役として自動的に追随する車椅子を引き連れて移動し,もう一人は車椅子利用者役として車椅子に搭乗した.すべての組に,直線のコースを往復して頂いた.前方あるいは後方で,同伴者の動きに合わせて自動的に一列に移動できるロボット車椅子システムを利用した.被験者は,2つの移動フォーメーションを体験した.一つは,同伴者が車椅子の後ろの位置で移動する形 (フォーメーション 1)で,もう一つは逆に同伴者が車椅子の前の位置で移動する形 (フォーメーション 2)である.フォーメーション 1・フォーメーション 2のどちらを先に試すかは,被験者の組によって変えた.

試行後,アンケートに答えていただいた.“フォーメーション 1とフォーメーション 2のどちらがよいと感じましたか”という質問に対し,表 3.1のリッカート尺度で答えていただいた.

12

Page 21: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

表 3.1: 実験 2の印象評価アンケートの回答項目6. 絶対にフォーメーション 2がよい5. フォーメーション 2がよい4. どちらかというとフォーメーション 2がよい3. どちらかというとフォーメーション 1がよい2. フォーメーション 1がよい1. 絶対にフォーメーション 1がよい

3.2.2 結果

車椅子利用者役・同伴者役それぞれのアンケート回答の平均値の結果を図 3.3に示す.車椅子利用者役の平均値は 4.46で,同伴者役の平均値は 3.29であった.ニュートラル値 (3.5)からみると,仮定の通り,車椅子利用者はフォーメーション 2がよく,同伴者はフォーメーション 1がよいと感じていると考えられる.なお,結果はp < 0.05で有意である.

図 3.3: 実験 2の印象評価アンケート結果

また,アンケートに加えて被験者にインタビューを行った.車椅子利用者役の被験者の多くが,引き連れている車椅子が見えるのでフォーメーション 2がよいと回答した.一方,同伴者役の被験者は移動する方向が予測できるフォーメーション 1

の方がよいと回答した.

これらの結果から,前後のうちどちらがよいかは一意に決めるのは難しい.したがって,新たなシステムにおける陣形決定では,同伴者および車椅子利用者の意思

13

Page 22: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

で前後関係を決められるようにする.

3.3 2実験のまとめ

実験 1では,自然に同伴者と車椅子利用者がともに移動する場合において,どのように陣形が生成されるかを調べた.コミュニケーションを行う場合は横位置での移動がよく,また,移動に専念する場合は同伴者にとって車椅子の後ろから移動するのがよいという結果となった.

また,実験 2では,同伴者と車椅子利用者が縦一列での移動を行う場合,前後どちらにいた方がよいと感じるかを調べた.互いに相手が見える位置がよりよいと感じる矛盾した結果となった.

これらの 2実験の結果から,コミュニケーションの度合いによって位置関係を適応的に変える陣形変更システムの開発を目指すことにした.移動グループのコミュニケーションの関係性をセンシングし,その結果に応じてそれぞれの車椅子の同伴者との相対位置を決定する.また,決められた位置関係を保つようにそれぞれの車椅子が移動を行う.

14

Page 23: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

第4章 全方位カメラの導入

4.1 全方位カメラによる画像情報の付加

2.1節に示した通り,本ロボット車椅子システムはレーザ測域センサにより物体の位置・形状の観測ができる.しかし,これだけでコミュニケーションの有無を推測するのは難しい.人間のコミュニケーションでは,言語コミュニケーションに加え,視線による非言語コミュニケーションが重きを占めている.話しかけ,目で訴えるコミュニケーションを行うには,顔向きを相手の方向に向ける必要がある.したがって,それぞれの人の顔の向きを調べることにより,コミュニケーション計測ができると考える.そこで,新たに全方位カメラを導入し,画像から顔向きを取得することでコミュニケーション計測を目指す.

図 4.1のように同伴者を観測するレーザ測域センサの同軸上部に全方位カメラVS-

C14U-80-ST (VStone社製,表 4.1)を設置した.レーザ測域センサと全方位カメラはともに一度に広範囲のセンシングを行えるという特徴を持つ.距離情報と画像情報の重畳により,相補的なセンシングを行えるため,二者の親和性は高い.Kristou

らは,サービスロボットがサービス対象人物を見つける際に複数の候補者を検出した場合の区別に 2センサの融合による情報を利用している [9].本システムでは主に同伴者画像の取得に利用する.

表 4.1: 全方位カメラ VS-C14U-80-ST の仕様電源電圧 5V USBバスパワー

カメラ画素数 1034 × 779

ミラー径 30mm ϕ

撮像範囲 水平面に対し上方約 10◦,下方約 55◦の全方位フレームレート 30fps

寸法 47×80×47

レーザ測域センサにより同伴者の位置を得られる.その同伴者の位置に対応する

15

Page 24: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

図 4.1: 全方位カメラの設置

方向の画像を全方位カメラから撮影される画像から切り出すことにより,同伴者の画像を得られる.

4.2 同伴者選択インタフェースの改善

2.1節に示したように,従来ではレーザ測域センサより得られた距離情報をプロットした画像 (以下,レーザ画像)を同伴者に提示し,その中から同伴者自身に該当する輪郭を選択させることで同伴者追跡の初期位置設定を行っていた.しかし,これだけでは自分がどれであるのかを見分けるのは簡単ではない.そこで,新たに導入した全方位カメラを用いて画像情報を付加して同伴者に提示する同伴者選択インタフェースの改良を行った.

動作モードは大きく選択モードと追随モードの 2モードに分けられる.まず選択モードでは,同伴者候補を画像で同伴者にタッチパネル上に提示し,同伴者に画像をタッチして選択させる.車椅子の周辺に観測される一定の大きさの物体を候補者として検出する.それらの候補者に対し,4つまで追跡をする.本研究では,追跡には簡単のために等速度運動を仮定としたカルマンフィルタを用いた.追跡を用いずに検出結果のみを提示した場合,候補者それぞれの識別が行われない.そのため,検出順で表示した場合,候補者表示の位置が頻繁に入れ替わる場合が発生してしまい,選択を行うのが難しくなる.そこで,追跡を行うことで候補者それぞれを区別できる.候補者が継続して観測され追跡が行われている限り,同じ場所に画像を表

16

Page 25: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

示することで,この問題を解決する.タッチして選択されると,選択モードに移行する.画像に対応する位置がパーティクルフィルタの追跡の初期位置として与えられ,同伴者に追随するようになる.動作例を図 4.2に示す.

図 4.2: 選択モード中のタッチパネル表示例

4.3 同伴者見失い時の再発見システム

本システムは頑健な同伴者追跡を実現しているが,同伴者の想定外の動きによって同伴者を見失ってしまう場合がある.たとえば,同伴者が床にあるものを拾うためにかがんでしまった場合,レーザセンサの計測範囲外になり,追跡を続けることはできない.しかし,このような場合でも,再び同伴者が観測された際に自動的に再発見を行い,追随を再開したいという要求があった.そこで,同伴者画像を用いて同伴者を再発見し,継続して利用できるようになるシステムを開発した.

同伴者追随中に,同伴者画像から同伴者特徴を抽出し記憶しておく.見失い時,再発見モードに移行し,追随動作を停止する.再発見モードでは,前節と同様に候補者を検出する.各候補者の特徴と記憶した同伴者特徴を比較し,一致した場合に再発見したとして該当する候補者の位置を初期位置として追跡を再開する.本実装では服の色を特徴として用いた.同伴者画像のうち下部を切り出して色相ヒストグラムを計算する.追随動作中は式 4.1のように過去フレームのヒストグラムを考慮し,加重平均を取りヒストグラムを更新する.

Ht(i) = αHc(i) ∗ (1− α)Ht−1(i) (4.1)

17

Page 26: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

ここで,Ht(i)は現フレーム tにおけるヒストグラムHtの i番目のビンの値を表す.また,Hcは現フレームの観測されたヒストグラム,α(0 ≤ α ≤ 1)は加重平均の重みを表す.各ヒストグラムは全ビン値の合計が 1になるように正規化されている.そして,ヒストグラム間の比較には式 4.2に示すバタチャリヤ係数による距離を用いた.

BD(Hp, Hq) =

√1−

∑i

√Hp(i)Hq(i) (4.2)

ここで,BD(Hp, Hq)はヒストグラムHp,Hq間の距離を表す.

動作例を図 4.3に示す.図 4.3(a)では,同伴者が車椅子を引き連れて移動している.また,同伴者の服の色の色相ヒストグラムが表示されている.図 4.3(b)では,同伴者がコインを落としたため,かがんでコインを拾っている.ここで,車椅子は同伴者を見失ってしまう.見失うと,車椅子は再発見モードに移行する.図 4.3(c)

では,同伴者は立ち上がって前方に移動し始める.ロボット車椅子は近くにいる通行人と記憶された同伴者のヒストグラムを比較するが,ヒストグラム間距離が大きいため同伴者とは見なさない.図 4.3(e)では,同伴者が車椅子がついてこないことに気づき,車椅子のそばに戻っている.図 4.3(f)では,同伴者のヒストグラムと記憶されたヒストグラムを比較し,距離が小さいので同伴者と見なし,再び追随を行うようになっている.

(a)

Re-iden fying

(b)

Re-iden�fying

(c)

Re-iden�fying

(d)

Re-iden�fying

(e) (f)

図 4.3: 再発見の例

18

Page 27: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

第5章 複数台ロボット車椅子の移動プラットフォームの構築

5.1 概要

目標とする複数台ロボット車椅子システムのコミュニケーションに応じた適応的な陣形変更のために,大きく 3つのセクションの実装が必要となる.

1. コミュニケーション計測2. 陣形配置の指示3. 局所的移動方法

コミュニケーション計測を 4.1節に示した手法により得られる画像をベースとして行う.顔の向きを指標として用いる.顔向きの取得には小林らのパーティクルフィルタによる顔向き追跡手法を用いる [11].そして,コミュニケーションの計測結果から,適切な陣形配置を作成し,各車椅子に移動目標への移動指示をする.ここで,各車椅子の移動に関わる各制約を満たし,正しく移動ができるように適切な移動目標設定を行わなければならない.また,それぞれの車椅子の現在位置を同定する必要があるが,従来は同伴者をマーカとして行っていた.しかし,一直線で並んだ状態で壁に沿って曲がり角を曲がると,同伴者が観測できないために位置がわからなくなる問題がある.そのため,同伴者との位置関係によらない車椅子位置の同定手法が必要となる.更に,移動指示を受け,各車椅子は移動を行う.この時,障害物にぶつからずに指定された位置へと正しく移動を行わなければならない.

このうち,本研究では局所的移動方法としてポテンシャルフィールド法の実装を行った.これは,磁場中の磁石が磁力を受けて移動していくように,移動体が目的地や障害物などから仮想的な力を受けて移動するような局所的移動経路設計手法である.これまでにも移動方法として金原らにより当手法の導入が行われた [10].しかし,この実装では車体形状や目的姿勢の制御の考慮が不十分であった.実際の車椅子を用いて動作確認を行っていたため,正確な挙動の確認がされなかったのが原

19

Page 28: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

因と考えられる.そこで,本研究ではこれらを改善するべくポテンシャルフィールド法を再実装し,更にシミュレータ上で適切な係数設定を得た上で,実際のロボット車椅子の局所移動方法としての実装を行った.

5.2 非ホロノミック動体のための車体形状を考慮したポテンシャルフィールド法

5.2.1 理論

ポテンシャルフィールド法とは,移動体をポテンシャルフィールド上にある粒子として,磁場中を磁力を受けて移動するように,ポテンシャルフィールドから仮想的な力を受けて移動するような経路設計手法である.目的地からは引力が,障害物からは斥力が与えられる.それらの合力の方向に移動体を移動させることにより,障害物をよけながら目的地に到達させることができる.

本研究では,関らのポテンシャルフィール法の拡張を導入した [要出典].これは,非ホロノミックで円形に近似しにくい,ちょうど車椅子の様な移動体に適した拡張となっている.移動体を粒子に近似する場合,車椅子のような円形に近似しにくい車体形状の移動体では狭い道を通る事が出来ないといった問題が生じる.そこで,関らは車体形状を考慮し,障害物から車体外周までの距離を用いて,等ポテンシャル線が車体形状をちょうど拡大した形になるようにポテンシャルフィールドを設計することで,この問題を解決している.また,車体の前後に作用点を設け,障害物からの斥力を車椅子からの位置に応じてそれぞれ前後作用点にかけ,てこのように移動させる事を提案している.

図 5.1のように,前方作用点および後方作用点の 2つに力をかけ,てこの原理のように動かすようにして速度を決定する.本研究では,車椅子の車軸の中央を原点とし,右手方向を x軸正方向,前方方向を y軸正方向とする座標系を用いる.

目的姿勢からの引力 F a = (cos(ϕ), sin(ϕ))Tは,式 5.1,5.2のように前方作用点rf = (0, yf )から目的姿勢RG = (XG, YG, θG)を通る円の接線方向として設定する.なお,R(θ)は角度 θの回転行列を表す.[

x′G

y′G

]=

[XG

YG

]+R(θG)rf − rf (5.1)

ϕ = 2atan2(y′G, x′G)− θG − 0.5π (5.2)

20

Page 29: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

図 5.1: ポテンシャルフィールド法の概略

また,斥力は障害物点の y座標が正,すなわち車椅子の前方にある場合,障害物点から前方作用点の方向に,y座標が負,すなわち車椅子の後方にある場合,障害物点から前方作用点の方向にそれぞれ発生させる.斥力の大きさは,距離センサ等で計測された障害物の輪郭を表す点 (以下,障害物点)から車体の輪郭までの距離に関係する値として設定する.実際には,2乗に反比例するようにさせる.したがって,障害物点 pj = (pjx, pjy)に対する前方と後方の斥力F fj,F rjは,障害物点から車軸中心に向かう線分が車体外形の線分と交わる点を qjとすると,

F fj = K1

|qj − pj|2rf − pj

|rf − pj|, if pjy ≥ 0 (5.3)

F rj = K1

|qj − pj|2rr − pj

|rr − pj|, if pjy < 0 (5.4)

と表される.なお,Kは斥力の係数である.

これらの引力,斥力の合力F を求める.引力,斥力は,前方作用点に作用させ,前方に引くようにする.そのため,後方作用点にかかる斥力は,力の向きを逆転させて適用する.

F = F a + kf∑

pjy≥0

F fj − kr∑

pjy<0

F rj , kf + kr = 1 (5.5)

ここで,kf,krは,前方と後方の斥力の作用割合を表す係数である.

21

Page 30: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

最後に,前方の作用点における合力の方向に,前方作用点を引っ張って車椅子を動かす.つまり,最終的には,前方作用点 rf = (0, yf )

Tが,合力の方向 F /|F | =(fx, fy)

Tに移動するように,式 5.6のようにして計算される値を用い,車椅子の前後進に対する回転の速度比 V R = w′/v′が求まる.[

v′

w′

]=

[fy

fx/yf

](5.6)

この V Rを,実際に動かす際に設定する前進速度に対し適用させることで,適切な回転速度を得ることができる.

このように設定された,障害物斥力を与えるポテンシャルフィールドの強度を図5.2に示す.ここで,ポテンシャルフィールドの強度は色相で表されている (赤:小~紫:大).また,kf = kr = 0.5である.車体形状に合わせて,車体に近づくに従って強いポテンシャルを示す様子が見られる.円形に張られるポテンシャルフィールドと比較して,車体の横から受ける斥力が過大であった問題が解決されている.

しかし,斜め前の等ポテンシャル線が凹であり,小さめに評価されてしまっている.これにより,斜め前にある障害物がうまく考慮されない可能性がある.これについては,kf,krを調整することで吸収できると考えられる.

図 5.2: 車体形状を考慮したポテンシャルフィールドの強度

22

Page 31: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

5.2.2 シミュレーション

新たにシミュレータを作成し,その上でポテンシャルフィールド法による車椅子の移動を試した.また同時に,適切な係数の設定を試みた.

シミュレーションのための車椅子の設定を図 5.3に示す.障害物検知用のレーザセンサは実際のシステムと同様に 270度計測でき,またmm単位で計測できるものを車椅子の左前,右後に設置し,車椅子の周りの障害物位置を全方位で計測できるようにしている.また,常に最大速度 vmax = 417 mm/sで前進するとし,最大回転速度を θmax =

1075π rad/sとした.また,バック走行は行わず,バックするように

力を計算された場合は最大回転速度での回転のみを行うようにした.なお,シミュレータ上部の 2つのトラックバーでは係数K,kf が適宜設定できる.トラックバー“K”の値は 100倍してK,トラックバー “FBRatio”の値は 0.01倍して kf としてそれぞれ設定される.

図 5.3: 車椅子の形状およびレーザセンサ位置の設定

まず,適切な斥力の作用割合 kf,krを設定するためのテストを行った.関らによれば,kf,krは理論的には求めにくく,壁沿い走行のシミュレーションにより適切な係数を求めるとよいとされている.そこで,シミュレータ上で壁沿い走行を行いながら適切な係数設定を目指した.しかし,図 5.4のとおり,左手に壁がある場合と右手に壁がある場合とで適切な係数設定が異なるという矛盾した結果が生じた.レーザセンサの障害物距離計測の方法に原因があると考えられる.関らは車体中心に周囲 360度を計測できるセンサを設置しているため,障害物点の偏りは少ない.しかし,本シミュレーションでは,2つのレーザセンサの計測領域が重なっている部分に多く障害物点が計測されてしまう.その偏りが,右手と左手で前後に分かれているために問題が起こったと考えられる.問題解決にはこの偏りを無くすことが有効であると考えられる.しかし,本研究では目的地への移動を優先し,多少の壁から離れる挙動を許容することにする.

次に,目的姿勢を遠方に設置し,車椅子を移動させつつ,適切な係数設定を行った.その結果,図5.5のように目的姿勢まで壁に衝突せずに移動させることができた.

23

Page 32: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

また,同伴者への併走をシミュレートするために,2軸のジョイスティックのあるゲームパッドにより同伴者の姿勢を動的に設定できるようにした.目的姿勢は動作を安定させるために,同伴者の横の位置から同伴者の向きの方向に 3m先の位置に,同伴者の向きと同じとして設定した.また,前進速度 vf を式 5.7,5.8のように目的姿勢の位置 (XG, YG)までの正規化ユークリッド距離 edに応じて線形減衰させるようにした.ここで,Dmaxは,減衰の適用範囲の最大距離を表す.本研究ではDmax=1000 mmとした.

ed =√XG

2 ∗ 0.052 + YG2 (5.7)

vf = vmaxed

Dmax

(5.8)

その結果,図 5.6のように併走移動が行えた.目的姿勢の制御方法を変えることなく,狭い道に入ったときに同伴者への後追いの動作を自動で行う様子も見られた.

5.2.3 実際の車椅子での動作

実際に車椅子で動作させ,効果を確かめた.各環境設定および目的姿勢の制御はシミュレーションと同様に行った.

まず,約 30cmの高さの障害物の設置されたコースを直進する動作を試した.同伴者は障害物をまたいで移動する.結果を図 5.7に示す.障害物を避けつつ同伴者に付随する様子が見られた.

また,狭路を通過するコースについても試した.図 5.8のように,壁にぶつからずに狭い道では同伴者の後ろに回り,そうでないところでは同伴者の横位置で移動する様子が見られた.

24

Page 33: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

(a) 右壁に壁沿い移動する様子

(b) 左壁に壁沿い移動する様子

図 5.4: 右壁に壁沿い移動できる係数設定での壁沿い移動の様子

25

Page 34: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

図 5.5: 目的姿勢へ移動する様子

図 5.6: 併走移動する様子

26

Page 35: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

図 5.7: 障害物を避けつつ同伴者に付随する様子

図 5.8: 狭路を通過する様子

27

Page 36: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

第6章 おわりに

6.1 まとめ

同伴者の横で自動的に併走するロボット車椅子の,コミュニケーション状況に応じて陣形を適応的に変更する複数台ロボット車椅子システムへの拡張を目標とし,システムプラットフォームの改善を行った.

従来の複数台ロボット車椅子システムでは,地形以外の陣形変化の要素を考慮していなかった.そこで,適切な位置関係を調査するための実験を行った.会話をする場合は横位置での併走移動がよく,相手が見えている位置での移動がよいという結果が得られた.必ずしも横一列になることのできない状況では,どちらかがグループの前および後ろに移動する必要がある.前後のどちらがよいかは一概に定めることは難しい.そこで,コミュニケーションの度合いに応じた陣形変更システムの開発を行うことにした.

提案システムの開発に当たり,コミュニケーション計測,陣形指示,局所的移動の 3つのセクションの実装が必要となる.ここで,本研究では,コミュニケーション計測と局所的移動の 2つについて触れた.

コミュニケーション計測は,画像ベースで行う.画像中から顔の向きを推測し,それぞれの顔の向きをコミュニケーションの度合いとして利用する.コミュニケーション計測に必要となる画像の取得のために,全方位カメラを新たに導入した.同伴者追跡に用いるレーザ測域センサと全方位カメラの計測範囲の重畳により,周辺物体の画像情報が取得できるようになる.全方位カメラ導入の副次的アプリケーションとして,同伴者選択インタフェースの改良と,同伴者見失い時の再発見システムの開発を行った.

28

Page 37: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

局所的移動のために,車体形状を考慮したポテンシャルフィールド法を実装した.そして,新たに開発したシミュレータを用いてシミュレーションをを行い,ポテンシャルフィールド法に必要な正しい係数設定を得た.更に,実際に車椅子を用いて併走動作の確認を行った.障害物にぶつかることなく同伴者への追随動作をさせることができるようになった.

6.2 今後の課題

目標とするシステムの実現のために,残りの顔向き追跡によるコミュニケーション計測および陣形指示システムの実装を行う必要がある.

そして,これらを統合したシステムによる評価実験を行いたい.

29

Page 38: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

公表論文

学術論文

• 2nd

– 小林 貴訓, 高野 恵利衣, 金原 悠貴, 鈴木 亮太, 久野 義徳,小池 智哉, 山崎 晶子, 山崎 啓一, “同伴者の振舞いの観察に基づいて自動併走するロボット車椅子,” 情報処理学会論文誌, Vol. 53, No. 7, pp.

1687-1697, 2012.

– Yoshinori Kobayashi, Ryota Suzuki and Yoshinori Kuno, “Robotic

Wheelchair with Omni-directional Vision for Moving alongside a

Caregiver,” Annual Conference on IEEE Industrial Electronics So-

ciety (IECON), pp. 4177-4182, 2012.

学術講演

• 1st

– 鈴木 亮太, 高野 恵利衣, 宗像 信聡, 小林 貴訓, 久野 義徳, “全方位カメラによる周辺情報を用いたロボット車椅子の開発,” 画像センシングシンポジウム (SSII), IS4-07, 2012.

– 鈴木 亮太, 小林 貴訓, 久野 義徳, “介護者に併走するロボット車椅子のためのタッチパネルインタフェース,” 電子情報通信学会総合大会,

ISS-P-363, 2012.

– Ryota Suzuki, Elly Takano, Yoshinori Kobayashi, Yoshinori Kuno,

Keiichi Yamazaki and Akiko Yamazaki, “Robotic Wheelchair Easy

to Move and Communicate with Companions,” IEEE International

Conference on Intelligent Robots and Systems (IROS) Workshop,

2012.

– Ryota Suzuki, Yoshihisa Sato, Yoshinori Kobayashi, Yoshinori Kuno,

Keiichi Yamazaki, Masaya Arai and Akiko Yamazaki, “Robotic Wheelchair

Moving alongside a Companion,” ACM/IEEE International Confer-

ence on Human-Robot Interaction (HRI) Demonstration, 2013. (to

apper)

30

Page 39: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

参考文献

[1] 国立社会保障・人口問題研究所, “日本の将来推計人口(平成 24年 1月推計),”

2012年.

[2] Luis Montesano, Marta Dıaz, Sonu Bhaskar and Javier Minguez, “Towards

the adaptation of a robotic wheelchair for cognitive disabled children,” IEEE

Transactions on Neural Systems and Rehabilitation Engineering, Vol. 18, No.

2, pp. 193-202, 2010.

[3] Eric Demeester, Alexander Huntemann, Dirk Vanhooydonck, Gerolf Vanacker,

Hendrik Van Brussel and Marnix Nuttin, “Useradapted plan recognition

and user-adapted shared control: A bayesian approach to semi-autonomous

wheelchair driving,” Journal of Autonomous Robots, Vol. 24, No. 2, pp. 193-

211, 2008.

[4] Yoshinori Kobayashi, Yuki Kinpara, Tomoo Shibusawa and Yoshinori Kuno,

“Robotic Wheelchair Based on Observatios of People Using Integrated Sen-

sors,” in Proceedings of IEEE/RSJ International Conference on Intelligent

Robots and Systems (IROS), pp. 2013-2018, 2009.

[5] 山崎 敬一, “実践エスノメソドロジー,” 有斐閣, 2004年.

[6] Yoshinori Kobayashi, Yuki Kimpara, Erii Takano, Yoshinori Kuno, Keiichi Ya-

mazaki and Akiko Yamazaki, “Robotic Wheelchair Moving with Caregiver Col-

laboratively,” in Proceedings of International Conference on Intelligent Com-

puting (ICIC), pp. 523-532, 2011.

[7] Elly Takano, Yoshinori Kobayashi, Yoshinori Kuno, “Multiple Robotic

Wheelchair System Based on the Observation of Circumstance,” in Proceed-

ings of Korea-Japan Joint Workshop on Frontire of Computer Vision (FCV),

pp. 222-226, 2012.

31

Page 40: 11MM316 255 - Saitama Universityyankee.cv.ics.saitama-u.ac.jp/~kunolab/research/thesis/...ICS-13M-116 同伴者と搭乗者のコミュニケーションを支援する ロボット車椅子

[8] Yoshinori Kobayashi, Yuki Kinpara, Tomoo Shibusawa and Yoshinori Kuno,

“Robotic Wheelchair on Observations of People Using Integrated Sensors,” in

Proceedings of IEEE/RSJ International Conference on Intelligent Robots and

Systems (IROS), pp. 2013-2018 ,2009.

[9] Mehrez Kristou, Akihisa Ohya and Shin’ichi Yuta, “Target Person Identifica-

tion and Following Based on Omnidirectional Camera and LRF Sensor Fusion

from a Moving Robot,” Journal of Robotics and Mechatronics, Vol. 23, No. 1,

pp. 163-172, 2011.

[10] Yuki Kinpara, Elly Takano, Yoshinori Kobayashi, Yoshinori Kuno, “Robotic

Wheelchair on Observations of People Using Integrated Sensors,” in Proceed-

ings of Korea-Japan Joint Workshop on Frontire of Computer Vision (FCV),

pp. 1-6, 2011.

[11] 小林 貴訓, 杉村 大輔, 平澤 宏祐, 鈴木 直彦, 鹿毛 裕史, 佐藤 洋一, 杉本 晃宏,

“パーティクルフィルタとカスケード型識別器の統合による人物三次元追跡,”

電子情報通信学会論文誌 D-II, Vol. J90-D, No. 8, pp.2049-2059, 2007.

[12] 関 啓明, 柴山 智志, 神谷 好承, 疋津 正利, “非ホロノミック移動体の形状を考慮した実用的な障害物回避 -ポテンシャル法の長方形車体への適用-,” 精密工学会誌, Vol. 74, No. 8, pp. 853-858, 2008.

32