[dl輪読会]generative adversarial imitation learning

15
Generative Adversarial Imitation Learning 冨冨 冨冨 冨冨冨冨冨

Upload: deeplearningjp2016

Post on 12-Apr-2017

150 views

Category:

Technology


6 download

TRANSCRIPT

Page 1: [DL輪読会]Generative adversarial imitation learning

Generative Adversarial Imitation Learning

冨山 翔司

松尾研究室

Page 2: [DL輪読会]Generative adversarial imitation learning

はじめまして

• 松尾研究室のM1です。• 朝ごはん制度が導入されてから隠れて参加していました。

• よろしくお願いします。

Page 3: [DL輪読会]Generative adversarial imitation learning

書誌情報

• Jonathan Ho, Stefano Ermon• NIPS 2016• Generative Adversarial Imitation Learning

• 一時話題になってた気がしたので読んでみました(結構難しかった。。。)

Page 4: [DL輪読会]Generative adversarial imitation learning

サマリー

• エキスパートポリシーの軌道のデータのみから、直接ポリシーを学習するような一般的なフレームワークを提案。– エキスパートポリシー・・・あるタスクに対して最適化されたポリシー。教師のようなもの。

– 従来では、逆強化学習によってエキスパートポリシーから報酬関数を学習し、その報酬関数を用いてポリシーを学習していた。

• この一般的なフレームワークに則ると、ある設定下において GANとの関連が見える。その設定下で学習すると良いポリシーが獲得できる。

Page 5: [DL輪読会]Generative adversarial imitation learning

逆強化学習と強化学習

• エキスパートポリシーからコスト関数を推定。 (IRL)

– エキスパートポリシーとそうでないポリシーとの差を最大化させるようなコスト関数

– このコスト関数に従って、強化学習でポリシーを学習。

– (本論文では報酬をコストに置き換えている)• 強化学習

– 与えられたコストに対してそのコストを最小化するようなポリシーを学習

Page 6: [DL輪読会]Generative adversarial imitation learning

本論文のモチベーション

• コスト関数推定→強化学習 の問題– 計算が大変で、かつ大きい環境に対応できない。

• エキスパートから直接ポリシーを求めたい

Page 7: [DL輪読会]Generative adversarial imitation learning

凸関数正則化項 ψ付き IRL

• コスト関数に対して ψ正則化を加えたものを追加– c: S×A→R– ψを加えない場合、コスト関数はエキスパートが通ったことのあるデータ点にオーバーフィットしてしまう。

– ψは凸関数

• のとき、はどのように書けるか???

Page 8: [DL輪読会]Generative adversarial imitation learning

occupancy measureの導入•

– occupancy measureと呼ぶ。– ポリシー πに従っている時、 stateと actionのペアがどれだけ発生するかの分布

• – ρの集合 Dは上のように書ける。

• Dは凸集合。

•  

Page 9: [DL輪読会]Generative adversarial imitation learning

Characterize • 一般に凸関数 fに対して ,以下が成り立つ

• 上から

– 凸共役の式の yにコスト、 xに ρの差が対応。

• ψ凸正則化を加えた RLIRLは、凸共役 ψ*の元でエキスパートとの ρが近くなるようなポリシーを探索する。

Page 10: [DL輪読会]Generative adversarial imitation learning

整理

IRLによるコスト推定RLによるポリシー学習

ψ付き IRLによるコスト推定

RLによるポリシー学習

Page 11: [DL輪読会]Generative adversarial imitation learning

凸関数 ψが定数関数である時• 定数関数( ψ(x) = constant)である場合

– , ,• 「正則化がない場合、学習されるポリシーはエキスパートと同じ occupancy measureを持つ」

– IRLは occupancy measureの一致問題と双対。

• エキスパートと同じポリシーになるが、 S×Aが大きい時はスケールしない。

Page 12: [DL輪読会]Generative adversarial imitation learning

apprenticeship learningと RLIRL• apprenticeship learning(徒弟学習)

– この ψで RLIRLから apprenticeship learningを記述可能

– S×Aが大きくてもスケールする• コストが線形関数であるため、複雑なポリシーを表現することができない。– エキスパートを完全に模倣できない– S×Aが大きくてもスケールし、かつエキスパートを模倣できるくらい複雑なモデルが欲しい

cは凸関数に限定

Page 13: [DL輪読会]Generative adversarial imitation learning

GANと RLIRL

• 上のように ψを設定する。と、これは– コストがいたるところで負であるような任意のコスト関数を表現可能

– この ψの凸共役関数は

– エキスパートとの occupancy measureの JSDを最小化する• 学習するポリシーはエキスパートを完全に模倣可能

– Discriminatorはコスト関数に対応する• RLIRLからGANが出てきた(!)

Page 14: [DL輪読会]Generative adversarial imitation learning

generative adversarial imitation learning

Page 15: [DL輪読会]Generative adversarial imitation learning

実験結果