Decision Transformer: Reinforcement Learning via Sequence Modeling
メタ情報
著者
- Lili Chen (UC Berkeley)
- Kevin Lu (UC Berkeley)
- Aravind Rajeswaran (Facebook AI Research)
- Kimin Lee (UC Berkeley)
- Aditya Grover (Facebook AI Research)
- Michael Laskin (UC Berkeley)
- Pieter Abbeel (UC Berkeley)
- Aravind Srinivas (UC Berkeley)
- Igor Mordatch (Google Brain)
発表
- 24 Jun 2021, arxiv
リンク
- Paper: https://arxiv.org/pdf/2106.01345.pdf
- Google site : https://sites.google.com/berkeley.edu/decision-transformer
スライド
Zennメモ
論文読む時に書いた汚いメモです。 精読するときに役に立つかもです。
Decision Transformer: Reinforcement Learning via Sequence Modeling
説明
感想
Transformer(GPT)で強化学習してみました系論文。 有用性の検証のためにいろんな実験を行っているが、なにを示したいのかイマイチ理解できず、実験の意図がわからない部分が多かった。
おそらく性能としては現行のTD法を用いた手法がまだ強いのではと思う。 ただ、長期的なタスク等に関してはDTが強い印象を受けました。
松尾研スプリングセミナー2021からいろいろ抜粋させて頂きました。 非営利なので多めに見ていただけるとたかをくくっていますが、もし問題がございましたら、お手数ですがご連絡ください。