チュートリアル (Tutorial)

オーガナイザー:谷本 啓(NEC),鈴木 雄太(トヨタ自動車株式会社)
Organizer: Akira Tanimoto (NEC), Yuta Suzuki (TOYOTA MOTOR CORPORATION)

チュートリアル1 [11月15日 (土) 9:30 – 11:00]
Tutorial 1 [Saturday, November 15, 9:30 – 11:00]
和地 瞭良 (LINEヤフー株式会社)
Akifumi Wachi (LY Corporation)

深層基盤モデルのための強化学習:驚きから理論に基づく納得へ

近年の深層基盤モデルの急速な発展において、強化学習 (RL) はファインチューニングや生成過程の最適化において中核的な役割を果たしている。たとえば、大規模言語モデルに対するRLHF (Reinforcement Learning from Human Feedback) やRLVR (Reinforcement Learning from Verifiable Rewards) による適応、拡散モデルに対する制御など、その応用範囲は広がり続けている。強化学習は経験的に有効な手法として注目されているが、その理論的正当性は方策最適化や報酬モデリングに関する数理に裏付けられている。本チュートリアルでは、強化学習の数理的枠組みを整理しながら、深層基盤モデルにおける応用を体系的に解説する。機械学習研究者・技術者を対象に、数式と直感的理解の双方を通じて、基礎から応用への橋渡しとなる理論的土台を提供することを目指す。

チュートリアル2 [11月15日 (土) 11:15 – 12:45]
Tutorial 2 [Saturday, November 15, 11:15 – 12:45]
石井 雅人 (Sony Research Inc.)
Masato Ishii (Sony Research Inc.)

拡散モデルのこれまでとこれから

画像、動画、音などのメディア生成において、拡散モデルは中心的な役割を果たすようになった。これほど広く利用されるようになった要因の1つは、拡散モデルの様々な数理的側面が解明され、それぞれの側面が生成モデルを活用する上での利点や応用に強く結びついてきたことにある。本チュートリアルでは、特に重要な「3つの側面」、すなわち「逆拡散過程」「微分方程式の初期値問題」「スコアベース生成」という3種類の解釈で拡散モデルを解説する。そして、それぞれが条件付き生成や編集への応用、生成の高速化、理論的解析のしやすさなど、どのような利点や応用可能性をもたらすのかを説明する。最後に、拡散モデルをベースとした新しい種類の生成モデルについても紹介する。

チュートリアル3 [11月15日 (土) 13:45 – 15:15]
Tutorial 3 [Saturday, November 15, 13:45 – 15:15]
TBD

チュートリアル4 [11月15日 (土) 15:30 – 17:00]
Tutorial 4 [Saturday, November 15, 15:30 – 17:00]
TBD