オーガナイザー:谷本 啓(NEC),鈴木 雄太(トヨタ自動車株式会社)
Organizer: Akira Tanimoto (NEC), Yuta Suzuki (TOYOTA MOTOR CORPORATION)
チュートリアル1 [11月15日 (土) 9:30 – 11:00]
Tutorial 1 [Saturday, November 15, 9:30 – 11:00]
和地 瞭良 (LINEヤフー株式会社)
Akifumi Wachi (LY Corporation)
深層基盤モデルのための強化学習:驚きから理論に基づく納得へ
近年の深層基盤モデルの急速な発展において、強化学習 (RL) はファインチューニングや生成過程の最適化において中核的な役割を果たしている。たとえば、大規模言語モデルに対するRLHF (Reinforcement Learning from Human Feedback) やRLVR (Reinforcement Learning from Verifiable Rewards) による適応、拡散モデルに対する制御など、その応用範囲は広がり続けている。強化学習は経験的に有効な手法として注目されているが、その理論的正当性は方策最適化や報酬モデリングに関する数理に裏付けられている。本チュートリアルでは、強化学習の数理的枠組みを整理しながら、深層基盤モデルにおける応用を体系的に解説する。機械学習研究者・技術者を対象に、数式と直感的理解の双方を通じて、基礎から応用への橋渡しとなる理論的土台を提供することを目指す。
チュートリアル2 [11月15日 (土) 11:15 – 12:45]
Tutorial 2 [Saturday, November 15, 11:15 – 12:45]
石井 雅人 (Sony Research Inc.)
Masato Ishii (Sony Research Inc.)
拡散モデルのこれまでとこれから
画像、動画、音などのメディア生成において、拡散モデルは中心的な役割を果たすようになった。これほど広く利用されるようになった要因の1つは、拡散モデルの様々な数理的側面が解明され、それぞれの側面が生成モデルを活用する上での利点や応用に強く結びついてきたことにある。本チュートリアルでは、特に重要な「3つの側面」、すなわち「逆拡散過程」「微分方程式の初期値問題」「スコアベース生成」という3種類の解釈で拡散モデルを解説する。そして、それぞれが条件付き生成や編集への応用、生成の高速化、理論的解析のしやすさなど、どのような利点や応用可能性をもたらすのかを説明する。最後に、拡散モデルをベースとした新しい種類の生成モデルについても紹介する。
チュートリアル3 [11月15日 (土) 13:45 – 15:15]
Tutorial 3 [Saturday, November 15, 13:45 – 15:15]
柿沼太一 (STORIA法律事務所)
Taichi Kakinuma (STORIA Law Office)
AIに関する著作権の基本と、AI研究者が注意すべき問題、今後の課題
生成AIの学習・利用に関わる著作権の基本(権利の所在/学習と生成の違い/著作権法30条の4〈情報解析〉)を平易に整理します。研究者の方から問い合わせが多い論点(AI開発のための著作物収集・クローリングの適法性、OSSの利用、成果物公開の際の方法等)、開発・提供・利用各段階の責任、今後の課題まで具体事例で解説。国内外の議論と最新動向も紹介します。
チュートリアル4 [11月15日 (土) 15:30 – 17:00]
Tutorial 4 [Saturday, November 15, 15:30 – 17:00]
菱沼 利彰 (SB Intuitions株式会社)
Toshiaki Hishinuma (SB Intuitions Corp.)
AI研究を支える計算基盤
深層学習や大規模言語モデルの発展は,計算基盤の進化と密接に関わっている.本チュートリアルでは,現代のHPC基盤を構成する要素としてのGPUを中心に,AI研究を支える計算環境の基本的な仕組みを解説する.GPUや専用アクセラレータの基礎や比較,分散学習を可能にする並列化手法,クラスタにおける通信技術などを取り上げ,普段は意識しにくい計算基盤の構造を紹介する.AI研究と計算資源の関係を俯瞰することで,両分野の相互理解を深めることを目的とする.