企画セッション1 [11月5日(火) 9:40 – 11:40]
サイエンスと機械学習
オーガナイザー:坂田 綾香(統計数理研究所),竹野 思温(名古屋大学)
奥野 彰文(統計数理研究所)
一人の手法研究者から見た科学応用研究
講演者は統計学および機械学習の手法研究を専門としており,これまで自然科学研究との接点はなかった.学位取得を機に,様々な自然科学分野の研究者と交流を持つようになり,天文学分野をはじめいくつかの共同研究が進展している.本講演では,一人の手法研究者として,自然科学分野の研究者と対峙した際に直面した困難や問題点,また,どのような対応を取ることで話が円滑に進んだかについて,天文学分野などとの共同研究の具体例を交えて紹介する.
沓掛 健太朗(名古屋大学)
工学・理学研究への情報科学応用の課題と展望 -専門知識をどのように入れるか-
今日,情報科学は,工学・理学のあらゆる分野で欠かせないツールとなっている.本講演の前半では,応用物理学会の取り組みを紹介しながら,マテリアルズインフォマティクス,プロセスインフォマティクス,計測インフォマティクス,物理インフォマティクスの4分野について,概要と各分野に特有の問題設定と課題・展望を議論する.講演後半では,講演者らのグループの研究事例を紹介しながら,研究者・技術者が持つ対象の系に対する専門知識をいかに機械学習・最適化に組み込むかを議論する.
原田 香奈子(東京大学)
AIロボット駆動科学におけるロボットの役割
ロボットはAIに身体性を与える手段として期待されており,サイエンスにおいて新たな役割を担いつつある.ロボット分野はオートメーションとロボティックスに大別されるが,オートメーションは繰り返し操作を行い,質の高いデータを大量に取得してラボ・オートメーションに貢献している.一方,ロボティックスでは,ロボットが自ら考えて対象に応じた動作を自律的に行うことを目指しており,科学AIとロボットAIによる自律化,ロボット・ハードウェア技術を組み合わせることで,ロボットが自ら探究を行うことが可能になる.講演では「人とAIロボットの創造的共進化によるサイエンス開拓」PJにおけるライフサイエンスへの応用を紹介する.
企画セッション2 [11月6日(水) 15:45 – 17:45]
HCIと機械学習
オーガナイザー:小山 裕己(産業技術総合研究所),大滝 啓介(豊田中央研究所)
竹野 思温(名古屋大学)
選好に基づくベイズ最適化
ベイズ最適化は実数値の観測が得られる場合に効率的な最適化を目指す方法論である.しかし, 画像や自然言語などを対象とした最適化では,実数値によって対象を評価することが難しい.一方で,このような例でも,複数の候補,たとえば2枚の画像を示し,どちらの画像が良いかを選択することは比較的容易である.本発表では,実数値の代わりに,複数の候補の比較情報 (選好情報) を用いて効率的な最適化を目指す選好ベイズ最適化 (Preferential Bayesian Optimization) について概説する.
伊藤 寛祥(筑波大学)
個人と社会をつなぐAI技術
現代社会において,人間とAIの共生はますます現実味を帯びてきており,特にAIがどのようにして人々の「生きがい」や「well-being」に寄与できるかは重要な課題となってきている.本講演では,機械学習を用いて人間の「好ましさ」を正確かつ効率的に推定し,その総和をいかに最大化するかという課題に焦点を当て,AI技術が個々人に対してよりパーソナライズされた提案や行動支援を行い,結果として社会全体のwell-beingの向上に寄与する可能性を探る.
樋口 啓太(Preferred Networks)
HCI for MLが有効である課題とその実践
HCI for MLとは機械学習における学習データの生成や検証,モデル学習などの工程に人間の判断や知見を効率的に導入するためにHCIを活用しようとする研究領域である.本講演では,講演者が実際に行った研究例を出しながらHCI for MLの現在や今後の課題を議論する.
矢倉 大夢(Max-Planck Institute)
Human-Informed Machine Learning Models and Interactions
機械学習は実世界の様々なタスクを解くに至っているが,その応用を拡げていくには人間に寄り添ったインタラクションの設計も欠かせない.本トークでは,1)人間の行動や思考のパターンと機械学習モデルの間にはどのようなギャップがあるのか,2)それをどのように機械学習モデルやそのインタラクションの設計に取り入れていくのかについて,音楽やデザインの領域を対象にした具体例を含め提示する.そして,1つの強力なモデルでできることの範囲が広がっている中で,人間を起点に新たな応用を探るというアプローチの可能性について議論する.
企画セッション3 [11月7日(木) 11:00 – 13:00]
ビジネスと機械学習
オーガナイザー:原 聡(電気通信大学),原田 慧(電気通信大学)
石原 祥太郎(株式会社日本経済新聞社)
ニュースメディアにおける事前学習済みモデルの可能性と課題
ニュースメディアは日々,大量のテキストデータを収集・編集・提供し続けている.この一連の過程に変革をもたらす可能性を秘める技術として,日本経済新聞社は「事前学習済みモデル」に着目してきた.具体的には,自社データに特化した事前学習済みモデルを構築して活用方法を模索すると共に,付随する課題を議論している.本講演では最初に,ニュースメディアを取り巻く昨今の環境を,日本経済新聞社での事例と合わせて解説する.その後,独自の事前学習済みモデルを用いた研究開発に焦点を当て,ニュース記事要約の性能改善や,モデルの時系列性能劣化や訓練データの暗記に関する課題を紹介する.
合田 周平(ウォンテッドリー株式会社)
ジョブマッチングサービスにおける相互推薦システムの応用事例と課題
近年,HRテック分野において機械学習の活用は進み,特にジョブマッチングサービスでは求人と求職者の効率的かつ効果的なマッチングを実現する重要性が増している.本発表では,ウォンテッドリー株式会社が開発・運用しているジョブマッチングサービスにおける機械学習の活用事例として,マッチングの最適化に向けた相互推薦システムのアプローチに焦点を当て,実際のサービスで得られた成果や研究事例について紹介する.また,マッチング特有の技術的課題と今後の改善の方向性について議論する.
岩政 公平(チューリング株式会社)
近年のData-Centricな自動運転AI開発
近年の自動運転システムにおいて,学習ベースのEnd-to-End(E2E)の深層学習手法が急速に発展している.このアプローチは,カメラやLiDAR,GNSS/IMUなどの複数センサデータを実世界で大規模に収集する必要があり,データの量・質・多様性が重要である.本講演では,自動運転分野で用いられる一般的な学術データセットをもとに,それらが持つ課題と,実際にデータ収集からE2Eモデルを学習するまでのアプローチおよび遭遇した諸問題を紹介する.自動運転における“Data-Centric AI”の重要性と継続的なデータ収集と学習を可能にするMLOpsについて議論する.
企画セッション4 [11月7日(木) 14:30 – 16:30]
Machine Learning Theory
オーガナイザー:二反田 篤史(A*STAR),園田 翔(理研AIP)
Thomas Möllenhoff (RIKEN AIP)
Variational Learning is Effective for Large Deep Networks
In this talk, I present extensive evidence against the common belief that variational Bayesian learning is ineffective for large neural networks. I demonstrate that a direct optimization of the variational objective with an Improved Variational Online Newton method (IVON) can consistently match or outperforms Adam for training large networks such as GPT-2 and ResNets from scratch. IVON’s computational costs are nearly identical to Adam but its predictive uncertainty is better. The talk concludes with several new use cases of variational learning where we improve fine-tuning and model merging in Large Language Models, accurately predict generalization error, and faithfully estimate sensitivity to data.
Futoshi Futami (Osaka University)
Information-theoretic generalization analysis
In this talk, I will introduce information-theoretic (IT) analysis for assessing the generalization ability of machine learning algorithms. Unlike traditional generalization error analysis methods, such as those based on VC dimensions, IT analysis provides distribution- and algorithm-dependent bounds by leveraging mutual information between the training data and the learned hypothesis. This approach allows for a more refined understanding and quantitative examination of generalization error. The resulting bounds can be non-vacuous and naturally align with classical uniform convergence theory, further enhancing their potential as an analytical tool. In this talk, I will cover the basics of IT analysis and present specific examples, such as Stochastic Gradient Langevin Dynamics (SGLD).
Matthew J. Holland (Osaka University)
Learning algorithms and loss distribution control
While there are innumerable criteria for evaluating machine learning systems, the criteria used to design training procedures are typically centered around a simple basic principle: minimizing the average loss to be incurred. In recent years, a broader view of performance has come to the forefront, starting with mechanisms to balance between average-case and worst-case loss, and evolving to procedures which explicitly seek good loss concentration, potentially at the cost of performance on average. Are such tradeoffs inevitable? What properties of loss distributions are conducive to good performance in other metrics, such as model complexity or fairness? In this talk, I will review key families of learning criteria, highlighting what is known and what remains puzzling in the underlying tradeoffs.