企画セッション(招待講演のみ)


許諾の得られた講演資料は公開しています.タイトルは講演資料へのリンクになっています.

特別招待講演

日時: 11/8 (木) 午後

Learning with structured sparsity in computational biology

Jean Philippe Vert (Mines ParisTech/Institut Curie)

Learning with structured sparsity has emerged as a powerful approach to estimate predictive models with complex or structured data. By defining specific non-smooth convex regularisers, one can encode specific prior knowledge into computationally efficient procedures. In this talk, I will describe several such approaches we have developed for applications in computational biology. Applications include the inference of prognostic models in cancer from genomic data, the detection of breakpoints in noisy DNA profiles, or the quantification of RNA isoforms from high-thoughput sequencing data.

学習理論のフロンティア

日時: 11/7 (水) 午前

[趣旨説明]

カーネル法の新しい展開 – その理論と方法 –

福水 健次 (統計数理研究所)

正定値カーネルを用いたデータ解析の方法論として,近年,特徴ベクトルの平均による確率分布の埋め込みを用いたノンパラメトリックな統計的推論の方法が発展してきている.2標本問題や分布の独立性検定をはじめ,条件付独立性に基づく様々な推論問題や,ベイズ則までがカーネル法によって計算できるようになり,その応用が格段に広がっている.本講演では,主に条件付確率とベイズ則のカーネル法による実現法に関し,その方法と理論に関する現状をまとめ,今後の課題についても述べる.

確率推論による強化学習・確率最適制御

植野  剛 (科学技術振興機構)

強化学習, 確率最適制御分野では, 確率推論に基づき最適意思決定則を導く枠組み, “inference-based control”が注目されている. Inference-based controlは, 従来, 価値関数の推定を通して行われてきた最適な意思決定則の導出を, 最小コストを実現する最適経路分布の推定により実現する. したがって, inference-based controlは, 従来法が苦手としてきた隠れ変数を持つ部分観測なシステムと極めて相性が良く, またモデリングの幅を大きく広げるため, 理論面・実用面で今後の展開が期待されている. 本発表では, inference-based controlのこれまでの発展について解説し, その有用性ならびに今後の方向性について議論する.

統計的学習理論チュートリアル:基礎から応用まで

鈴木 大慈 (東京大学)

本講演では統計的学習理論のチュートリアルを行う.統計的学習理論は,機械学習の諸手法の「良さ」を統計的視点から評価し,その本質を理解し,新しい手法の構築へ還元する理論体系である.これまで学習理論は応用と併せて機械学習研究の両輪として様々な手法の発展に貢献してきた.今後も広い応用の発展の一方で,深い理論的な解析の重要性はますます高まってゆくと考えられる.しかしながら,理論を適切に理解し,実際に自分の研究に活かすことは必ずしも容易ではなく,なかなか馴染みにくいという側面もある.そこで本講演では,統計的学習理論について基礎的な事項から平易な解説を行う.誤差の上界を評価する典型的な技法に加え,手法の最適性(許容性・ミニマクス最適性)についても解説する.また,それらの理論がどのように応用されているか具体例を交え,特に,スパース学習への応用を紹介する予定である.

ビジネスと機械学習の接点

日時: 11/7 (水) 午後

ブランドに対する”飽き”の動的変化の個人別測定と製品・品揃え戦略

照井 伸彦 (東北大学)

消費者の効用関数を用いた複数離散モデルをベースとして,ブランドに対する”飽き”を動的因子モデルによりブランド群に付随する因子負荷量と個人に付随する因子スコアに分解する.また”飽き”を各ブランドの成分データに回帰させることにより,飽きさせる成分,飽きさせない成分,中立な成分を検出し,ブランドの改良・開発戦略に向けた成分の特徴づけを行う.さらに個人別に推定された因子スコアの動的変化から”飽き”の状態を捉え,補償価値にもとづく価値評価を通じた品揃え戦略を提示する.

E-commerce企業におけるビッグデータへの挑戦と課題 〜 機械学習への期待について

森 正弥 (楽天株式会社)

ビッグデータが,インターネット企業においてどのような現実的課題として登場し,またその活用をしているのか.そして現在の問題を解決する手段として,機械学習にどのような期待を見出しているのか.講演者が所属する楽天だけでなく,他社事例も含めながら,e-commerce サービスカンパニーにおけるビッグデータの実際について解説する.特にe-commerce 企業におけるデータマイニング,商品ランキング,商品サーチ等の事例に関して言及しつつ,独自OSS技術の活用についても説明する.更には,今後,将来において本格化するO2Oのトレンドがどのような影響をもたらし,ビッグデータがいかに進行するか,それを踏まえインターネットサービス企業における技術活用として何を行わなければいけないかについても考察をしていく.

Mobageの大規模データマイニングと意思決定

濱田 晃一 (株式会社ディー・エヌ・エー)

4300万人以上の会員をかかえるソーシャルゲームプラットフォーム「Mobage」では,1日35億超の行動情報が蓄積されています.これらの大規模行動データを対象に,データマイニング・機械学習の各種方法論を適用することにより,隠された法則を解明・より良い解を導出し,迅速なサービス洗練を実現しています.今回はこれらMobageでの大規模データマイニング,および,分析に基づいた意思決定に関し紹介します.

ヘルスケアと機械学習

日時: 11/8 (木) 午前

医薬品の標的分子や副作用の予測における機械学習

山西 芳裕 (九州大学)

ほとんどの医薬品はタンパク質などの生体分子との相互作用を介して,薬効という形で人体に影響を及ぼす.しかしながら,薬の分子は本来目標とした標的タンパク質にのみ結合するとは限らず,それ以外の複数のタンパク質に結合し予想外の副作用を起こすことがある.そのような薬効や副作用に関与する標的タンパク質の同定は,創薬において重要課題である.本研究では,薬のケミカル空間(化学構造など),薬理空間(薬効,副作用など),タンパク質のゲノム空間(機能モチーフ,アミノ酸配列など)の相関を,薬・標的タンパク質間相互作用ネットワークの視点から解析するための機械学習の手法を開発した.当日は,薬の未知の標的分子や副作用の予測への応用を紹介する.

脳の学習と機械の学習—ブレイン・マシン・インターフェースで脳の可塑性を引き出すには?−

牛場 潤一 (慶應義塾大学)

脳卒中片麻痺に対するこれまでのリハビリテーション医療(以後リハ)では,日常生活の質を高めることに重点を置いた介入がおこなわれてきた.すなわち,麻痺側に対しては,装具や神経ブロックを用いた異常肢位の抑制や,拘縮予防と衛生管理を施し,日常生活動作そのものの再建にあたっては,健側を使った動作訓練が主であった.近年になって,モデル動物を用いた神経可塑性の研究が進むと,成熟した脳や,障害のある脳においても,反復的な運動訓練によって神経機能の再構築が進むことが明らかになり,臨床で使える神経リハの開発が望まれるようになった.そこで私たちは,脳卒中重度片麻痺に対する上肢運動リハとして,ブレイン・マシン・インターフェース技術(BMI)を活用した介入方法を考案した(Shindo et al. J Rehabil Med 2011).この方法は,体性感覚運動野近傍の頭皮上から導出される脳波に認められるSensorimotor rhythm(SMR)を指標として当該皮質領域の興奮性を定量し,運動企図によって興奮性が上昇したときだけ,麻痺手の運動を電動デバイスおよび筋電気刺激によって介助するものである.これまでの研究から,(1)運動企図によってSMRの振幅が減少する減少は,体性感覚運動野の興奮性上昇によってもたらされていること(Kasashima et al. Exp Brain Res 2012),(2)訓練の経過とともに,運動企図中におけるSMRの減少が著明になること,(2)安静時における障害側一次運動野の興奮閾値が低下し,皮質脊髄路が興奮しやすくなること,(3)麻痺側総指伸筋における随意筋電図上の所見が改善すること,(4)手指の随意運動が改善し,臨床スコアが上昇すること,などを見いだしている.また,健常成人を対象とした基礎研究からは,(1)SMRの振幅減少量は,一次運動野における皮質内抑制の脱抑制量に相関すること(Takemi et al. BCI Award 2012 Top 10 Nominees),(2)SMRの振幅減少量が脊髄前角細胞の興奮性に相関すること(Takemi et al., in prep.),などを見いだした.すなわち,SMRを用いたBMI訓練は,皮質脊髄路の興奮性を随意的に調節するための再学習過程をうながしていると解釈できた.従来のBMIでは,運動企図とともに僅かに変化する頭皮脳波を高感度にとらえることに主眼が置かれていたため,機械学習を積極的に導入した脳活動識別アルゴリズムが盛んに検討されてきた.これはすなわち,機械が脳の顔色を窺ってすぐさま反応するような,「かゆいところに手が届くシステム」である.しかし,私たちがおこなってきたBMIリハの経験を鑑みると,むしろ,こちらが要求している脳活動パターン(機能回復につながる脳活動パターン)を脳が発しない限りはBMIが動作しないような「がんこなシステム」のほうがむしろ,脳に運動学習をうながす上で有益のように思われる.本講演では,脳も学習し,機械も学習する「相互学習系」をどのように研究し,体系づけていくべきか,IBISコミュニティの皆様と議論を深めたいと考えている.

がんの病態,発病機序を理解するためのゲノム解析

白石 友一 (東京大学)

シークエンス技術を始めとする近年のハイスループット計測技術の発達により,点変異,ゲノム構造異常,スプライシング異常,エピゲノム変異など様々なタイプの異常が網羅的に検出できるようになり,がん研究が大幅に進展することが期待されている.それに伴い,様々なタイプのデータを統合的に捉え,創造的なアプローチにより有用な生物学的知見を抽出することが情報学系研究者に強く求められている.本講演では,演者の研究内容を紹介しつつ,がんゲノム研究におけるいくつかの情報学的な課題を提示する.

蛍光計数分布からの生体分子結合状態の自動推定:複合ポアソン分布による定式化

小山 洋平 (理化学研究所)

試験管や細胞内でのタンパク質やDNAなどの生体分子間の相互作用を定量的に理解するために,これらの分子に蛍光標識し,検出される蛍光のデータを解析することで相互作用分子種の濃度などを推定する手法の総称として蛍光ゆらぎ分光法(Fluorescence fluctuation spectroscopy (FFS))がある.本発表では,蛍光ゆらぎ分光法の中でも蛍光の計数分布の情報を用いたこれまでの多くの手法が,複合ポアソン分布として扱えることを紹介する.複合ポアソン分布は保険会社が一日あたりに支払う全保険金額の分布などに表れ,保険数学の分野で特に研究が盛んであるが,当該分野で用いられる分布の計算手法は蛍光の計数分布の正確なモデル化にも有効である.これらの正確で効率的な計算手法を用い,複数の蛍光計数分布データの統合的なモデルに対して最尤推定とモデル選択を適用することで,生体分子の結合状態や濃度を自動推定する試みについて紹介する.

マルチメディアと機械学習

日時: 11/9 (金) 午前

コミュニケーションとしての映像とその検索技術

篠田 浩一 (東京工業大学)

最新の映像検索では,確率・統計に基づくアプローチが主流となってきた.そこでは,20年前から音声工学分野で開発されてきた技術が効果的に再利用されている.その背景には,音声と映像はともに,作り手(話す方)と受け手(聞く方)のコミュニケーション手段である,という観点がある.本講演ではその観点から,映像検索の最新技術を概観し,その今後の展望を述べる.

最適化問題としての機械翻訳

渡辺 太郎 (情報通信研究機構)

機械翻訳は,確率的生成モデルとして捉えられ,ある生成過程に基づき,大量の対訳データからパラーメータを学習,学習されたモデルに基づき,原言語の入力文をデコードすることで実現される.このような統計的な手法を導入することで,機械翻訳の問題は,モデル化,最適化および探索の問題へと分割され,機械学習や形式言語論など,様々な分野からの貢献および研究開発により,飛躍的な発展を遂げており,webやアプリとして実際のサービスに応用されている.本発表では,機械翻訳を実現する上での鍵となる最適化問題について解説する.機械翻訳においては,複数の正解が存在し,かつ潜在変数の数が多く,探索空間が膨大であるため最適化は困難である.実際の翻訳の誤りを直接最小化する手法から始まり,期待翻訳誤り最小化などの目的関数や,大量のパラメータを効率良く最適化するためオンライン学習など,特に機械翻訳の問題に特化した手法を説明する.

生成モデルアプローチによる音声音響信号処理

亀岡 弘和 (日本電信電話株式会社)

音声や音楽を対象とした音響信号処理の問題の多くは逆問題である.例えば,音源分離は,複数の音源から発せられた音響信号が重畳されるプロセスを順問題とした逆問題と捉えることができるし,音声特徴量抽出は,音声信号が物理的なメカニズムによって生成されるプロセスを順問題とした逆問題と捉えることができる.このように音響信号処理の問題は,観測信号(「結果」)から,背後で起こっていたらしい現象(「原因」)を推定する問題と見なせるものが多く,生成モデルアプローチが非常に有効である.本講演では,著者の研究事例の紹介を交えながら,音声や音楽を対象とした音響信号処理分野において生成モデルアプローチがこれまでどのように用いられ,どう役立ってきたかを概説する.

気候変動問題に挑む機械学習

日時: 11/9 (金) 午後

Climate Informatics: Recent Advances and Challenge Problems for Machine Learning in Climate Science

Claire Monteleoni (George Washington University)

The threat of climate change is one of the greatest challenges currently facing society. Given the profound impact machine learning has made on the natural sciences to which it has been applied, such as the field of bioinformatics, machine learning is poised to accelerate discovery climate science. Our recent progress on climate informatics reveals that collaborations with climate scientists also open interesting new problems for machine learning. I will give an overview of challenge problems in climate informatics, and present recent work from my research group in this nascent field. A key problem in climate science is how to combine the predictions of the multi-model ensemble of global climate models that inform the Intergovernmental Panel on Climate Change (IPCC). Our Tracking Climate Models (TCM) work demonstrated the promise of an algorithm for online learning with expert advice, for this task. Given temperature predictions from 20 IPCC global climate models, and over 100 years of historical temperature data, TCM tracked the changing sequence of which model currently predicts best. On historical data, at both annual and monthly time-scales, and in future simulations, TCM consistently outperformed the average prediction over climate models, the existing benchmark in climate science. Recently, we have extended TCM to take into account climate model predictions at higher spatial resolutions, and to model geospatial neighborhood influence between regions. Our algorithm enables neighborhood influence by modifying the transition dynamics of the Hidden Markov Model from which TCM is derived, allowing the performance of spatial neighbors to influence the temporal switching probabilities for the best climate model at a given location.

Toward quantifying and reducing uncertainty in decadal climate prediction

Takashi Mochizuki (JAMSTEC)

Uncertainty is one of the key words in climate prediction. I would like to give a talk on some approaches to quantifying and reducing uncertainty in climate prediction community. Scientists in both climate informatics and climate predictions aim at predicting future climate with higher reliability, while their approaches to reducing errors and uncertainty are quite different. In climate informatics community, to extract meaningful information from huge amounts of predicted data, optimization techniques are usually developed and improved even if breaking general principles of dynamics and thermodynamics in “model”. In climate prediction community, on the other hand, we try to reduce uncertainty with keeping general principles in climate model.

When focusing on prediction of decadal climate changes (e.g., differences in mean climate state between the last and coming 10 years), for example, major source of uncertainty is generally composed of internal variability in the climate system and climate model used for prediction. Climate prediction is deterministically employed using a climate model governed by general principles and a specific initial condition of the atmosphere and the ocean. Therefore, we use data assimilation approach (i.e., initialization) to reduce errors and uncertainly in initial conditions, since initial states obtained from data assimilation are close to the observations with approximately satisfying general principles. Ensemble approach is simple but effective way to quantify uncertainty.When independently performing several predictions using slightly different initial conditions, probability distributions of initial and future states should illustrate uncertainty due to initial conditions. In other words, a individual calculation is deterministic prediction,while the ensemble approach provides us with probabilistic information.

Most of climate models are basically governed by general principles, not only for weather forecasts but for the global warming simulation in IPCC protocol, while some parts of climate model are not strictly described by general principles due to limited computational resources and unsolved physical processes. We inevitably use some artificial parameters in these calculations which can generate uncertainty. While we carefully tune and/or optimize these parameters before prediction experiments, we cannot remove the whole model-generated uncertainty. Ensembles of parameters and/or climate models (i.e., multi-model ensembles) should also be effective approach to quantifying and reducing uncertainty.