物理学実験

プランク定数の測定実験担当
レーザー実験担当

システム工学実験

倒立振子の振り上げ制御実験担当

LinkIcon工学部情報学科シラバス

大阪市立大学 電子・物理工学特別講義

今日から分かるスパースモデリング

LinkIcon2016.03.04ver使用講義ノートを改訂(AMPを追加).多くの修正を含むことを断っておく.
(2015.09.02改訂)
(2015.09.09改訂:AMPを追加)
(2016.03.04改訂:state evolutionを追加、ADMMや拡張ラグランジュ法について大幅改定)

2015.09.02使用スライド
LinkIcon2015.09.02Slide1
LinkIcon2015.09.02Slide2
LinkIcon2015.09.02Slide3
2015.09.03はひたすら板書で計算.
LinkIcon2015.09.03Slide
2015.09.04使用スライド
LinkIcon2015.09.04Slide1
LinkIcon2015.09.04Slide2

一コマ目講義内容書き起こし

導入

 それではやりましょう。京都大学の大関と申します。よろしくお願いいたします。
「今日からできるスパースモデリング」というチャラいタイトルを付けました。最近、スパースモデリングに、新学術領域の大きい予算が付きました。
 そのスパースモデリングという、いわゆるキャッチワードができたのですが、NHKの「サイエンスZERO」で、2週間か3週間前、ついこの前再放送されましたが、そのときにツイッターなどを見ると、面白そうだけれど分からないとか、数式が難しそうとか、いろいろな印象がありました。ですので、そのために「今日からできる」というタイトルを付けました。おうちに帰る人もいるかもしれないし、教室に戻るかもしれないですが、戻ったときに、教わったプログラム、アルゴリズムを使ってみて、自分の実験データや持っているものを使って何かできないかなと考えるきっかけになればと思って、「今日からできるスパースモデリング」というタイトルを付けさせていただきました。よろしくお願いいたします。

 正直、悩みました。ずっと黒板を使おうと思っていました。なぜかというと、僕はもともと予備校の講師だからです。黒板を使った授業がいかにいいものかということを実は知っています。そして、スライドを使った授業がいかにくだらないかということも知っています。それは、分かった気になってしまうからです。ですので、絶対に皆さんは、ああ、そうなんだ、ははーんと、ぽかんと思うことなく、ぜひとも、あくまで自分で考えてください。スライドを見ながら書き取るのはメモ書き程度でいいです。考える時間を得られるように考えて話をします。

圧縮センシング

 というわけで、行きます。今日は初日でまだ遅れて来る人もいるかもしれないので、のんびりと始めます。大きく分けて、二つお話しします。一つは、スパースモデリングの代名詞とも言える、圧縮センシングと呼ばれる技術です。
 第二部の方は、先回りして言うと、ボルツマン・マシン・ラーニング(ボルツマン機械学習)についてお話しします。両者ともに、物理の人からしたら、何だか聞いたことがあるというぐらいか、聞いたことはないがボルツマンという名前は聞いたことがあるというぐらいかもしれません。信号処理などをやる人だったら、圧縮センシングというキーワードは聞いたことがある、もしくはやっている方もいるかもしれません。
 これは圧縮センシングというキーワードで見当たる2006年以降から去年の冬ぐらいまでの論文の引用数です。Web of Scienceで、2014年までの統計を取ったものです。一方こちらは何の統計かというと、STAP細胞ではない方の、ノーベル賞を取った山中さんたちの初期の論文の引用数です。このグラフの緑色は、iPS細胞の発見以降、引用数が急激に伸びていることを示しています。それと、2006年~2007年に出てきた、圧縮センシング(Compressed Sensing)についての初期、黎明期の論文の引用数を並べています。並べて見ると、ノーベル賞級です。ノーベル賞の2/3ぐらいです。ですので、どれだけ注目を浴びているか、皆さんにもお気付きいただけるかと思います。少なくともこの傾き加減を見れば、どれだけ注目を浴びているか、気付いていただけるかと思います。

中学生の頃の思い出

 圧縮センシングは何をやっているかというと、「今日からできるスパースモデリング」なので、バックグラウンドがどのようなものか、どのようなレベルにあるかについて、問うていません。ですので、中学生からできるようにしています。さすがに実際の計算をするには中学生の知らないことも必要だったりするので、高3ぐらいにはなっていてほしいところです。
 中学生の頃を思い出してください。みんなが覚えている数学の一つに、連立方程式があります。連立方程式は、連立というだけあって、複数の式を連ねて立てて解くことによって、初めて非自明な解が得られます。
 このような問題を出されたとします。
2x1+x2=1
 二つの未知数があります。これを満たす解を求めなさいという、たぶん高3ぐらいであった問題です。大丈夫ですね。解を求めましょう。この人は何を言っているのだと思った人が正解です。一意に求めることはできません。これは常識です。常識ですと言っても、ここから始めるのでご安心ください。
 実は、圧縮センシングというのは、この方程式についての研究を進めていった結果、できたものです。つまり、中学生ぐらいに思った疑問や、不思議だなと思ったことを解決することによって、行き着いたというわけです。
 一意にできないのはなぜかというと、二つ分からない文字があるのにもかかわらず、たった一つの方程式しか与えられずに、何とかしろと言われても、それはできないというだけのことです。つまり、式が足りないからです。式は、条件と書き換えられます。予備校の模擬試験でこのような式を書いて提出すると、大体三角が付きます。なぜかというと、問題の文章から読み取った式を連立させて解けと言われているのに、片方の式しかないからです。なぜそのようなことが起きたかというと、問題文から抜き取った情報がこれしかなかったということだからです。よく見たら、問題文の最後の方に、極めて難しい日本語で条件式に相当する条件が書いてあったりします。そうした条件を組み合わせたら解けたのに、解けないと答えたので、三角やバツが付いて点差がつくわけです。
 この、式が足りないというのは、情報が不足しているという状況に相当します。実は、情報を解析する上で、得られた条件とは情報です。こういう状況で得られたものだということで、条件が分かるわけです。その条件に見合わせて式を立てます。これをモデリングということもあります。そのモデリングの結果、このx1とx2を知りたいからそれを計算しようとして、できないと諦めた人が多数いるのがこれまでの時代です。せっかくデータを解析しようと思って取得したのに、お金がたくさん必要で、科研費が足りずに実験を中止するといったことがこれまで多数あったはずです。そもそもその時点で計画が駄目だったわけでもあるわけですが。アフリカの砂漠の奥地に行って何か石でも持って来いという実験で死んでしまったということもあるかもしれません。
 そのように、情報を得るためには必ずコストが付きものです。そのコストのために、実験ができなかったり、失敗したりすることで、情報が不足しているという状況がきっとあるはずです。その状況を克服する技術を提供しているのが、圧縮センシングです。
 時を経て、大学生になりました。大学生になると行列とベクトルを教わります。これは、それを図式的に書いたものです。y=Axです。圧縮センシングというと、必ずy=Axの式が出てきます。見てほっと安心するような、この本当に簡単な式を解くためだけに、血へどを吐くような努力をするのが、圧縮センシングです。
 yがベクトル、Aが行列、xがベクトルです。基本的に、それぞれの次元を表す文字としてyにはM、xにはNを使います。それに対して、AのサイズはM×Nということになります。先ほどの話は、二つ文字があって一つしか式がないという状況でした。同じ状況を考えます。xが未知数であるとしましょう。そして、Aでいろいろと混ざり合うことでyという結果になるということです。そのyは与えられているとしましょう。先ほどの条件では、イコール1ということが分かっています。x1とx2は分かりません。2と1という係数は、行列Aに相当します。
 これを解きなさいと言われました。例えば、この図の通り、MとNが同じ長さだとしましょう。そのときは逆行列を計算することができるのでOKと、大学の学部時代に教わりました。では、この図のようにMがNより少ない場合は、どうすればいいでしょうか。知りたいものの情報はN次元必要だと言われています。N個の未知数があるのに、M個しか式、つまり条件、情報がありません。この場合も先ほどと同じく、一意には解くことができません。逆行列がないですから、逆行列を計算してxを求めるという単純なことはできません。それで諦めた人もきっといるかもしれません。
 これを劣決定系といいます。決定するには劣っているということです。逆に行列の行であるこのMがとても大きい場合は、優決定系または過剰決定系といいます。圧縮センシングが取り扱う問題はこれです。この劣決定系の方程式を何とかして解こうという努力です。それが結実して、圧縮センシングというテクノロジーを生みました。解けないものは解けないのだから、あがいても仕方ないという話ももちろんあるのですが、ここでスパースモデリングのスパースという言葉が出てきます。

スパース性があるときは?

 では、スパース性とは何でしょうか。まばらである、まれである、すかすかである、といった意味です。数学的には何かというと、はっきりしていて、ゼロです。ゼロが多く、非ゼロの値が少ないということです。だからそれを称してスパースといいます。
 先ほどの方程式の例で言うと、こういう状況です。白のところがゼロ、グレー色の部分に非ゼロの値が眠っているとしましょう。こういう場合、もしも、この白いところを抜いて、グレーのところだけ残して方程式を組み直すことが許されれば、解を求めることができます。このように順番を並べ替えればいいわけです。そうすると、実効的な次元はN次元ではなく、K次元にしかすぎないはずです。つまり、本質的な未知数はK個しかありません。K個しかないところにN個の条件がむしろあるわけですから、過剰決定系です。全然、列決定系ではありません。もしもその重要なK個を知っているとして解くことが許されるのであれば、解けます。
 ですので、条件が不足している劣決定系の問題に対して、もしも解がスパースであれば、本質的な次元が小さければ解けるというところに注目するのが、圧縮センシングです。

圧縮センシングの基礎~劣決定系の方程式も解がスパースなら解ける

 劣決定系の方程式も解がスパースなら解けるというのが、これは、圧縮センシングの基礎です。この事実に気付いたときに革命が起こります。
 再び先ほどの例に戻ります。先ほどから何度か言っていますが、知りたいものであるXを調べる例としては、物質の状況でも、物理的、化学的、医学的な状況でも構いません。例えば、何の病気なのかを知りたい場合であれば、γ-GTPなどのパラメーターがあります。そのパラメーターを調べるためにわれわれは観測をします。基本的には、観測データがあり、それを処理することによって、見やすいxの値、知りたいxを調べるというのが、観測と呼ばれる行為です。
 では、観測のときには何が得られるかに注目しましょう。yは知っている、得られた情報です。Aは自分でこのように観測するという、観測のセッティングです。観測のセッティングだから、知らないはずがありません。ですから、yとAは既知であるとしましょう。しかし、xは分からないという状況です。
 今までの観測というのは、Aとyを知っていて、このようにN個の知りたいものがあって、M個の情報を取るということです。このMがNに匹敵すれば、逆行列で逆の計算ができるから、頑張ってデータを取得するわけです。アフリカの石を調べたかったら、アフリカに行って来いということです。毎回往復の旅費と現地のキャンプ代を払い、現地のバイトを雇います。そういった、科研費では賄えないような研究もあったりします。頑張ってこのM個の実験をするために、N回の何かの観測をするわけです。
 けれども、もしも今の話が本当なら、N個も要らないのではないでしょうか。本質的なxがN個ではなく、ずっと少ないK個である、観測を減らしても大丈夫な状況が実はあるのかもしれません。そうすると、観測を縮減できます。それは革命的なことです。ただし、劣決定系ですから、完全に再現できるのかどうかが心配です。それがなんと、完全に再現できます。もちろん条件はありますが、完全に再現できるというのが、圧縮センシングの貴重な基礎になっています。
 ある患者の脳血管の画像を核磁気共鳴画像法、つまりMRIを使って調べたものです。脳血管を見ています。きれいですね。そこで何をするかというと、これで、動脈瘤や脳梗塞など、脳の血だまりや、詰まっているところを探して、もしもあったらそこに際して先に対処して予防したり、食事に注意するように話したりするために、これを調べます。
 MRIに入ったことがある人は分かるかもしれませんが、物によってはうるさかったり、狭苦しい思いをしたり、少し圧迫感があって怖かったりします。撮像されるために、狭苦しいところで長い時間いなければなりません。
 どうすればいいでしょうか。観測を減らします。適当に観測します。それによって、ある意味、患者の気持ちの負担を減らすことができます。あともう一つ重要なのが、子供の場合です。MRIのとき、子供はじっとしていることができません。あと、心臓や肺を撮像するときに息を止めますが、10分息を止めてくださいと言われてもできません。ですが、もしも観測数を減らすことができたら、息を止めることはできます。例えば、数十秒息止めすればよければ、頑張ります。そのようにして、撮像の範囲も広がります。では減らしてみようというわけです。
 こうなってしまいます。データが少ないからコントラストを稼げないということもあります。加えて、この観測の事情によるのですが、このような縞模様、波模様ができています。波模様でお気付きかしれませんが、MRI画像では、フーリエ変換されたものがデータとして取得されるので、逆フーリエ変換をかけることによって脳画像を再構成します。フーリエ変換ですから、波です。データが少ないときは、うまく波を重ね合わせて実画像にします。その波の重なりがうまくいかないと、何だかほわほわした、アーチファクトというノイズ、見えてはいけないものが見えてしまいます。しかも見たい血管は全然見えません。これは困ります。
 そこで、圧縮センシングを使います。同じ画像に見えるでしょう。同じ画像ではないですからね。パワポだとそういうことができそうで怖いですよね。違うデータです。脳の血管がはっきり見えています。ちなみに、元のものはこれです。元のものは、細かいところがうっすらと見えているところもあります。圧縮センシングでは、その辺りが消えていたりはしますし、データが少なくノイズもあるので完全に再構成することはできないのですが、先ほどのぼけた画像からこれだけのコントラストを得られるような処理ができるというわけです。これが圧縮センシングの一つの威力です。
 2006年、2007年ごろに、スパースMRIというものが提案されまして、圧縮センシングが爆発的にはやったきっかけにもなっています。同じ原理を使ったものでNMRがあります。NMRも物性実験や化学実験で使われていますが、それでもやはり観測革命が起こっていて、データは少ないのだが再構成することでよりリッチな画像が得られたり、動画像が得られたりします。今まで、じっとしている患者の静止画を撮るためにも、頑張ってデータを取得しなければなりませんでした。ですが、静止画を取るためにはそれほどデータは要らないと気付いたら、そのデータを取らない分の労力を、別のこと、つまり時間に使えます。その時間の方向にデータを取得し、全体で再構成をかけることによって、圧縮センシングを使うことによって、動画像を得るようになってきました。NMRの動画像などです。
 そうすると何ができるでしょうか。ネズミなどの体内で、何々酸やラクトースなどの糖の代謝、糖が分解されてどこにどのように流れていくのかを調べたいときに、圧縮センシングによって、静止画ではなく動画像で、そういう移動を測れるようになりました。そのような感じで、観測数を減らすことによってメリットがたくさんあるというのが、実際のところです。
 話を戻します。y=Ax。これは、もしもフルにデータを取れたら、逆行列をかけられます。もしもデータが足りなかったら、解けないから頑張らなくてはなりません。ですが、スパース性があれば、解くことができます。それを教わったからよっしゃよっしゃと思うわけです。
 ここで、本当は逆行列を求められるぐらいに実験をしたいのだが、さっき話した、アフリカの石をN個欲しいときに、N個も持って来られないのでM個持って来たという状況を考えます。血を吐くような実験を頑張った結果、これだけしか得られないのだが、もっと多くのxを知りたいというときです。無茶系です。それは観測が不足しているという問題です。そういう場合に、xをできるだけ正しく推定したいというニーズがあります。

ブラックホールの撮像

 スパースモデリングの計画研究の一つとして、ブラックホールの撮像があります。電波望遠鏡を使うことによって、ブラックホールを見ます。もっとも、ブラックホールは真っ黒だから見えないので、見るというのも変な話ですが。ブラックホールの引力によって物質がぎゅーっと高速で移動しています。その移動している物質から、熱と光が発生します。そのブラックホールの周りにある物質が放つ光をブラックホールシャドーといいます。それを撮像することによって、間接的にブラックホールを見ようというわけです。
 これが、撮影時の望遠鏡の位置と、それが地球の自転によってどのようにずれるかをプロットしたものです。ですが、ほとんど観測できません。これが、知りたい情報に対するベクトルのサイズだと思ってください。2次元を1次元に並べたベクトルだと思ってください。それだけのサイズの情報を知りたいのですが、観測できる、yに相当する範囲というと、この糸くずぐらいの範囲でしか調べることができません。これだけの膨大な次元のものを調べるのは、絶対に無理なはずです。
 そこで考えたわけです。これはシミュレーションです。このような画像が得られるだろうという予想が立っているとします。そのときにここの空間上にデータが発生するように、シミュレーションをしました。ここの糸くずみたいなところで観測をするのがyです。そのyを得て、普通に今までの従来法で頑張って再構成すると、このようなものが見えます。
 僕たちが見たいのはブラックホールシャドーですから、穴の周りにある物質が光っているところが見たいので、穴があることが重要なのです。穴の周りに、このように三日月形に光っているのが見えますが、これは穴に見えません。これがブラックホールシャドーですと言われても、信ぴょう性がありません。他の観測結果と似ている、これはブラックホールシャドーではないと言われておしまいになるのが現状です。ですが、圧縮センシングを使うとどうでしょうか。これだけのデータで、見えるものがこれです。
 スパースとは何だろうとそろそろ思い始めたのではないかと思います。例えば、この黒いところは、光がないわけですから、信号がゼロです。光っているところは非ゼロの信号を出しているわけですから、ここが知りたい、本質的なところです。この真っ黒な画像のこの一部分だけが知りたいのにもかかわらず、この真っ黒な画像の分の次元を全部得る必要がありますか。ありません。ですので、この糸くずみたいな範囲の観測実験であっても、この光を得ることができるのではないかというわけです。
 望遠鏡を建設するとなると国家予算プロジェクトですから、そう簡単には実験できません。ブラックホールシャドーを見たいから、国家予算を付けてほしいという交渉はもちろんします。部分的に成功しているからこうして糸くずがたくさん増えているのです。ですが、もっと増やしたいと言っても、「えっ、お前、この前買ってあげたじゃん。子供におもちゃをあげるんじゃないんだから」と言われます。ですので、糸くずほどのデータであっても増やすことはそう簡単にはできません。絶対に解けないという状況を何とかするのが圧縮センシングというわけです。これで威力を感じていただけたと思います。

金のナノポーラス

 他にも、自分がやった研究のひとつですが、東北大のAIMRの中島千尋さんと一緒にやっているものがあります。金のナノポーラスの3次元再構成というものがあります。
 電子顕微鏡を使ってびゅーんびゅーんと電子を飛ばして何かを観測するときに、これは3次元の物体を2次元で示したイメージ図ですが、3次元の物体に対して電子をばしーんと当てます。そのときに、3次元のものから得られるのは、限られた2次元のデータしかありません。射影の図が得られます。それを幾つかの方向でやってその情報を統合すれば、2次元のデータを増やしていけば3次元方向に増えていくわけですから、この立体物を再構成して見ることができそうです。
 ですが、これは残念なことに電子線なので、当て続けると壊れるのです。表面がどんどん削れてしまうので、できるだけ弾を当てたくないという状況です。ですので、3回しか当てないことにしましょう。この3回当てるだけでも結構壊れるのですが、3回当てるとします。
 たった3枚の2次元のデータで、3次元のものが作れるでしょうか。圧縮センシングを使えば、できます。これは表面しか見えていませんが、中に穴があるかどうかも調べられるようになっております。

ボルツマン機械学習

 第一部として圧縮センシング、そして第二部としてやりますのは、ボルツマン・マシン・ラーニングです。今日は最初なので、概要を話します。
 ボルツマン・マシン・ラーニングというのは、ある意味レガシーです。ボルツマン・マシン・ラーニングが提案されたのはかなり古く、1985年あたりです。実はその前からあったはずなのですが、そのぐらい古いものです。ですが、最近はやりです。はやりなのはなぜかというと、ディープラーニングのアーキテクチャーの中に使われているから人気なのです。何かそれも腹が立ちますよね。ボルツマン・マシン・ラーニング自体、結構面白いものなのに、それを無理やり使ったディープラーニングがはやったせいで、こちらも脚光を浴びるという、何だか悲しい状況です。
 なぜかというと、データがたくさんないと、ボルツマン・マシン・ラーニングができないという事情があったからです。ですが、単純に言ってしまうと、ビッグデータ時代が到来しました。データはとにかくたくさん手に入ります。何とかしてほしいという時代です。
 そうすると、実はこれは、全然考え方が変わっているのです。それを称して、スライドでは実験と理論のパラダイムシフトなどとかっこいいことを言っていますが。

実験と理論、そしてこのビッグデータ時代に何をするか

 ビッグデータの何が本当にすごいのかということを少し考えるだけで、とても不思議です。データがたくさんあるからといって、どうするのでしょうか。
 逆なのです。やり方はいろいろあると思いますが、本来、実験と理論とは、このような関係だったはずです。物理ではよくあるかもしれませんが、最初は理論屋さんが頑張って何かを発見するという、理論先行型なのです。何か理論で現象を予言するのです。現象があるから、実験屋さんに頼んだり、その論文を見た実験屋さんが、よし自分が示してやると、実験してくれるわけです。それで理論と実験のコラボレーションがある意味うまくいっていたというのが、今までです。
 逆もしかりです。実験屋さんが、頑張って実験していたら、例えば変な比熱の飛びを見つけます。これについて教えてほしいと実験屋さんから言われた理論屋さんは、その実験を説明するために、無理やり人工的なモデルを作って解析して、答えを出すというわけですね。
 そのようにして、今まで理論と実験はうまくやってきたのですが、ビッグデータ時代は、この両方に入りません。なぜでしょうか。何だかよく分からないけどデータを取っているでしょう。アマゾンで僕らがクリックするたびに、Googleで検索するたびに、データを取られているのです。そのデータを何のために取っているのかというと、別にこのようなことはないのです。理論があるからでもありません。ある意味、壮大な社会実験だと言ったりしますが、何の社会実験かといっても目的はないのです。後で役に立つから、取りあえず取っておくというわけです。
 しかしそのビッグデータを得たときに、何をしたら良いでしょうか。手も足も出ないというのでは困る。

ビッグデータ時代で正しくあるべき姿は、このデータがあるから、そのデータに基づいて何をやるかというところで方法論を作っておくのです。結果がたくさんあるのを見たら、何かを感じるでしょうか。私たちは別にCDでもDVDでもないですから、いろいろなデータがたくさんあっても読み取れることができません。また、はっきり言えば、誰が何を買ったかに興味はありません。

何かよく分からないが、取りあえず売れている現象のデータを取得することによって、本質的に影響している要素が何かを抽出するという立場を取ったら、そのデータは無駄にならないはずです。また、何も考えなくてよくなって、ある意味ばかになるのではないかと思いますが、僕たちはそのたくさんあるデータ、結果から、自動的に抽出する技術があれば、その抽出されたところに注目することによって、理論屋さんや実験屋さんといった人たちがそれを説明したり、その結果から抽出された情報を基にして新しい物を作ったり予測したりする方向に行くというのがデータ駆動型です。

変数選択

 そこでスパース性です。いろいろな複雑なデータがあって見た目ではよく分からなくても、本質的なデータは数少ないだろうという意味のスパースです。ほとんどゼロということではなく、ほとんどをゼロにするという意味です。これらは全く意味が違います。圧縮センシングのときには、本質的にゼロだったのです。本質的にゼロで、ゼロではない部分が知りたいから、圧縮センシングの中でそういうものを使っているのです。こちらは重要なものだけを抽出するという変数選択です。
 たくさんのデータがあるわけですから、たくさん要素があるわけです。その要素の間にどのような関係があるか頑張って調べたとしたら、全部関係するということになるに決まっています。私たちは、そのようなものを欲しいわけではありません。ビッグデータを見たいわけではないからです。
 そこで、数少ない本質部分だけを抽出をしましょうというわけです。細かいことはどうでもいいから、本当は何が重要なの、教えてよと言いたくなるじゃないですか、今の授業みたいに。いろいろな情報を今インプットしているんですよ、体感してもらうために。インプットされたときに、あなたたちは、この話はどうでもいい、この話はくだらないというように、脳で処理をしています。僕が面白いことを言うと、反応します。ですから、先生は無駄にたくさん話すのです。何が響くか分からないからです。何かが響いたなと思ったときに、その話を繰り返します。皆さんの反応を探るために、1時間目はこういうことを話しているわけです。ああ、こういうところに興味を持っているんだなあと、僕も吸収しています。

ある日のテスト結果

 スパースな本質部分を抽出するという話に一番見合った問題はないかと、真剣に考えました。これです。ある日のテスト結果が得られたとします。これを見て、皆さんは何をしますか。要するに、教育データです。
 横軸に問題が並んで、縦軸に生徒が並びます。今までは、特に教員やバイトで予備校とか塾をやっている人は、横軸に沿って見ていました。ある生徒に沿って横軸に見て、正解がたくさんあって80点、90点とか、黒が不正解なので、黒がたくさんあると20点とか、そういうことを採点していました。
 だけど心の中で思います。0番と1番の生徒の結果がとても似ているな、0番はあまりできないけど、1番は果たして本当にできる子なのかな、とそのように見ているわけです。これは何ですか。カンニングです。カンニングの検出をするというのは、まさにビッグデータから行います。
 カンニングはあまりあってほしくはありません。データの間に相関などはないと思っていても、もちろん、同じ問題で似た学力であれば、似た答案が出てきます。その場合に、その人の能力によってそうなるのか、相関によってそうなるのかを調べたいのです。できる限りカンニングを疑いたくないので、相関はできるだけゼロにしたいのです。相関をゼロにしていっても、この生徒とこの生徒は疑わしいとなれば、それがカンニングです。
 ですので、スパースな本質部分を抽出するという問題は、カンニングの検出と同じと考え、これを使ってカンニングの検出をしました。これは、NHKのニュースでとられたときのデータです。これがカンニングをしている実際のペアです。1番と2番が相関していたら白などという、人工データを作りまして、このように入れ込みました。そして、答案データを作り、インプットとしました。相関があるか、カンニングしているか、もしくは生徒の能力はどうか、問題の難しさはどうか、ということを推定するのに、ボルツマン・マシン・ラーニングを使いました。
 そのときに、今までの手法を使うとこうなります。確かに、疑わしい生徒は疑わしそうにきちんと出てきますが、疑わしくないペアに関してもこのように色が付いています。白に近づけば近づくほどカンニングしている、黒であればカンニングしていないと思われるという結果なのですが、何となく全ペアに色が塗られているので、疑いをかけすぎているのです。今までの方法を使うと、何でも関係しているように見えます。
 そこで、スパース性を利用すると、何ができるかというと、先ほどの圧縮センシングで使われている方法の一つでもありますが、このようにして重要ではない部分をどんどんそぎ取っておきます。ですので、どんどん黒になっていきます。そうすると、だんだんあぶり出されてきました。白いところが残っています。これで疑わしくない人は、カンニングしていないようだと、いわゆる無罪放免にするわけです。本質的な部分を、この生徒たちを疑わなければこの答案データが似ているという現象を説明できないということを抽出します。

人間の癖・専門的知識の学習

 このようなこともできます。人間的な癖や専門的知識の学習です。これは、すごいと思います。すごいと思うなどと偉そうなことを言いましたが、医者の癖を学習するのです。例えば、脳を見て診断する放射線診断医が、1人の患者のMRI画像を平均してどれだけ見るかという平均値を調べると、たった数秒だそうです。自分の脳を一瞬しか見てもらえないのかと思いますが、もちろん、病気が疑わしい人の場合は重点的に見ます。ただ、時間が限られていて、データがたくさん出てくるから、見ないデータがほとんどなのです。病気かなと1枚を頑張って見ていたら、健康な人のものは全然見られないという意味です。
 もちろん、他にも実験データを使っている人は、その人の経験があって、その経験に基づいてデータ解析を今までしていたはずなのです。それを例えば機械学習によって置き換えましょうとなると、自分の勘の方が正しいに決まっているだろうと反発が起きます。そこで、そのような人たちに対して、それはそのとおりですとなだめた後に、機械学習を使って、先生のコピーを作ったらどうですかと言うわけです。そうしたら先生の癖や専門的知識などを生かして、その技術を使って、例えばMRI画像であれば、ここに脳の血の塊があるとか、ここに疾患があるとか、そういうものが見られるわけです。あらかじめ前処理でそういったことをやっておきます。最終的な診断は医者に任せるしかないのですが。実験データだったら、学生に解析を指示して、粒子が何個あるか数えさせたり、どこに何があるかをマークさせたりする、そういう作業も全部自動的にできます。学生の仕事がなくなりますが、その代わり、学生は研究や学習に没頭できるので、メリットもたくさんあります。
 ですので、機械学習が人の仕事を奪うのではありません。人の仕事の代わりをしてくれるだけで、人が重要であることは変わりません。研究において、このようなこともできます。
 これも東北大学との研究で、ある金属ガラスのデータを得ました。これはいろいろな物質の合成物です。見た目で確かに分かります。黒は何もないところで、白とグレーのところがあります。それぞれ違う物質です。それを前処理的に、ここが何々の物質でと区別する必要があります。やっていられないですよね。
 そこでまず一部分だけ切り取って先生にお手本を見せてくださいとお願いするのです。先生がお手本を見せてくれました。このような感じなのですねと言って、マウスで塗るのです。そこで、この結果に基づいて機械学習をします。機械学習で、何々先生のパラメーターを用意し、1枚ごとにそのパラメーターを使ってラベリングします。一瞬でできるというわけです。このように人間の癖や専門的知識を利得することによって、人間の作業をサポートするような使い方もできます。

ページの先頭へ


2015 京都大学
物理学実験
システム工学実験
2015 大阪市立大学
今日から分かるスパースモデリング
More Detail...
2014 京都大学
システム工学実験
More Detail...
2013 京都大学
数値計算演習
システム工学実験
More Detail...
2012 京都大学
システム工学実験
More Detail...
2010 京都大学
システム工学実験

2005-2008 東京工業大学
基礎物理学演習

2005-2008 駿台予備学校
力学
電磁気学
光と波
熱力学