報告遅くなりましたけど、先日東大で開催された「NIPS2013読み会」という会に参加してきました。
一応知らない人のために説明すると、NIPSというのはNeural Information Processing(神経情報処理)の分野のトップクラスの国際会議で、毎年行われます。NIPS読み会は、その会議で発表された論文を持ち寄って解説するという会で、プリファードインフロストラクチャー(PFI)という会社が中心となってやっています。
そこで私がプレゼンしたのはこの資料:
内容としては画像の解析(解釈)の話です。従来は画像を要素に分解して、要素ごとに解釈を与えるというボトムアップのアプローチが多かったが、本論文ではまずは構成要素を仮定して、それらのパラメータをランダムにサンプリングしてMCMC法を適用することで精度を上げようとしています。応用例としてCAPTCHAの解読と、写真から道路(車線も含めて)の抽出を挙げ、両方とも従来法より高い精度を達成しています。
特にCAPTCHAの正解率が70%っていうのが驚異的で、私の目視による認識率を上回っているかもしれないです。
(特に最近よく間違えるので、もはや人類じゃないのかもしれない。)
画像処理は全くのシロウトですし、その分野の論文読んだのもこれが初めてくらいなので、不正確な言葉遣いとかあるかもしれないです。その場合はご指摘いただけるとありがたいです。
この論文を選んだのは、実は読み会の2日くらい前です。NIPSって論文数が多いので迷うのですが、大体以下のような手順で決めました。
1) タイトルだけを見て5〜6本くらいに絞る
2) 要旨を読んで3本くらいに絞る
3) イントロダクションを読んで1本に絞る
(だから論文の要旨とイントロダクションって大事なんですよ!)
選定にそれほど時間かけたわけじゃないのですが、かなり良い論文にあたったようで良かったです。のれんだけを見て判断して美味しいラーメン屋さんを見つけたような達成感があります。