I think, therefore I am

思ったことを徒然に綴っていきます。多分、時事ネタ、技術ネタ、自己啓発ネタなど。

よくわからないAIとどうつきあうかについて思った

 AIのブームがすごい。自動車や医療、インフラ、金融、機械、材料、化学、、、ありとあらゆる産業が何らかの形でAIに関連している。これだけ広い分野に影響を及ぼす技術革新はないのではないか。

 今のところブームは過熱する一方だが、AIを実業務に適用する上での課題も見えてきており、期待感の一方向だったAIブームもやがては現実的な落としどころに収束していくだろう。

「AIは結果に至ったプロセスがわからない」

 これはすでに多くの指摘がなされているが、AIの課題として最大のものだろう。結果が良好であっても、なぜそのような結果が得られるか、もはや人間にとっては理解が難しいのである。世の中、結果だけがすべてではなく、そのプロセスが重視されることの方が圧倒的に多い。


 医者が、画像診断結果にAIを活用したとして、「(よくわからないけども)AIが異常と診断した」という理由だけで診断くだすことはないだろう。診断結果に責任を負うのは医者である。

 

 今のAIの発展の根幹を成しているのは2010年頃からの「ディープラーニング」のブレークスルーだ。ディープラーニングは、ニューラルネットワークと呼ばれる、人間の脳細胞の神経伝達系を模したネットワークをベースとしている。ニューロンと呼ばれる単純計算を行うユニットを層状に並べ、ユニット間の重みづけ結合でネットワークを構成する。このユニット間の重みづけ係数を求める計算が学習そのものであり、なぜこのような重みが得られたか、というのはもはや人間が説明することはできない。

 

 ニューラルネットワークのブームは過去にもあった。私もかつて当時の業務だった画像処理の性能改善のためにニューラルネットワークを活用したことがある。しかし、最初につくってある程度の性能がでたとしても、その後の性能改善が難しくて断念した。要はなぜそのような結果が得られたかを説明できないのだから、当然、どう改善してよいかもわからないのである。工夫といえば、学習の邪魔になりそうなデータをスクリーニングしたり、特徴量を変えてみたり、といったぐらいしかなかった(今もそれは基本)。当時はニューラルネットワークそのものも性能が低くかったため、あっという間にブームは去った。実用化されることがなかったのだから、そのネットワークの中身がわからないこと自体が問題になることもなかった。

 

 しかし、ディープラーニングの登場によって、この状況が大きく変わってきた。ニューラルネットワークをベースとしつつも、初期値の設定や重みの更新の仕方を工夫することで、ニューラルネットワークの多層化が可能となり、従来の機械学習技術よりも性能が飛躍的に向上したことで、ブームの火付け役となった。その一方で、学習データのプロセスがわからないというニューラルネットワークからの課題が顕在化した。ディープラーニングニューラルネットワークをベースに学習方法やモデルを工夫したものであるが、なぜそうした工夫によって性能が向上したかの理論的根拠は筆者が知る限り未だに存在しない。

  いわば、ディープラーニングの技術進展は、「こうしてみたら性能がいきましたよ(何故かはわからないけど)」というノウハウの蓄積に過ぎない。

  まさに黒魔法と揶揄される所以である。

 

「よくわからないけど便利な技術とどう向き合うか」

 よくわからないけども、便利だから使ってみる。思えば人類は先史以来、そうやって進化してきたのかもしれない。人間は火をおこし、道具を作ることでサルから進化してきた。当時の原人が、火はなぜ燃えるのか、こんな形状の石器でなぜ肉がよく切れるか、なんて考えたりしなかっただろう。
 今の時代も同様である。今日、世の中には便利な装置や機械であふれているけれども、それを使う人がその原理をどこまで理解しているだろうか。

 医者がX線CTやMRIなどの最先端の診断装置を診断に活用したとして、その計測原理まで深く理解しているとは思えない。詳しくはわからないけれども、便利だから使っているのである。

 AIはよくわからない。でもよくわからない技術だって便利なら使われるはずである。ではよくわからないAIが使われるためには、何が必要なのだろうか。個人的には以下の二つが重要と思う。

 

(1)人間がわかりやすい形で結果が示される
MRIやX線CTは、画像という人間が理解しやすい形で結果を示してくれる。計測原理まで理解せずとも、「なにかが詰まっててこの部分が白くなっている」といった直感がはたらき、診断支援の道具として利用されている。画像診断でのAI活用でも、なぜAIが異常と判断したか、その根拠が何かしらわかりやすい形で可視化されることが重要だろう。

(2)人間がリスクを管理できる
AIの活用がどんな分野であれ、最終的な責任を負うのは人間である。AIが予期せず暴走して人間に危害を被るようなことは絶対に避けなければならない。AIがどんな結果を出したとしても、そのリスクを管理できることがAI活用の大前提であろう。自動運転でのAI活用の鍵となるのはまさにここであろう。AIの過信によって重大事故につながるようなことがあってはならないのである。

 

 AIに関わる一技術者として、AIが、その弱点が認識されしつつ、試行錯誤が繰り返され、使えるところと使ってはいけないところが見極められながら、AIが世の中に大きく貢献していくような将来を信じたい。