機械学習技術を深化させた深層学習により、AIはその能力を飛躍的に向上させた。AI・深層学習は、IT、金融・保険、医療・製薬などの、デジタル化された学習データを利用しやすい産業で積極的に活用され、大きなブレイクスルーを成し遂げつつある。一方で、AIが人間の脳の能力を超えるシンギュラリティ(技術的特異点)には懐疑的意見も多く、そうした時代がすぐに訪れるとの予測は当たっていない。本稿では、AI技術の今後の進化の方向性と課題について論じる。
なぜAI技術は2010年代に急速に普及したのか
深層学習の源流は、米国の心理学者Frank Rosenblatt氏が1958年に学術論文で発表した「パーセプトロン」とされる。パーセプトロンは、人間の視覚と脳をモデル化してパターン認識を行う着想ではあるものの、入力層と出力層の単純な構造に過ぎなかった。現代の深層学習の特徴である多層化は、1967年に日本の工学者甘利俊一氏が論文で発表した入力層、中間層(隠れ層)、出力層による多層モデルのニューラルネットワークに起源を見ることができる(ITR Insight 2016年冬号『人工知能の最新動向とビジネス利用の可能性』#I-316011)。そしてその後、深層学習が実用化され、その能力が急速に進化した2010年代までに約50年を要したことになる。なぜここまでの時間を要したのか。その最大の理由は、デジタル化された学習データの取得がインターネット技術により飛躍的に容易になったことにある。
インターネットの普及は、テキスト、音声、画像、動画などの非構造化データの爆発的な伝播と集積を可能とした(図1)。これにより、深層学習技術を用いたAIに学習させるためのデータ準備のハードルが一挙に下がった。確かにコンピュータの処理能力向上も欠かせざる前提条件ではあるが、「CNN(畳み込みニューラルネットワーク)」といった深層学習アルゴリズムが開発できたのは、画像・動画のデジタルデータが容易に取得できるようになったからである。
通常のニューラルネットワークで深層学習を行うのは簡単ではないが、CNNは非構造データの画像を構成する画素から軽微な特徴を抽出し、これを多層で分解・統合することで学習データの整備を容易にした。人間の視覚に相当するコンピュータビジョンと脳の処理に相当するCNNにより、非構造データの画素を有意なデータとしてアルゴリズム処理できるようになったのである。
出典:ITR