AI(人工知能)の飛躍的な進歩について新しい記事が出ない日はありません。実際のところ「ディープラーニング(深層学習)」はどこまで“ディープ”なのでしょうか?
フランスのAiva 社が開発したAIを使って作曲ができる「AIVA」は、アルゴリズムの驚くべき創造性を示唆しています。Google翻訳が独自のインターリングア(中間言語)(※1)を生み出し、まだ学習していないふたつの言語間の翻訳ができると聞けば、いよいよ機械が自分の意思で動くのかと不安に思う人もいるでしょう。
※1 もともとは主要な西欧言語に共通する語彙などをもとに、簡略化した文法で構築された国際補助語のこと。ここでは、AIが未知の言語を翻訳する際に構築した独自の暫定的な言語の意。
AIの未来に関する記事の多くは、人間の本質、知識、命そのものなど、幅広い哲学的なテーマに帰着します。今回は、frogオースティン支社のシニアソリューションアーキテクトであるシェルドン・パコッティが、この複雑な問題についてQ&A形式で解説します。プロダクトデザインや、よくある誤解、今後の展望を含め、AIの現状について彼の見解を聞きましょう。
Q. なぜAIが哲学的な論争を引き起こすのですか?
AIの不運な(でも面白い)点は、哲学の分野と深く関わっていることです。例えば、18世紀のデイヴィッド・ヒュームや20世紀のドナルド・デイヴィッドソンらがその発展に関わった分析哲学は、「シンボリスト(記号主義者)」の考えるAIシステムにおける真実の表現について直接的な影響を与えました。コンピューター科学者である私には、W. V.クワインの「観察文の理論」やジェリー・フォーダーの「思考の言語」が、ソフトウェアのアーキテクチャ(基本設計概念)についての記述に思えます。
抽象思考を得意とする思想家が生み出した認識論、現象論、その他「○○論」と称されるものを考察することなく、高度で知的なヒューマンマシンインタフェース(人間と機械が情報をやり取りするための手段や、そのために使う装置・ソフトウェアなどの総称)を生み出すことは想像できません。さらに複雑なことに、神経科学、数学、認知科学など五指に余る科学分野もAIの進歩に重要な役割を果たします。このような状況で、いつになったら私たちが知能の「正しい」理論を見いだすことができるのか、またそれらの理論がどのような順序で現れるのかを予言することは非常に困難です。「思考する機械」を作るには、思考、認識、推論に関する優れた理論が不可欠です。
デザインにおいて、私たちは実践を通じて、日常的に「共感を育む」という思考をユーザーに適用しています。新しい点は、人間の作った機械が人間をどのように認識するかを考える必要が出てきたことです。なぜなら、今後はそれらの機械が人間の生活、地域、そして社会全体に関与するようになるからです。このことは哲学的な話になりがちですが、私は、どんな思考システムをデザインするにしても、やはり「共感」を体系化するための本質的な原則にしたいと思います。
Q. 知能の根底にあるデータの役割に触れることなく、AIを語ることはできません。「ディープラーニング」システムは、なぜそれほど大量のデータを必要とするのですか?
ディープラーニングシステムは、特定の問題を解決するために収集や整理、加工したデータに基づいて動作します。例えば、各ピクセル単位に至る非常に緻密な大量のデータ入力が画像認識システムの統計的学習を支えます。統計を利用した研究の精度を高めるために大量の正確なサンプルが必要なのと同様、“ディープ”ニューラルネットワーク(※2)が特徴を正確に把握することを学ぶにも、膨大なトレーニングデータが必要なのです。
※2 ニューラルネットワークとは、脳の仕組みを模したネットワークのこと。ディープニューラルネットワークは、それを多層に重ねたもの。
Q. インテリジェントシステムにおけるデータトレーニングの重要性についてよく聞きますが、反復的で少し退屈なプロセスに思えます。猫がどんなものかを学ぶのに膨大な量の写真が必要だとすると、学習が遅いのではありませんか?
大脳新皮質からアイデアを得たディープラーニングは、認識力の1つの側面にすぎません。人間が新しい概念を短時間で習得できるのは、人間の脳に備わった多くの仕組みが知能に貢献するためです(例えば、1つの概念を確定的にそれ自身と結び付けると考えられている「思考ニューロン」など)。これらの仕組みが、AI研究者の言う「転移学習」、つまり既存の知識を利用した新しい概念の速やかな学習を可能にします。AIのアーキテクチャ(基本設計概念)が進歩するにつれ、このような機能のいくつかが実装され、少ないデータで学習する能力を獲得するようになるでしょう。
ディープラーニングの対極にあるのが、「シンボリスト(記号主義者)」のAIアプローチです。これは、論証の形式的妥当性で真偽の判断を行う「形式論理」を使用して大量のオントロジー(概念化の明示的な仕様、OWL、Cycなどオントロジー言語で記述される)と、人間のような演繹推論のできるシステムを作り出します。このシンボリストアプローチは、時代遅れで「古い」と一般に思われていますが、汎用的なニューラルネットワークでは捉えられない人間の思考特性を反映しています。少ないデータから学習するシステムの開発には、おそらく上記の2つの枠組みの融合が必要となります。
Q. 技術的観点から、AI開発にとって透明性確保はどれだけ重要ですか?
AIにおける「透明性確保に対する課題」は、数学的にトレーニングされたシステムには特に難しい問題です。現在のディープラーニングシステムは、単一機能のブラックボックス処理です。例えば、写真から顔を認識するシステムや文章を翻訳するシステムを作るとします。これらを戦略ゲームのような従来のソフトウェアシステムに組み込んだ場合、道理にかなった明確な役割を果たしますが、内部の動作は不透明です。仕組みだけでなく構造自体が脳を模した未来のアーキテクチャでは、システム内のすべての処理、そしてその処理を実行するアルゴリズムも、学習によって習得されると想像できます。これでは、不気味なまでにインテリジェントなブラックボックスになりかねません。
このようなシステムを「透明」にするカギは、人間がものごとを考えるときに使う作業記憶(ワーキングメモリ)にあるかもしれません。これらのシステムを高い水準で設計することで、パターンを保存する処理の定義や、パターンへの着目といったことを可能にし、実行の流れを追跡する手掛かりを得ることができるようになります。これにより、人間の心が概念と言葉を結び付けるように、個々の学習した処理を分離することが可能となります。視覚などのサブシステムは不透明なままかもしれませんが、パターンやコンセプトのレベルでは、透明性、さらには内観(自己の内面を省みること)まで設計可能となります。
Q. 昨今、いたるところにボットが使われていますが、実際にボットはどこまで理解しているのでしょう? すべて評判どおりですか?
企業は、アプリと同様に、ボットにも次々に機能を追加していますが、コンピューターとの自然な会話を実現するには程遠いように思えます。ボットはさまざまな方法で巧みに推論を行い、自然な形で所定の役割を果たしますが、やはり人間世界のものではありません。人間の生活に溶け込むメンタルモデル(人間が実世界で何かがどのように作用するかを思考する際のプロセス)を持っていないからです。この理解もビッグデータ分析から外れると言う人があるかもしれません。
しかし、AI分野の多くのリーダーは、本当の人工知能は「身体化した知能(embodied intelligence)」に基づく必要があると考えています。思考する機械が身体的な感覚を持ち、さらには世界を動きまわる必要があるという考え方です。買い物を手伝うボットに感覚を持たせるのは行き過ぎに思えるかもしれませんが、人間の心がそうであるように、学習した概念を統一する「フォーマット」となる可能性があります。
Q. AIの次のブレイクスルーは何ですか?
しばらくの間は類似アプリケーションが増えると思われます。一方で、最新のシステムが可能な限りのことを学習し、その後に驚くべき飛躍が訪れるでしょう。現在のディープラーニングは、狭い問題領域で大きなデータセット内のパターンを「理解」することに長けています。しかし、脳構造を模した新しいニューロモーフィックデザインが登場するのもそう遠いことではありません。
すでに、人間のプロ棋士を破り世界的な注目を集めた囲碁AI「AlphaGo」を開発し、現在はGoogle傘下にあるDeepMind社の研究者の先導で、ニューラルネットワークだけで完全なコンピューターが構築され、外部記憶装置を使いアルゴリズムを自ら生み出す「ニューラルチューリングマシン(NTM)」から、学んだことを人間のように記憶して新たな事象に応用できる「ディファレンシャブルニューラルコンピューター(DNC)」へと進化しつつあります。読み出し書き込みメモリ、アテンションコントローラー、その他の機能の搭載により、特にDNCは、アルゴリズムを導き、新しい状況に応用する能力を実証しました。真の「知能工学」の時代が、まさに始まろうとしているのです。
Q. AIが人間の体験をサポートするだけでなく高めるようになるには、何が必要ですか?
残念ですが、具体的なロードマップをAIについて提示することはできません。生物学から数学、哲学まで、AIの研究が非常に幅広いためです。しかし、まず人間とAIの関係、つまりAIをどのように生活に取り込むかをデザインすることは可能です。
AIは魔法であってはなりません。モデルがどのように機能するかを知らなければ、失敗した理由がわからず、成功にも関与できません。人間は、知能を持つ製品を好むか、嫌うか、信用しないかのいずれかです。
人間は、AIシステムが自らの間違いを認め、人間に修正を求めてくることを望んでいます。言い換えれば、製品ではなく、人工知能との関係性を求めているのです。将来、この基本的な決まり事を透明性の理念に延長すれば、学習すると同時に、自分について説明できるシステムを作ることができます。製品は設計者の共感を反映します。AIが人の話を聞き、意思疎通するようにデザインすれば、将来のAIシステムは常に共感を実践するようになるでしょう。