現在のAIのレベル
AIはここ数年急速に進歩し続け、AIが人間の能力を超えると言われている2045年のシンギュラリティはもっと早くやってくるのではないかという声も聞こえてきます。
しかし、現在のAIの能力ではまだまだ人間を超える目途がつかない状況です。というのはもう1回ブレイクスルーが来なければ決して人間を超えることはできないからです。その技術的な大きな壁は人間の論理的思考能力です。そのアルゴリズムはまだ発見されていません。この人間の思考回路のしくみを解明し、アルゴリズムを確立しなければ決して人間を超えることはできません。人間の脳のニューロンとシナプスをモデルとしてニューラルネットワークを発明し、機械学習と併せて、ディープラーニングを発明したことによって、AIは急速な進化を遂げているところですが、脳のニューロンをモデルとしただけではまだ人間の論理的思考モデルは得られません。
チャットボット、パーソナルアシスタントなどの質問応答にしても、所詮は人間があらかじめこういう質問があったときはこういう応答をするといういくつかのパターンを入力しておき、何か質問があったときにその質問のキーワードをいくつかに分解し、そのキーワードの組み合わせに最も近い応答例をアウトプットするだけのことです。したがって、その質問に対する応答の内容の精度を上げるためには、相当の数のパターンを入力しておく必要があります。したがって、人間があらかじめQ&A形式で入力していない内容の質問があった場合はAIは応答できないのです。
このいかにもアナログで膨大な手間暇のかかる作業から抜けることはできていません。
論理的アルゴリズムの発明が必要
これを打破するためには、根本的に新しいアルゴリズムの発明が必要となります。それには、ニューロンモデルがディープラーニングを産んだように人間の論理的思考回路の学習モデルをまず解明しなくてはなりません。
つまり、人間はある知識を記憶したあとにその知識に関する質問をされた場合、まずその質問内容を理解しようとし、理解が出来たら、あらかじめ記憶していた知識を思い出しながら、答えようとします。試験などはその典型的な行為です。
今のAIは質問内容を理解することはできたとしても、人間の「思い出す」という行為、つまり、記憶の中の該当する知識を選択し、質問内容に当てはめる行為をAIに自ら行わせるということはできないのです。考え方はとてもシンプルなのにAIが未だにできないなんて不思議ですね。
AIは記憶と計算は人間よりも優れていますが、「言語の意味」と「読解力」が不得手です。
東ロボくんも言葉の意味が苦手で東大を断念
2011年から2016年にかけて日本の国立情報学研究所(大学共同利用機関法人 情報・システム研究機構)が中心となって行われたプロジェクト「ロボットは東大に入れるか」において東京大学に合格できるだけの能力を身につけることを目標として「東ロボくん」の研究・開発が進められました。しかし、2015年6月の進研模試で偏差値57.8をマークするところまで成績を上げましたが、東大合格に必要となる読解力に問題があり、ビッグデータと深層学習を利用した統計的学習という現在のAI理論ではこれ以上の成績向上は不可能であり、何らかのブレイクスルーがない限りは東大合格は不可能と判断され、開発は凍結され、2016年11月に東京大学合格を断念したことが発表されました。
このAIにしても言葉の意味を理解した上で問題を解くというよりも、膨大なビッグデータの中から過去問などと照合させて最も近い答えを出すというアルゴリズムを適用させているため、本当にその問題を理解した上でAIが論理的な思考経路を辿って答えを導いたものではないということに注目してください。つまり、今のAIは論理的に100%の回答を出すアルゴリズムではなく、膨大なビッグデータの中から統計・確率的な手法で答えを出しているのです。そこには単に統計処理が行われているだけであって人間の思考方法とはかけ離れています。
AIが人間を超えるための必要条件
結局、AIに人間と同じように論理的思考をさせるためには、一つひとつの言葉の意味をしっかりと覚えさせ、読解力を養わせないと人間を超えることはできません。
人間は小学一年生から長い時間をかけて一つひとつの言葉の意味や基本的な文法を学んできました。AIには、まず、それらの基本的な国語の能力を身につけさせる必要があります。これは自然言語処理分野の研究課題となるでしょうが、早急にそのアルゴリズムを確立していただきたいものです。
その上で、膨大な知識データを利用して質問に対する回答を組み立てるアルゴリズムを発明する必要があります。
まとめ
人間が普段何気なく行っている「考える」という行為は、とてつもなく高度な行為であり、現在のAIには真似できないものです。今のAIが質問に対して答えている内容は人間があらかじめ用意した内容かまたはビッグデータの中にあるキーワードから統計的に処理してアウトプットしたものであり決してAIが論理的に考えて判断したものではありません。したがって、その回答には理由を付けることはできません。
この知識データを利用してAI自らがいろいろな事例を自己学習して、人間の質問に対してAI自らが論理的に考え、理由を付けて回答をアウトプットできれば、いろいろな場面で社会の役に立つものと思われます。