コラム
昨年来、ChatGPTをはじめとする生成AIが大きな注目を浴び、アメリカの未来学者レイ・カーツワイルが提唱した2045年にAIが人間の知能を超えるとされるシンギュラリティ(技術的特異点)の到来がにわかに現実味を帯びてきたというのが一般的な常識となりつつある。そして、シンギュラリティの到来により、今ある多くの仕事がAIに取って代わられたり、最悪の場合には、映画「ターミネーター」や「マトリックス」のように、AIが人類を支配するという未来も考えられるというのである。しかし、果たしてそれは本当であろうか。

東京大学の高橋宏知教授は、私たちが「知能」と呼ぶものにはAI、すなわち人工知能と私たち人間をはじめとする生物が進化の過程で発達させてきた生命知能の2種類があると述べている。高橋教授によれば、人工知能とはあらかじめ決められたルールや作法に従って作業を自動化する技術であり、生命知能は自分自身でルールを決めて、それに従って物事を進める、もっと言えば自らの考えや行動を「作り出す」という自律化を私たちに可能にする知能である。人工知能と生命知能は決して相互に対立するものではなく、特に私たちの知能は両者の特徴を併せ持つものである。一方で、現在のAIは生命知能的な性質はほとんど持ち合わせていない(高橋宏知『生命知能と人工知能:AI時代の脳の使い方・育て方』講談社、2022年)。
小林秀雄の知見
すなわち、現在のAIは何かを生み出しているように見えるとしても、結局のところはある特定のアルゴリズムに従って、最も統計的に最適な解を提示しているに過ぎないのである。戦後を代表する文芸批評家である小林秀雄(1902–1983)は早くも1950年代にこの事実を見抜いていた。
機械は、人間が何億年もかかる計算を一日でやるだろうが、その計算とは反復運動に相違ないから、計算のうちに、ほんの少しでも、あれかこれかを判断し選択しなければならぬ要素が介入して来れば、機械は為すところを知るまい。これは常識である。常識は、計算することと考えることを混同してはいない。将棋は、不完全な機械の姿を決して現してはいない。熟慮断行という全く人間的な活動の純粋な型を現している(小林秀雄『考えるヒント』文藝春秋、2004年版の18頁)。
近年、藤井聡太8冠の活躍等により、将棋とAIの関係が大きく注目されているが、小林によれば、将棋を指す「人工頭脳」という考え方自体は既にエドガー・アラン・ポー(1809–1849)の作品の中に現れていた。将棋は盤面や駒の動きについて厳密なルールや作法が決まっており、その意味では人工知能が得意とする分野である。しかし、ポーや小林は将棋が人間による判断や決断を伴う競技であるがゆえに、「人工頭脳」がこれを行うことはできないと考えていた。現代のAIが小林の時代の「人工頭脳」と比べて圧倒的に将棋が強いという事実は小林の主張に対する反証としては全く不適当である。実際、藤井8冠は重要な局面において最先端のAIをはるかにしのぐ手を何度も打ち出しているのである。
常識の優位性
ここで小林が強調したことは、「常識」の優位性である。常識のおかげで私たちは「刻々に新たに、微妙に動く対象に即してまるで行動するように考え」ることができる。逆に、常識がなければ、私たちは一日たりとも日常生活を送ることができないのである。例えば、日常会話一つとっても、私たちは複雑な言語体系を全く説明することができないにもかかわらず、それを完璧に使いこなしている。確かに、近年のAIは自然な会話を行う技術を身につけつつあるが、それはあくまでも大量のデータから抽出されたパターンに過ぎず、AIが人間の常識を身につけたことによるわけではない。
ここで言う「常識」とは、私たちの思考や行動を可能にする基盤のようなものであり、例えば慣習や伝統がこれに該当する。それは、人間の知能や知識とも言えるが、私たちはそれを用いることができたとしても、その性質を説明することはできない。実際、「常識や慣習にとらわれる」という文章によって示されるように、常識、慣習、伝統といったものは一般的に人間の発展にとっての足かせと認識されるものであり、そのおかげで日常生活を送ることができているという事実を私たちは看過してしまいがちである。再び日常会話の例をとれば、私たちに文法規則を破る自由が与えられていないように、私たちがあらゆる束縛からの自由であるということはあり得ない。また、侮辱罪や名誉毀損罪によって相手に対する悪口や誹謗中傷が禁止されているように、会話においては必ずしも明示されていないが、常識として知られているような非常に多くのルールや作法が存在しており、それらのルールや作法を守ることが会話に参加する資格として求められている。つまり、私たちは他者とコミュニケーションをとるためにも、ルールとしての常識を持ち合わせなければならず、その範囲内で会話を富ませなければならないのである。そして、会話において常識からの逸脱が認められれば、その人は信用の喪失というペナルティを課せられることになる。
この段階において私たちは会話を計算ではなく、一つの熟慮を通じた決断として行っており、私たちは「考える」という先述の人工知能と生命知能という区分のうち生命知能の領域を駆使しなければならないのである。この領域は決してAIによる代替が効かない部分である。取引先との重要な商談において契約の糸口を切り拓いたあの一言、自分の飛躍のきっかけとなった親友の激励、こういった人生の局面を決定づける言葉は人間の熟慮からしか生み出され得ない。確かに、生成AIはこのような場面に適当なそれっぽい言葉を計算によって導き出すかもしれないが、おそらくそのような言葉は皮相的な印象しか与えないであろう。そして、それこそがどんなAIも藤井8冠の棋譜を再現することができない理由でもあるように思われる。
複雑性に到達できないAI
では、なぜAIは小林が述べる「常識」を持ち合わせることができないのか、換言すれば、なぜ人間における「考える」という行為ができないのか。それはAIが統計学に依拠している以上、人間の神経系における複雑性に到達することができないためである。ノーベル経済学賞受賞者であるフリードリヒ・ハイエク(1899–1992)は、統計学が個々の要素間の関係を無視しているために、多種多様な人々の行動の結果としての社会現象という複雑な現象の本質を理解することはできないと主張する。ハイエクは社会現象が極めて複雑であるため、人間には社会現象を具体的に予測したり制御したりすることが不可能であり、あくまでも原理の説明しかできないという。
ハイエクは、人間の神経系も社会と同じく複雑であり、人間の脳に生じる現象についてもあくまでも原理的な説明が可能なだけであり、脳に具体的に生じる現象を予測することは人間にとって不可能であると主張する(ハイエクは経済学者として有名であるが、実は1952年に『感覚秩序』という書籍を出版しており、理論心理学の分野でも大きな功績を残している)。脳の機能を完全に説明するためには脳よりも複雑な知性を持たなければならないが、人類の脳構造は全ての人において全く同じであるため、人工知能はそれが人間にとって完全にメカニズムを理解できる構造をとっている限りは脳よりも単純な構造であることは避けられない。
ハイエクはこの著作の中で人工知能の可能性についても短いながら言及している(人工知能の考え方自体が一般化したのは、1956年のダートマス会議においてであり、ハイエクはそれ以前の1952年時点で人工知能の可能性について認識していたことになる)。ハイエクによれば、脳の仕組みを再現した機械を作ることが可能であったとしても、その機械に働く原理が私たちには分かるだけで、その機械がどのようにしてそのような結果を導き出したのかを詳細に説明することはできない。すなわち、人工知能は人間の脳に近くなればなるほど、ブラックボックス化することは避けられず、むしろ不確実性を減らすために人工知能を導入したにもかかわらず、それによって私たちが対処すべき不確実性が増えてしまう可能性すらある。実際、現代においては、脳の神経回路を模したディープニューラルネットワークがAIの画像認識、音声認識、言語処理を高精度で可能にしているが、その情報処理メカニズムはあまりにも複雑となり、結局のところはブラックボックス化してしまっている。このような状況においては、AIに対して価値判断を伴う意思決定を委ねることはできない。なぜなら、AIがどのようにしてその判断に至ったのかという経緯を説明することができないからである。
以上のように、AIはものを考えたり、判断を下したりということができないのであり、私たちにとってAIは計算機の延長線上に存在するに過ぎないのである。だからこそ、私たちはAIを恐れることなく、考える能力を鍛え上げるということが重要なのである。
石井泰幸(いしい・やすゆき)
千葉商科大学サービス創造学部教授。1960年千葉県生まれ。明治大学大学院経営学研究科修士課程修了。専門が経営学、経営情報論。2008年より現職。
【転載】週刊エコノミスト Online 2024年2月18日「AIは人類を超えることができるのか」石井泰幸
(https://weekly-economist.mainichi.jp/articles/20240209/se1/00m/020/001000d)
この記事に関するSDGs(持続可能な開発目標)


関連リンク
