AIのススメ

市村剛大

AIと論理

 ChatGPTやClaudeに代表されるLLM[註1]は本来論理が苦手である。というのも、彼らはあくまで人間のようにうまく言葉を喋る機械であり、論理的な思考を行うように作られたものではないからである。しかし、実際にChatGPTと会話をしていると、あたかも論理的な思考をしているように感じる回答をすることがある。なぜか。簡単な論理については次のように理解できる。「1+1の答えは?」という自然言語の質問に対しての最も正しい返しは「2」であろう。ChatGPTは「1+1の答えは?」に対して「2」を返すのが正しいと、言葉として学習を行っている。なので反射的に正しい論理で回答できる。「2+2の答えは?」という質問を学習していなかったとしても、「2+3の答えは?」に「5」と返すのが正しいという学習を行っていたとすれば、状況から「4」と返すのが正しいのだろうというふうに返すこともできる[註2]。言葉のやりとりとしての反射的な上手い返しを学習することで、結果として一定レベルの論理的な思考を行うことができるのである。

 もう少しだけ複雑な論理になるとどうだろうか。実際に長めの四則演算をClaude Opus 4.5に行ってもらう実験をしてみよう。

Q.「3+6×4-8-3+6×4-8は?途中経過は表示せず、答えのみを回答して」
A.「20」

 これは間違いである。Opus 4.5は2025年11月25日にリリースされた最新モデルである。Opusは、時には人智を超えているのではないかと思えるような仕事をしてくれることもある素晴らしいモデルであるが、この小学生レベルの四則計算でさえ間違ってしまうのである。しかし、実はこれは少々意地悪な質問方法である。次のように聞けば、Opusは正解を回答できる。

Q.「3+6×4-8-3+6×4-8は?」
A.「3 + 6 × 4 - 8 - 3 + 6 × 4 - 8
まず掛け算を先に計算します:
6 × 4 = 24(2箇所)
式は次のようになります:
3 + 24 - 8 - 3 + 24 - 8
左から順に計算:
3 + 24 = 27
27 - 8 = 19
19 - 3 = 16
16 + 24 = 40
40 - 8 = 32」

 正解である。一度めの質問との違いは、「途中経過は表示せず、答えのみを回答して」を付け加えていないということのみである。この文言を付け加えないことで、LLMは計算の過程を言葉として出力する[註3]。その自分が出力した思考過程を解釈しながら、論理を繋いでいくことでより複雑な論理を回答できるようになるのである。このような、思考段階を言葉に出しながら生成を行うと、複雑な問題にも答えることができるようになるLLMの性質は、「思考の連鎖」(Chain-of-Thought)と呼ばれている。

 LLMの挙動は人間の思考を鏡写しである。人間も、本来難しい論理など大して考えられないのだろう。思えば自分も学生時代、掛け算九九や数学の公式を反射的に答えられるよう覚えた。小さな論理のユニットとその使い方を反射的に答えられるよう経験的に覚え、頭の中に(あるいは計算用紙などに)それらを書き出してで組み合わせていくことで、より難しい論理問題を解いていくのである。言われてみれば当たり前のことだが、自分は今までこれほどまでに「論理的に考える」ということがどういうことかを意識したことはなかった。生成AI、LLMという人間に似た振る舞いをする存在の登場により、改めて人間自身の振る舞いについて深く考えさせられたり、気づきを得る。これも生成AIの面白さの一つであろう。

 もう少しだけ余談をする。今回はわかりやすい論理の例として四則演算を用いた。四則演算は自然言語ではなく、数式という論理を正確に表現しやすい言語で表現されるから、LLMも正確に考えやすいであろう。日本語で書かれた論理的な議論を推論するとなるとどうだろう。自然言語というのはそもそも論理を正確に表現するための言語ではないし、殊に日本語というのは論理の表現に向いていないことで知られている。先ほどから繰り返しているように、生成AIは何か論理的な処理をしているわけではないから、その論理性も使用する言語がどれだけ論理に対する表現力を持っているかという部分に制約を受けると言えるだろう。裏返せば、日本語が持つ古典論理では片付かない表現力についてもLLMは表現できる可能性を持つ。このような側面に着目してみるのも、面白いかもしれない。

 (続く)

註1:LLM(Large Language Model:大規模言語モデル)とは、言葉を生成することが可能な生成AIのことである。なぜAIなのに「知能」ではなく「モデル」と呼ぶのかというと、内実は人間の文章の単語の並び方の確率分布を低次元に圧縮しただけのものであるからである。もっと平たくいうと、人間の言葉の列というのはどのように並べられがちか、を数式で近似したものであるから、「モデル」なのである。

 註2:AIは非常に大量のデータを学習させることで、学習した質問と全く同じ事例でなくても判断や生成を行うことができる。この性質は汎化特性と呼ばれ、現代のAIが柔軟な振る舞いを行う根源となるような性質である。

 註3:ChatGPTがリリースされたばかりの頃(GPT3の頃)は、「3+6×4-8-3+6×4-8は?」と聞いても全く正しく返ってこなかったが、現在では多くのモデルで勝手に途中途中式を書いて考えてくれるようになっている。これはLLMの元々の性質というよりは、昨今加熱する生成AIの精度向上の競争による賜物である。各社、計算ができるように、難しい数式は順序立てて計算したり、pythonなどの計算ツールを使って計算するよう、チューニングを行っていることによるものである。「思考の連鎖」について、プロンプトに「step by stepで考えて」と付け加えると、段階的な思考をしてもらいやすい、などといったテクニックが知られている。

目次へ