
第0回で述べたように、本連載では、生成AI時代に「理解」という営みを理解し直すことを目指す。今回は「LLMは理解しているのだろうか?」という問いを取り上げ、生成AIブームの前後の議論を概観する。
第0回はこちら⇩
【AIと生きる時代の〈理解〉考】第0回:連載を始めるにあたって - 重ね描き日記(rmaruy_blogあらため)
- 「LLMによる理解」に驚き直す
- 大規模言語モデルとは何か
- 言語モデルは「理解」しているように見える
- AIは「本当の理解」ではない論(1)生成AI以前
- AIは「本当の理解」ではない論(2)生成AI初期
- 2026年、もはや「理解していない」と言いにくいが…
- 直観を更新する
- まとめ
「LLMによる理解」に驚き直す
大規模言語モデル(LLM)は言語を理解しているのだろうか。
これは2022年のChatGPTの登場以来、盛んに繰り返された問いだ。日常的にLLMを使っている人にとっては、何をいまさらと響くかもしれない。自然な対話ができるAIはもうここにある。いまさらそれが「理解しているか」など考えても意味がないようにも思われる。
そこで、感覚を2022年以前に戻してみよう。
LLMのようなニューラルネットワークがChatGPTのような能力をもてるようになるとは、当時はほぼ誰も予想していなかった。2011年から十年間行われた、AIに日本の大学入試問題を解かせる「ロボットは東大に入れるか」プロジェクトがある。プロジェクト期間中、「東ロボ」は着実に点数を伸ばしていったが、当の開発者たちも東大入試に実際に合格できるレベルまではいかないとみていたようだ。プロジェクトを率いていた国立情報学研究所の新井紀子氏は、2019年11月に次のようにTwitterに投稿している。
私自身の意見としては、「さすがに東大は無理だろう」と思ってはいます。だって、意味がわかってないから。でも、人も意外に意味がわかってないのに解いているっぽいので、もしかするともしかするかもしれないな、という気はします。
―—新井紀子氏ツイート:https://x.com/noricoco/status/1196351966714060801 (太字は引用者)
「意味がわかってないから」と新井教授は書いたが、AIは言葉の意味を理解しないというこの想定は、当時は全く普通のものだったはずだ(2010年代に理工書の研究者として多くの情報系研究者とも話す機会があった筆者の感覚による)。
なお、このツイートで東大合格について「もしかしたらするともしかするかも」という留保がついているのは慧眼だった。実際に、その後AIはゆうに東大に合格できるレベルの実力を獲得したからだ1。では今日のAIは、「理解」できるようになったから東大の試験を解けるようになったのか。あるいは上記ツイートにあるように「意味がわかってない」にもかかわらず解けるようになったのか。これは「わかる」ことと「できる」ことの異同という、この連載で何度か考えることになるテーマにつながる。
ともかく、無理だと思われていたAIの能力の実現は、2010年代末からの大規模言語モデルの発展によるものだった。その驚きが一つのピークとなるのが、2022年11月のChatGPTの登場だった。
ChatGPTのデビューまもない2023年3月14日、沖縄で言語処理学会第29回年次大会(NLP2023)が開催された。そこでは「緊急パネル:ChatGPTで自然言語処理は終わるのか?」というセッションが設けられ、日本を代表する自然言語処理の研究者たちが、ChatGPT登場のインパクトについて熱く議論を交わした。LLMによってそれまでの自然言語処理の研究の多くは乗り越えられ、これから時代が始まるという意識が共有されていた。その議論を振り返ると、当の研究者たちにとってもChatGPTの性能が驚くべきものだったことがうかがえる。たとえば「なぜ英語で主に訓練したLLMが日本語でうまくいくのか」という「謎」が提示されている(例:鈴木潤氏スライド)。
それから3年たち、驚きは薄れたように見える。では当初の「謎」は解消されたのか。この間にもLLMは大きく進歩し、ChatGPTやGeminiはこちらの指示を理解していると言っても全く違和感がないレベルになった。一方で、あらためて「LLMは理解の能力を持ったと考えているんですね?」と問われると、Yesと答えることにはまだ躊躇も残るのではないだろうか。本連載としては、この躊躇を大事にしたい。そこに、AI時代に個人として理解という営みと向き合うヒントがあると考えるからだ。
そこで、本稿では、LLMの理解を巡る過去数年の議論や、それより前からある「AIの理解]を巡る哲学的な議論を振り返る。それを通して、
- あらためて「LLMは理解しているように見える」という事実に驚き直しつつ、
- LLMは「本当の意味で理解していない」と言いたくなる理由について理解を深める
ことを目指す。
その前で二点ほど注記しておく。まず、本稿では「理解」を定義しないで話を進める。「LLMは言語を理解しているのだろうか」への答えは当然「何をもって理解とするか」による。それで話が終わってしまっては面白くない。むしろ定義論に立ち入らなくても、いろいろと考えることはできる。本稿では、理解の定義はいったん宙に浮かせておいて、日常的な「理解」の語感に頼る。
また、これから扱うのは「LLMは言語を理解しているのか?」という問いであり、「AIは理解しているのか?」ではない。厳密に言えば、LLMはAI技術の一つにすぎないし、理解は言語理解よりも広い。とはいえ、2020年代の「AIの理解」という問題の中心的な部分が「LLMによる言語理解」にあることは間違いと考える。なお、本稿におけるLLMとは、厳密には「LLMを中核に据えたAIシステム」のことである。たとえばChatGPTは厳密にはGPT3.5などのLLMを内蔵したサービス/システムである。事前・事後学習済みの「生」のLLMには「理解」と言えるような能力はなくても、それを含むサービス/システムになると理解の能力が発現するということは十分に考えられる。本稿の「LLMは理解しているのか?」という問いは、厳密には「LLMを中核に据えたAIシステムは理解しているのか?」と読み替えてもらってもよい2。
大規模言語モデルとは何か
LLMの能力に「驚き直す」ために、その仕組みをごく簡単に振り返る。
大規模言語モデル(LLM)とは、大きな言語モデルのことであり、言語モデルとは、言葉(単語や文など)の出現確率を表す確率分布を意味する。言語モデルがあれば、私がこれまでに書いた文をもとに、その続きにどんな文字が並ぶ確率が高いかを計算できる。たとえば、「この文章にはどんな文字が続くだろ__」という文字列のあとには、「うか?」という3文字が続く可能性が高いという推論が可能になる。言語モデルとは、膨大な言語のデータを使って学習したこの確率分布のことだ。
文の末尾の3文字を当てる言語モデルを作ることは、2000年代の自然言語処理の手法で十分可能だった。しかしそれでは、短いプロンプトからその続きを丸ごと生成することなどはできない。それを可能にしたのは、2010年代の終盤に提案されたTransformerというニューラルネットワークのアーキテクチャーと、大規模コーパスを「答えのある穴埋め問題」にして解く自己教師あり学習(self-supervised learning)の方法だった。これらの手法によって、非常に大きな言語モデルを効果的につくれるようになった。
Transformerにおいて、長い文脈(context)を扱えるようにした一つのブレイクスルーが自己注意機構(self attention mechanism)だった。自己注意機構は「過去の自分の途中処理結果」に注意を向けることであり3、これにより文章の遠く離れた情報も活用して次の単語を予測するようになった。さらに、単語を予測するだけでなく、プロンプトに書かれた指示に応じて自身の応答を変えるin-context learning4ができるようになった。同じニューラルネットワークなのに、あたかも入力に応じて学習し直しているかのような、柔軟な対応ができるようになったのだ。
すると、単に文末を補完するだけでなく、ある一行の文から、それに続きそうな文章全体を生成できるようになった。たとえば「昔々あるところにしがない会社員がいました。」というプロンプトを打ち込んでみると、LLMは、
「その会社員の名は佐藤。毎日、満員電車に揺られては「承知いたしました」と「申し訳ございません」を交互に繰り返す、絵に描いたような「平均的サラリーマン」でした。しかし、彼にはひとつだけ、誰にも言えない秘密がありました。」
などという続きを返してくれる(2026年1月のGemini 3.0 Pro)。
LLMはこのままでは「人が書きそうなことを出力する」装置にとどまる。書類や物語の「続き」を作るには使えても、今日のような対話システムにはならない。そこで、入力と応答のセットを教え込むインストラクション・チューニングや、LLMが生成した文章に対して有用性などの観点から人間が評価してニューラルネットワークを再訓練するRLHFといった手法が、事後的に組み合わされるようになった。これらはまとめて事後学習(post-training)と呼ばれる。事後学習により、LLMは「人が書きそうなこと」に加えて、「人が書いてほしいこと」を書けるようになった。
言語モデルは「理解」しているように見える
巨大な確率分布を体現したニューラルネットワークであるLLMは、「人が書きそう」かつ「人が書いてほしい」ことを書けるようになった。では、それは言葉を理解しているのだろうか。
専門家たちの意見も分かれている。
2022年に自然言語処理研究者を対象に行われたサーベイ(Michael et al. 2023)では、LLMが理解できるようになるかを尋ねている。具体的には、「テキストデータのみで学習した生成モデルでも、十分なデータ量と計算リソースがあれば、ある程度の実質的な意味において自然言語を理解できるようになる可能性がある5」かどうか尋ねる項目に対して、480人の回答者のうち51%が同意し(agree/weakly agree)、49%が反対(disagree/weakly disagree)だと回答した。自然言語処理の研究者でも、見解が分かれていることがわかる。
2026年現在に同じアンケートを行ったらどうなるかは興味深いところではある。筆者の予想では同意は4年前より増える一方で、依然として同意しない研究者もいるのではないか、というものだ。
これだけ流暢にAIが言葉を操る時代に、それが言葉の意味を理解していないと考える理由はどこにあるのだろうか。LLMの登場以前から存在している「AIは理解していない」論を振り返ろう。
AIは「本当の理解」ではない論(1)生成AI以前
LLMの遥か前から、AIの研究者や哲学者は「AIは理解できるか」を検討してきた。
その代表例が、現代を代表する言語哲学/心の哲学者のジョン・サール(2025年に死去)による有名な1980年の論文「Minds, brains, and programs」である(Searle 1980)。この論文でサールは、プログラミングによってつくられた計算機が「考える(think)能力」を持つとする、いわゆる「強いAI(strong AI)」の想定に反駁するために、有名な「中国語の部屋」の思考実験(Chinese room argument)を提起する。
サールは、中国語を理解していない自分6が、ある部屋に閉じ込められている状況を想像してほしいという。そこには、いくつかの中国語のスクリプトと、英語マニュアルが投げ込まれる。サールは自分が読めない中国語を、英語のマニュアルに対照させながら中国語の出力に変換する。この部屋を外からみれば、中にいるサールは中国語の指示を理解して中国語で応答しているように見える。しかし、サール自身は全く中国語を理解していない。この比喩によってSearleは、プログラム(〜マニュアル)を与えて指示を実行するコンピュータ(〜中国語の部屋の中のオペレーターに過ぎないサール)は、決して言語を理解していないのだ、と主張する7。
一見、これは現在のLLMにも使える論法のようにも思える。LLMは中国語の部屋のようなもので、そのなかにあるのは巨大なマニュアルのみであり、そこには誰も「理解」の主体はいないのかもしれない。ただし、サールがターゲットにしていたのはあくまで記号を操作する形式的なプログラミングに基づく人工知能であったことには注意が必要だ。仮に中国語の部屋の論証が成功していたとしても、それがLLMが理解していないことの論証にはつながらない8。
中国語の部屋と並んで常に持ち出されるのが記号接地問題である9。
この問題の前提には、20世紀に主流であった記号的AI(symbolic AI)の想定がある。記号的AIは、人間が扱う概念を「記号」としてコンピュータに与え、その記号の操作によって、人工知能が実現できるという考え方である。たとえば「りんご」という記号に「果物である」という属性を結び付け、さらに「果物」に「食べられる」という属性を結び付ければ、AIは「りんごは食べられる」と推論できる。より複雑な推論もすべて、こうした記号操作で実現できるのではないかという想定である。
そうした中、ハンガリー出身カナダ在住の認知科学者ステヴァン・ハーナッドは、1990年の論文にて、記号接地問題(symbol grounding problem)を提起する(Harnad 1990)。彼が指摘したのは、コンピュータが扱う「記号」は、別の「記号」と連結しているだけで現実世界とつながっていないということだった。それは赤ちゃんに中国語の辞書だけを与えて、言葉の意味を学べというようなものではないかと(ここでも中国語が登場する)。「記号」同士でしかつながっていないコンピュータの「記号」を、どう現実世界に立脚させるか、すなわち「接地」するかが難題だというのが、ハーナッドが提起した記号接地問題であった。
今日の大規模言語モデルは、しばしば「記号接地していない」と言われる。たとえば、認知科学者の今井むつみ氏と言語学者の秋田喜美氏は、今日のAIを、
「記号接地をせずに、ことばや数字という記号それぞれの「意味」を本来的に理解しなくても、ビッグデータの中の記号を漂流し続けて「学習」できるAI」
―—今井・秋田 (2023)
と特徴づけている。いくら流暢に言葉を使い、かつそれを学習できたとしても、それは記号の世界の中で学んだものであって、現実世界に「接地」していないために「理解」はしていないという議論だ。
一方で、記号接地問題を、記号的AIの時代の問題と位置付ける見方もできる。21世紀は、記号的AIに代わりニューラルネットワークの時代となった。そこでは人間のプログラマが「記号」を明示的に与えるのではなく、AIに与えた種々のデータからAIが表現を学習していく。その過程では、ある意味では記号接地ができているといえる。ハーナッド自身も、ニューラルネットワークによるアプローチ(コネクショニズムとも呼ばれる)を、記号接地問題を解く方法の一つの有力候補として挙げていた。
たしかに、自然言語だけで学習した大規模言語モデルは、「リンゴの赤さ」を見たことも「リンゴの味」も知らない。しかし、大規模言語モデルが出力する「リンゴ」という単語は、私たち人間にとっては現実世界に立脚したものである。AIが処理する「リンゴ」という記号はそもそも私たち人間が作ったものであり、AIに学習データを提供した私たちを通して世界に接地しているとみることもできる。この観点から、AI・ロボット研究者として記号創発システム論を掲げる谷口忠大は、ハーナッドの意味での記号接地問題は乗り越えられており、本当に問うべきは人間(やロボット)はどう集団的に記号を作り出し、個として記号のプロセスに参加するようになるのかという「記号創発問題」だと述べている(谷口 2016)。
「中国語の部屋」と「記号接地問題」という、20世紀からある「AIが理解していない」議論で持ち出される概念の代表格についてみてきた。もっとストレートに計算機が理解できるわけがない、という人もいる。前述の新井紀子氏は、2018年の著書で、計算機にできるのは四則演算だけであり、それに基づくAIは「意味を理解してない」と述べている(新井 2018)。新井氏のこの記述に対して、言語哲学を専門にする次田瞬氏は2023年の著書にて、AIの処理が単純な四則演算に還元できることは、AIが意味を理解しないと断じる決定的な理由にはならないのではないか、と指摘している(次田 2023)10。
AIは「本当の理解」ではない論(2)生成AI初期
実際にLLMが登場して以降は、どのような理由で「AIは理解していない」と言われてきたのだろうか。
ChatGPT登場前後によく言われていたのは、どんなに巨大な言語モデルも、その実体は「人が書きそうな言葉を生成する確率分布」にすぎないということだった。LLMは「洗練されたオートコンプリート(自動補完)」装置であるといった言い方がよくされた。やっていることはワープロソフトの機能の延長上にある。GPTが示すオートコンプリート能力はそれ自体驚くべきものだが、何かを「理解」したうえで言葉を発する私たち人間の言語運用とは別物だというわけだ。
実際、「LLMが理解していない」ことを示す具体的な証拠もあった。たとえば、2020年くらいのLLMは簡単な算術計算ができなかった。GPT-3を分析したOpenAIの論文は、二桁の足し算は100%の近いものの、3桁、4桁、5桁となるにつれて正答率がガクンと落ちる(Brown et al. 2020)。これは足し算という算術処理を「理解」していれば起こらない間違え方だ。ただし、その後、LLMの算術計算の誤りは急速に下がっていった。それはChain-of-thoughtと呼ばれる長期的な思考、強化学習を使った数学的推論の教え込み、Pythonなどの外部ツールを活用する学習など、さまざまな機能がLLMに追加されたことによる。
あるいは、深層学習の立役者の一人であるヤン・ルカン(Yann LeCun)は、言語データだけから学習した言語モデルの理解の能力には限界がある、という論を「AI and the limits of language」と題したエッセイで展開している(Browning & LeCun 2022)。
これらの[LLMにもとづくAI]システムは、人間が持つ血の通った思考(full-bodied thinking)には決して及ばない、浅薄な理解に留まるのは明らかだ。これは、LLM(大規模言語モデル)の言語理解が、目覚ましいものではあるものの、結局は浅いからである。こうした「浅い理解」は馴染み深いものだ。自分が何を話しているのかも理解しないまま専門用語を使う生徒は、教授やテキストの物まねをしているに過ぎない。
―—Browning & LeCun 2022(翻訳は筆者)
このエッセイでルカンらは、「言語のみで学習したシステムは、たとえ今この瞬間から宇宙の熱的死に至るまで学習を続けたとしても、人間の知能に近づくことは決してない11」とまで言っている。このAIは「物まね(mimicking)」しているだけという感覚は、LLM普及初期にはよく用いられていた。「確率論的なオウム(Stochastic Parrots)」や、「巨大な参照表(giant lookup table)」といった表現もなされた。
2026年、もはや「理解していない」と言いにくいが…
しかし2026年の現在になってみると、威勢よく「LLMは理解していない」という人は少なくなってきたように見える。一つには、ルカンがいっていたような「言語の限界」を超えるべく、LLMがどんどんマルチモーダル化したことがあるだろう。Gemini 3.0に至って、LLMは将棋を指せるようになった12。また、Webサーチ機能をはじめとするツール利用機能を備えるなど、できることがどんどん増えていった結果、「理解していない」ないしは「理解が浅い」ことをわかりやすく示す例も減ってきた。それでも、一部はLLMはまだハリボテのような理解しか示さないという議論もある(例:Mancoridis et al. 2025)。
サンタフェ研究所のメラニー・ミッチェルとデイヴィッド・クラカウアーは、「LLMの理解をめぐる論争」という2023年の展望論文にて、この論争において専門家が異なる直観を表明している状況を受けて、ありうる三つの考え方を提示している(Mitchell & Krakauer 2023)。
- 1) 言語トークンのみで学んだLLMが何かを理解しうるというのは単純にカテゴリーエラーである。つまり、理解という概念を間違って帰属させているだけである。
- 2)LLMは近いうちに、人間の理解にとって中心的な役割を果たす「概念に基づく心的モデル」を獲得し、人間のように理解できるようになる
- 3)そうした概念をもたずしても、LLMは人間の理解と機能的な等価な能力を獲得する
そのうえで、彼女らは、AIの理解というものを扱うために、知能の科学を拡張していく必要があるだろうと提起している。
日本を代表する機械学習研究者で経営者の岡野原大輔氏は、AIが理解しているように見える状況を、以下のように丁寧に記述している(岡野原 2023)。
…もう一つの問題は、たとえ言語モデルが訓練データ以外の単語も正しく予測できるようになったからといって、人が言語を理解するのと同じように、機械学習のモデルも理解しているのか、という問題である。
これについては、単語予測によって獲得された内部表現が言語に関する様々なタスクで有効であることから、間接的に立証されている。また、言語モデルが実際にどのような内部表現を獲得しているのかを分析した結果、単語や句単位に対応する内部表現が、人が言語を処理する際に使う概念とよく似ていることが示されている。さらには、人が言語処理を明示的に扱う際に用いる構文構造や、意味の合成ルールなども、学習の結果、獲得していることがわかっている。
―—岡野原大輔(2023)『大規模言語モデルは新たな知能か』p.64-65
そのうえで、岡野原氏は「機械学習のモデルも理解しているのか」という問いに対しては、次のように慎重に答えている。
しかし、このような方法で、予測モデルが本当に文や言語を理解しているのか、まだよくわかっていない。今の時点では、現象的に人が文や言語を理解しているのと似た効果を言語モデルは発揮しており、現象論的には意味を理解しているという見方が適切だろう。
そもそも人がどのようにして言語の意味をとらえ、処理しているのか、わかっていない。 そのため、今後は予測モデルの内部状態を調べて、人間がどのように言語を理解しているのか仮説を立てて調べるなど、計算機側からと人間側からの双方向で、言語処理の理解を進めていく必要があると思われる。
―—岡野原大輔(2023)『大規模言語モデルは新たな知能か』p.64-65(太字は引用者)
人間とAIが同じ方法で理解しているのかはわからない、なんなら人間もどうやって理解しているのかわからないのだからそちらも研究しなければいけない、と岡野原氏はいう。人間の理解については、本連載では次回考える。そして、第3回では、AIと人間の両方に成り立つような筆者なりの理解のモデル(のラフスケッチ)を示したいと思っている。
直観を更新する
現象論的には理解している。そういわれても、次の単語を予測する「だけ」の言語モデル(を中核としたシステム)が、言語を理解しているとはどうしても思えない──その直観を消し去ることもまた簡単ではない。しかしLLMはまさにそうした直観のアップデートを求めているのかもしれない。
GoogleのLLMの開発にも中心的に関わってきた研究者、 ブレイズ・アグエラ・イ・アルカス氏は、AIに関する考え方が2019年くらいに変わったと述べている13。それは、次単語予測マシン(Next word predictor)であるはずのLLMが、高度な推論能力を持つようになってきたからだった。LLMは本物の知能ではないという人もいるが、これは「茹でガエル現象」だと彼はいう。私たち自身も、巨大計算による予測マシン(massively computationally-scaled predictor)なのだ。
同氏の2025年の著書What Is Intelligence?では、実はテキスト予測というのは「AI完全(AI complete)」な問題であるという考え方を打ち出している。AI完全とはつまり、「その問題を解くには、人工知能の全問題を解く必要がある」ような問題のことで、裏返せば、それさえ解ければAIの全問題が解けたことになる。なぜそう言えるのといえば、どんな難問も「(超難しい数学の難問)の答えは__」のようなプロンプトの形で提示できるからである。ここまではよい、とアグエラ・イ・アルカス氏は言う。真の驚きは、実際に次単語予測の訓練によりそうした能力が出てくることにあったという。こうした理路により、アグエラ・イ・アルカス氏はすでに我々はAGI(汎用人工知能)を手にしているという立場をとる。
計算機はつまるところ、四則演算をしている「にすぎない」。LLMはつまるところ、次単語予測をしている「にすぎない」。しかしだからといって、「コンピュータ/LLM/AIは言葉を理解しない」という直観はもはや成り立たない。岡野原氏やアグエラ・イ・アルカス氏などのAI研究者たちは、理解や知能の仕組みと能力に関する、自らの直観を更新しようとしている。このこと自体は、AI研究者ではない私たちにもこれから求められてくるだろう。
まとめ
冒頭で述べたように、本稿では「理解とは何か」のの定義を宙に浮かせたまま、LLM/AIは理解しているのかという問いにまつわる様々な立場を見てきた。LLMの仕組みを考えれば、それが何かを「理解」などできないように思える(ルカン)。しかしその能力をみれば「現象論的には」理解している(岡野原)。
「LLMが理解しているのか?」という問いへの答えは、理解の意味による。理解という言葉に託したい内容が人によって大きく異なる。しかし、次のことは理解の定義論にかかわらずコンセンサスと言えるのではないだろうか。
- 1)LLM登場前に人々が抱いていた「理解する機械」のイメージに、予想以上の早さで近づいた。
- 2)しかし、それは全く人間の理解と同じかというと、違う
そして後者に関して「ほぼ同じ」「大体同じ」「全然違う」といったグラデーションがある。次単語予測を含む予測こそが知能の本質だというように直観をアップデートしたアグエラ・イ・アルカス氏にとっては、LLMの示す理解と人間の理解はかなり近い。一方で、LLMを「オートコンプリート装置」などと呼びたくなる人たちの中ではまだ遠い。
こうした「LLMは理解しているか?」という論争から私たちが見るべきは、どちらが正しいかではなく、賛成する人と反対する人が、どのような直観をもち、どのような価値観をその立場に反映しているのかだろう。
本稿で見てきた現状認識を踏まえたうえで、私たちはここからは何を考えればいいだろうか。理解しているっぽい機械の登場により、私たちは全く新しい知的生産の道具を手にしている。同時に、第0回で書いたように、自分たちに固有だった理解の能力を備えた新たな存在に実存的な危機感も抱えている。あるいは、理解をすることへの努力の虚しさも覚え始めている。
そこで次に考えるべきは「そもそもなぜ私たちは理解のことが気になるのか」である。理解という能力、あるいは状態、あるいは行動に、どんな価値があるのだろうか。これが次の第2回のテーマになる。
謝辞
公開前の原稿に目を通しコメントをいただいた皆様に御礼申し上げます。
参考文献
- Michael, J., Holtzman, A., Parrish, A., et al. (2023). What Do NLP Researchers Believe? Results of the NLP Community Metasurvey. Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (ACL), 10720–10743.https://aclanthology.org/2023.acl-long.903/
- Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424.
- Harnad, S. (1990) The Symbol Grounding Problem. Physica D 42: 335-346.https://arxiv.org/html/cs/9906002
- 今井むつみ・秋田喜美(2023)『言語の本質』中央公論新社.
- 谷口忠大「記号創発問題─記号創発ロボティクスによる記号接地問題の本質的解決に向けて─」『人工知能』31巻1号(2016)
- 新井紀子(2018)『AI vs. 教科書が読めない子どもたち』東洋経済新報社.
- 次田瞬(2023)『意味がわかるAI入門』筑摩書房.
- Brown, T. B., Mann, B., Ryder, N., et al. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, 1877–1901.https://papers.nips.cc/paper/2020/hash/1457c0d6bfcb4967418bfb8ac142f64a-Abstract.html
- Browning, J., & LeCun, Y. (2022). AI and the limits of language. Noema Magazine.https://www.noemamag.com/ai-and-the-limits-of-language/
- Mancoridis, M., Vafa, K., Weeks, B., & Mullainathan, S. (2025). Potemkin Understanding in Large Language Models. arXiv:2506.21521.https://arxiv.org/abs/2506.21521
- Mitchell, M., & Krakauer, D. C. (2023). The debate over understanding in AI’s large language models. Proceedings of the National Academy of Sciences of the United States of America, 120(13), e2215907120.https://doi.org/10.1073/pnas.2215907120
- Mitchell, M. (2024). AI’s challenge of understanding the world. Science.https://www.science.org/doi/full/10.1126/science.adm8175
- 岡野原大輔(2023)『大規模言語モデルは新たな知能か:ChatGPTが変えた世界』岩波書店.
- 筆者の聴講録:https://rmaruy3.github.io/blog/2025/10/12/post.html(Blaise Agüera y Arcas氏 2025年10月講演)
- Agüera y Arcas, B. (2025). What Is Intelligence?: Lessons from AI about Evolution, Computing, and Minds. MIT Press.https://mitpress.mit.edu/9780262049955/what-is-intelligence/
-
記事例:日経クロステック(xTECH)(2025)「OpenAI o1が2025年東大文系入試を余裕で突破、理三合格レベルにも到達」、2025年4月7日。https://xtech.nikkei.com/atcl/nxt/column/18/03078/012800006/ ↩
-
システムのレベルに広げれば、AIがやっているのはLLMの次単語予測「だけ」とはならないが、そのプラスアルファの部分を含めても、以降で書くようなLLM+αが示す能力に対する「驚き」は変わらないと考える。 ↩
-
この説明は岡野原 2023, p.109による。 ↩
-
岡野原は「本文内学習」と訳している。 ↩
-
“Some generative model trained only on text, given enough data and computational resources, could understand natural language in some non-trivial sense.” ↩
-
サールは自分は中国語と日本語の区別もつかない、と書いていてちょっと面白い。 ↩
-
私はサールがみんなが理解できない言語の代表として中国語を挙げていることにとても時代性を感じる。中国語話者に取り囲まれているだろう今のアメリカのアカデミアなら、Chinese Roomという比喩にはなっていなかっただろう。 ↩
-
実際、サールはこの論文の後半で、ロボットの身体への連結や脳のシミュレーションなど、当時のAI技術を超えた進展の可能性についても検討しており、自身が問題にしているのはあくまで「心の働きを、あらかじめ規定された形式的要素を操作する計算プロセスだとみなす(mental processes are computational processes over formally defined elements)」想定なのだと述べている。 ↩
-
むしろ、新井氏の論証は「意味理解」を「意識」に置き換えたほうが説得力が増す。その理由を次田氏は「意味理解は言語行動という形で表に出るのに対し、意識の方は徹底して内面の問題であるように思われる」からという(次田 2023, p.246)。この指摘は正鵠を射ていると思う。 ↩
-
“A system trained on language alone will never approximate human intelligence, even if trained from now until the heat death of the universe.” ↩
-
将棋実況そら「進化したと話題の「Gemini3.0」が将棋を理解しすぎてヤバい」https://www.youtube.com/watch?v=8qEL5UIbqwc ↩
-
アグエラ・イ・アルカス氏が2025年10月に来日して東京で行った講演での発言。筆者の聴講録:https://rmaruy3.github.io/blog/2025/10/12/post.html ↩