■ 1. AIブームの根本的誤解
- ベンチャー企業Cognitive Resonanceの創業者ベンジャミン・ライリー氏の主張:
- AIブームは言語能力と知能についての根本的な誤解に基づいている
- 大手IT企業幹部の発言:
- Metaのマーク・ザッカーバーグCEOが「超知性の開発は今や目前に迫っています」と発言した
- OpenAIのサム・アルトマンCEOが「従来理解されてきた意味での汎用人工知能(AGI)を構築する方法について、私たちは今や確信を持っています」と主張した
- 大手IT企業の幹部らはAGIの構築に自信を見せている
- ライリー氏の反論:
- 人間の知能に関する科学的見解やこれらの企業が生み出してきたAIシステムを見る限り、とてもこれらの発言を信じることはできない
■ 2. 大規模言語モデルの本質
- 現在のAIの基本構造:
- OpenAIのChatGPT、GoogleのGemini、AnthropicのClaude、MetaのAI製品群のいずれも「大規模言語モデル」である
- これらは基本的に膨大な量の言語データを収集し、単語(トークン)間の相関関係を見つけ、入力されたプロンプトに対してどのような出力が続くのかを予測するものである
- これらの企業が開発するAIはどこまで行っても、本質的には言語モデルである
- 「言語=思考」仮説の問題:
- 仮に「言語=思考」なのであれば、AI開発企業が世界に関する膨大なデータを収集し、それをますます強力なコンピューティングパワーと組み合わせることで統計的相関関係を改善していけば、あっという間にAGIは実現する
- 大きな問題は、現在の神経科学に基づくと、人間の思考は言語とほとんど無関係だという点である
- 言語と思考の関係:
- 確かに人間は言語を用いて推論や抽象化、一般化といった知能の成果を伝達している
- 言語を使って思考することもある
- だからといって「言語=思考」とはならない
- いくら言語モデルを洗練させていったところで、それが人間を超える知能につながるという保証はどこにもない
- ライリー氏の批判:
- この理論には重大な科学的欠陥がある
- 大規模言語モデルは言語のコミュニケーション機能を模倣する単なるツールである
- どれだけ多くのデータセンターを構築したとしても、思考と推論という独立した明確な認知プロセスにはならない
- この違いを理解することが、科学的事実とAIに熱狂するCEOたちの空想的なSFを区別する鍵となる
■ 3. 言語と思考に関する科学的研究
- Nature論文の概要:
- 2024年、マサチューセッツ工科大学やカリフォルニア大学バークレー校などの研究者らが「Language is primarily a tool for communication rather than thought(言語は思考というよりもコミュニケーションのためのツールである)」という論文を学術誌のNatureに発表した
- この論文は言語と思考に関連する数十年にわたる科学的研究をまとめたものである
- AIブームを取り巻く誤解をひもとく上でも役立つ
- 「言語が思考力や推論力を生み出す」という概念の誤り:
- 仮に言語が思考に必要不可欠だとすれば、言語が奪われれば思考能力も奪われるはずである
- 高度な機能的磁気共鳴画像法(fMRI)で脳のどの部位が活性化しているのかを調べると、「数学の問題を解く」「他人の心を推測する」といった思考を行う際には、言語能力とは異なるネットワークが活性化している
- 脳損傷やその他の障害によって言語能力を失った人において、思考能力全般が損なわれるわけではないことは明らかである
- 重度の言語障害を抱えながらも数学の問題を解いたり、非言語的な指示に従ったり、他者の動機を理解したり、論理的推論や因果的推論を行ったりすることは可能である
- 言語能力を獲得する前の赤ちゃんも、日々の暮らしの中でさまざまなことを発見・理解し、世の中について学んでいる
- 科学的にいえば言語は人間の思考能力の一側面に過ぎず、多くの知能は非言語的能力に関わっている
- 言語の本質:
- 言語は人々が互いに考えを共有するためのツール、すなわち効率的なコミュニケーションコードである
- 言語は生成しやすい上に理解・学習が容易である
- 簡潔かつ効率的に使用でき、ノイズに対して堅牢である
- こうした特徴により、人類は言語を用いて知識を共有することが可能となり、世代を超えて並外れた文化を築き上げることができた
- 人間の認知能力が言語によって底上げされるからといって、思考全般が言語によって生み出されたり定義されたりするわけではない
- たとえ話す能力を奪われようと、人間は考え、推論し、信念を作り上げ、恋に落ち、世界中を探索することが可能である
■ 4. 大規模言語モデルの限界
- 言語モデルの構造的制約:
- 人間において「思考=言語」ではない
- 既存のAIの基盤となっている大規模言語モデルから言語を取り除くと、文字通り何も残らない
- AIが人間とはまったく異なるルートで超知能に到達する可能性もゼロではない
- しかしテキストベースの訓練によってAGIに到達できると考える明確な根拠もない
- AI研究コミュニティの認識変化:
- 「大規模言語モデルだけでは人間の知能モデルとしては不十分だ」という認識が高まりつつある
- ヤン・ルカン氏の取り組み:
- AI研究でチューリング賞を受賞したヤン・ルカン氏はMetaを辞任した
- 「物理世界を理解し、持続的な記憶を持ち、推論でき、複雑な行動シーケンスを計画できるシステム」である世界モデル構築のためのAIスタートアップを設立した
- ヨシュア・ベンジオ氏らの定義:
- ルカン氏と共にチューリング賞を受賞したヨシュア・ベンジオ氏らは、AGIの暫定的な定義を「十分な教育を受けた成人の認知的多様性」を持つものと定義した
- 知能は「Knowledge(知識)」「Math(数学)」「Working Memory(ワーキングメモリー)」「Visual(視覚)」「Auditory(聴覚)」など、さまざまな項目から成り立っていると主張している
- ライリー氏の評価:
- 大規模言語モデルにとらわれてきた従来の枠組みを脱するという点では評価できる
- しかしこれらの合計がAGIであると見なすのは難しい
■ 5. 認知的飛躍とAIの限界
- 革新的発見の可能性:
- 仮にベンジオ氏らが主張する知能をすべて達成するAIが登場したとしても、それは革新的な科学的発見につながるようなAIではないだろう
- たとえAIが人間の思考を模倣できたとしても、人間が行うような「認知的飛躍」を達成できる保証はない
- パラダイムシフトの本質:
- 「パラダイム」は人々から熱心に支持されるユニークさを持ち、さまざまな問題を研究グループに提示する業績のことを指す
- 科学の歴史ではたびたびパラダイムが大きく転換するパラダイムシフトが起きている
- これは反復的な実験の結果ではなく、既存の科学的記述に当てはまらない新しい疑問やアイデア、つまり認知的飛躍が起きた時に発生した
- 複数の認知領域にまたがるAIの限界:
- 複数の認知領域にまたがるAIシステムは、確かに与えられた指示に対して、高い知能を持つ人間のように予測・再現することができる
- しかしこれらの予測はいずれも既存のデータを電子的に集約・モデル化することで実行される
- 入力されたデータそのものに不満を抱くことは難しい
- 結果として人間のような認知的飛躍を達成する可能性は低い
- ライリー氏の結論:
- 確かにAIシステムは私たちの知識を興味深い方法でリミックスし、再利用するかもしれない
- しかしAIにできることはそれだけである
- AIは私たちがデータにエンコードし、学習に使用したボキャブラリーの中に永遠に閉じ込められてしまう
- 思考し、推論し、言語を用いて互いの考えを伝え合う存在である実際の人間は、世界に対する理解を変革する最前線にとどまり続ける