Takeshi Ikemoto

医療 × 経営 × テクノロジー

·note記事·note

ヤン・ルカンはなぜメタを辞めたのかー 「LLMは研究ではなく製品」と断言する理由

生成AILLM世界モデルヤンルカンJEPA

1. はじめに

2026年1月、ヤン・ルカンがメタを離れ、パリに新会社AMI(Advanced Machine Intelligence)を立ち上げたことが報じられました[1]。ディープラーニングの父の一人であり、チューリング賞受賞者でもある彼が、10年以上在籍したメタを去る――このニュースは、AI業界に小さくない波紋を広げています。

ルカンはMITテクノロジーレビューのインタビューで、現在のAI業界に対する批判を展開しています。

「LLMはすでに『製品』であり、研究対象ですらありません」 「学術界がLLMに取り組むのは意味がない。産業界に太刀打ちできない」[1]

この発言は、ChatGPTやGeminiに代表される大規模言語モデル(LLM: Large Language Model、大量のテキストデータから言語パターンを学習したAIモデル)が全盛を迎える今、異端とも言える主張です。しかし、ルカンの批判は一貫しています。

私は2025年11月、「生成AIの『次単語予測』限界論と、次世代『思考するAI』への4つの道筋」という記事で、ルカンが提唱する「世界モデル」——動画や物理データからAIに世界の仕組みを学ばせるアプローチ——を紹介しました[2]。あれから2ヶ月。ルカンは理論を語るだけでなく、自ら会社を興すという行動に出ました。

本記事では、前回の内容を踏まえつつ、ルカンがなぜメタを離れたのか、そして彼が描くAGI(Artificial General Intelligence: 汎用人工知能、特定タスクに限らず人間のように幅広い知的作業をこなせるAI)への道筋が、OpenAIやAnthropicのアプローチとどう異なるのかを解説します。

2. 前回の復習:LLMの動作原理

ここでは、現在のLLMがどのように動いているかを簡潔に確認します(詳しくは前回記事[2]を参照)。

ChatGPTやGemini、Claudeといった生成AIは、すべて「次の単語(トークン)を予測する」という原理で動いています。ユーザーが「日本の首都は」と入力すると、AIは学習データから「東京」という単語が続く確率が最も高いと計算し、出力します。

この仕組みは、文章生成、翻訳、プログラミング支援など、多くのタスクで高い性能を発揮します。しかし、ルカンはこの「次単語予測」という原理そのものに構造的な限界があると主張してきました[3]。その限界の中身については、セクション5で詳しく整理します。

3. 新たな主張:「LLMは製品であり、研究対象ではない」

ここでは、今回のインタビューでルカンが示した新たな主張の意味を整理します。

「解決済みの問題」としてのLLM

ルカンは、LLMを2010年代初頭の音声認識と比較しています。音声認識はかつてAI研究の最前線でしたが、一定の精度に達した後は「研究」から「製品開発」のフェーズに移行しました。現在、音声認識の改善は主に企業のエンジニアリングチームが担っており、学術界で基礎研究として取り組む人は少なくなっています。

ルカンは、LLMも同じ段階に達したと考えています。

「LLMはすでに『製品』であり、学術研究の対象ですらありません。学術界が取り組むべきは、現在のシステムを超える長期的な目標です」[1]

学術界への提言の真意

「学術界はLLMに取り組むな」という発言は、LLMが無価値だという意味ではありません。ルカンの論点は以下の2つです。

ルカンは、学術界の研究者に対して「次に来るもの」に集中すべきだと訴えています。そして彼が考える「次に来るもの」こそが、世界モデルです。

4. 世界モデルとは何か

ここでは、世界モデルの技術的な仕組みと、LLMとの違いを整理します。

LLMとの根本的な違い

世界モデルとLLMの違いは、「何を予測するか」にあります。

LLM

世界モデル

LLMは「この文章の続きとして、どの単語が来る確率が高いか」を学習します。一方、世界モデルは「この動画の続きとして、物体がどのような位置・状態になる確率が高いか」を学習します。

JEPAの仕組み

ルカンが提唱するJEPA(Joint Embedding Predictive Architecture: 共同埋め込み予測アーキテクチャ)は、世界モデルを実現するための具体的な手法です[3]。

従来の生成AI(動画生成AIなど)は、未来のフレームを「ピクセル単位で」予測しようとします。しかし現実には、風で揺れる葉や水面の波紋のように、同じ状況でも起こり得る見え方が無数にある「細部のゆらぎ」が大量に含まれます。

こうした部分をピクセルレベルで一つに決め打ちして当てにいくのは難しいだけでなく、物体の位置や運動といった“世界の骨格”を理解するという目的に対しては効果が薄い場合があります。

JEPAは異なるアプローチを取ります。

- 抽象化: まず動画の各フレーム(ピクセルの集合)を、そのまま扱うのではなく、ニューラルネットで「抽象的な表現(埋め込みベクトル)」に写像します。ここで狙うのは、物体がどこにあり、何がどの方向に動いているかといった、後の予測に必要な“骨格”の情報を圧縮して取り出すことです。 逆に、風で揺れる葉の形や水面の細かな波紋のように、偶然要素が大きくて細部まで当てても意味が薄いものは、表現から自然に落ちる(落としてよい)ように学習させます。

- 抽象空間での予測: 次に、この埋め込み空間の中で「次の状態」を予測します。重要なのは、未来の画像(ピクセル)を復元することが目的ではなく、未来のフレームを同じ方法で抽象化したときに得られるはずの「次の埋め込み」を当てにいく点です。 言い換えると、「物体Aは右へ移動する」「物体Bは重力で落下する」といった、世界の規則性に沿った状態変化が、抽象表現として一貫して予測できるかを学習します。

ルカンはインタビューで、このプロセスを「赤ちゃんが重力を観察から学ぶ」過程と表現しています[1]。これはルカン自身の説明であり、技術的には次のように理解できます。

乳児は物理法則を言語で教わるのではなく、物体の運動を繰り返し観察することで、重力や慣性といった「世界の骨格となる規則性」を少しずつつかんでいきます。こうして得た規則性が頭の中でまとまったものが、いわば「内部モデル(内側の見取り図)」です。 つまり、目の前の状況から「次に何が起きるか」を先回りして予測できる仕組み、と言い換えられます。JEPAは、この観察→規則性の抽出→内部モデルの形成、という流れをAIで再現しようとするものです。

なぜこれが「常識」の獲得につながるのか

人間が持つ「常識」の多くは、物理世界の理解に基づいています。

これらは言葉として教わったものではなく、世界を観察し、経験することで獲得した知識です。世界モデルは、AIにこのような「言語化されていない理解」を与えることを目指しています。

ルカンはインタビューでこう述べています。

「17歳の若者が20時間で運転を学べるのは、すでに世界がどう動くかについての知識を豊富に持っているからです。真に汎用的で有用な家庭用ロボットを作るには、システムが物理世界に対する良質な理解を持っていなければなりません」[1]

5. AGIへの2つの道筋

ここでは、AGI実現に向けた2つの主要なアプローチを整理します。

OpenAI/Anthropic路線:LLMの極限化

OpenAIの「o1」「o3」モデルや、Anthropicの「Claude」は、LLMをベースにしながら、推論能力を強化するアプローチを採用しています。

推論時計算(Inference-Time Compute) と呼ばれる手法では、AIは質問に対してすぐに回答を出力せず、内部で「思考の連鎖(Chain of Thought)」を生成します[4]。複数のアプローチを試し、間違いを自己修正してから最終回答を出します。

この手法により、数学やプログラミングの難問において、正答率の向上が報告されています[4]。OpenAIのサム・アルトマンCEOは、この方向性の延長線上にAGIがあると主張しています。

ルカン路線:世界モデルによる根本的な刷新

一方、ルカンは、LLMをいくらスケールさせても、構造的な限界は克服できないと考えています。

ルカンが言う「構造的な限界」とは何か

ここでいう構造的な限界とは、モデルを大きくする(スケールさせる)だけでは埋まりにくい、学習の目標設定や入力の性質に由来する弱点を指します。要点は、「文章の続きを作ること」と「世界の中で先を見通して行動すること」は、必要な能力が重なる部分もある一方で、完全には同じではない、という点です。

特にルカンが問題にしているのは、次の4点です。

たとえば(例)、料理なら「切る→火をつける→焼く→盛り付け」のように順序の依存関係があり、旅行なら「チケット→移動→宿→当日の行動」のように制約が積み重なります。文章は途中で少し話が逸れても読めてしまう一方で、計画は最後まで整合していないと破綻します。

ルカンは、こうした差が「スケールすれば自然に消える」とは限らない、と指摘しています。

「人々は、LLMをスケールさせればいずれ人間レベルの知能に到達するという幻想、あるいは妄想を抱いています。それは単に間違いです」[1]

ここで重要なのは、ルカンがインタビューで「LLMを捨てる」のではなく、「LLM“だけ”に知能のすべてを背負わせない」と述べている点です[1]。将来のAIは、言語・知覚・予測・計画といった機能を、それぞれ得意な部品に分けて組み合わせるべきだ、という発想です。

その前提で、ルカンは「LLMは言語を扱う部品として残り、世界モデルが物理世界を理解する部品として機能する」と説明しています[1]。さらに彼は、最近のAIシステムはすでに複数の要素から成り立っており、LLMはその「指揮者」になる、と述べています。

「現在のAIの『表の顔』と言えばLLMや各種チャットボットですが、最近のそれらはもはや純粋なLLMではありません。LLMに加え、知覚システムや特定の課題を解くコードなど、さまざまな要素が統合されています。そのため、LLMは、システムの『指揮者』のような存在として位置づけられるでしょう」[1]

本記事でいう「LLMが全体を統合する」とは、LLMがユーザーの指示を目標や手順に分解し、必要に応じて世界モデルなど他の部品に問い合わせ、その結果をまとめて人間に返す――いわば司令塔(オーケストレーター)として振る舞う、という意味です。

両者は競合か、統合か

両陣営とも相手のアプローチを完全に否定しているわけではありません。

OpenAIも、ロボティクスや動画生成(Sora)に取り組んでおり、物理世界の理解を目指す研究を進めています。一方、ルカンも「LLMが無価値だ」とは言っていません。彼が批判しているのは、「LLMだけでAGIに到達できる」という考え方です。

最終的なAGIの完成形は、両方の要素を含む可能性があります。言語理解(LLM)、物理世界の理解(世界モデル)、論理的推論(数式やルールに基づく厳密な計算との組み合わせ)——これらが統合されたシステムが、人間レベルの知能を持つAIになるという見方もあります。

6. 得られる示唆

ここでは、ルカンの動きが一般のAI利用者にとって何を意味するかを整理します。

現在のLLMツールの価値は変わらない

ルカンの主張は、「ChatGPTやClaudeが今すぐ使えなくなる」ということではありません。むしろ逆です。LLMが「研究」から「製品」のフェーズに移行したということは、今後も安定した改善が続き、ビジネスツールとしての信頼性が高まることを意味します。

現在のLLMは、文章作成、情報整理、プログラミング支援といったタスクにおいて、すでに十分な実用性を持っています。これらの用途でLLMを活用することに、何ら問題はありません。

「次の波」を見据える

一方で、ルカンの動きは「次の波」の兆候でもあります。世界モデルが実用化されれば、以下のような領域で変化が起きる可能性があります。

オープンソースの重要性

ルカンがAMIで目指すもう一つの柱は、オープンソースです。彼は、AIプラットフォームが米国の独占企業か中国のモデルかという二択になることを懸念しています。

「将来のモデルは、誰でも微調整でき、異なる言語能力、価値観、政治的バイアス、関心の中心を持つ、非常に多様なAIアシスタンスを生み出せるべきです」[1]

欧州発のオープンソースAI企業という選択肢が生まれることは、AI技術の多様性という観点からも意味を持ちます。

7. 結論

ヤン・ルカンのメタ退社とAMI設立は、AI業界における一つの転換点を示しています。

LLMは強力なツールであり、今後も発展を続けます。しかし、それだけでAGIに到達できるかどうかは、専門家の間でも意見が分かれています。ルカンは「できない」と考える側の代表格であり、その信念に基づいて自ら行動に出ました。

世界モデルというアプローチが成功するかどうかは、まだわかりません。しかし、ディープラーニングの父の一人が、「次の10年」を賭けて取り組む価値があると判断したテーマであることは確かです。

私たちにできるのは、現在のLLMツールを有効に活用しながら、「次の波」がどのような形で訪れるのかを注視し続けることです。ルカンの挑戦は、その波の形を予測するための重要な手がかりを与えてくれています。

参考文献

[1] Chen, C. (2026). "LLMは研究の対象ではない——AI界の異端児ヤン・ルカン 新会社設立の狙いを語る". MIT Technology Review 日本版. https://www.technologyreview.jp/s/376613/yann-lecuns-new-venture-is-a-contrarian-bet-against-large-language-models/ https://www.technologyreview.jp/s/376613/yann-lecuns-new-venture-is-a-contrarian-bet-against-large-language-models/

[2] 池本毅. (2025). "生成AIの『次単語予測』限界論と、次世代『思考するAI』への4つの道筋". note. https://note.com/entikemoto/n/n2297e0373956 https://note.com/entikemoto/n/n2297e0373956

[3] LeCun, Y. (2022). "A Path Towards Autonomous Machine Intelligence". OpenReview. https://openreview.net/pdf?id=BZ5a1r-kVsf https://openreview.net/pdf?id=BZ5a1r-kVsf

[4] OpenAI. (2024). "OpenAI o1 System Card". arXiv preprint arXiv:2412.16720. https://arxiv.org/abs/2412.16720 https://arxiv.org/abs/2412.16720