ジャリッド・カプラン
From Wikipedia, the free encyclopedia
ジャリッド・カプラン | |
|---|---|
| Jared Kaplan | |
|
| |
| 生誕 | アメリカ合衆国 |
| 国籍 | アメリカ人 |
| 出身校 |
スタンフォード大学(学士) ハーバード大学(博士) |
| 職業 | 理論物理学者、AI研究者、実業家 |
| 雇用者 | ジョンズ・ホプキンス大学、Anthropic |
| 著名な実績 | スケーリング則、Anthropic共同創設者 |
| 公式サイト | https://sites.krieger.jhu.edu/jared-kaplan/ |
ジャリッド・ダニエル・カプラン(Jared Daniel Kaplan)は、アメリカ合衆国の理論物理学者・人工知能研究者であり、AIセーフティ企業Anthropicの共同創設者および最高科学責任者(CSO)を務める。また、ジョンズ・ホプキンス大学物理学・天文学科の准教授でもある(現在は休職中)。AIの性能がモデルの規模・データ量・計算量に従って冪乗則的に向上するという「スケーリング則(Scaling Laws)」の確立に中心的な役割を果たし、現代の大規模言語モデル開発の基礎を築いた[1]。
学歴
スタンフォード大学で物理学と数学の学士号を取得した後[2]、ハーバード大学で物理学の博士号を取得した。博士論文のタイトルは "Aspects of Holography"(ホログラフィーの諸側面)であり、著名な理論物理学者ニーマ・アルカニ=ハメド(Nima Arkani-Hamed)の指導を受けた[3]。
学術キャリア(物理学)
博士号取得後、SLAC国立加速器研究所およびスタンフォード大学でポストドクトラルフェローを務めた。2012年よりジョンズ・ホプキンス大学准教授に着任し、量子重力、ホログラフィー(AdS/CFT対応)、共形場理論、素粒子物理学・宇宙論の関連分野を研究した[4]。同大学では深層学習の基礎に関する講義も担当した[2]。物理学者として活動した最初の15年間は、主に理論物理学の研究に専念していた[5]。
OpenAI時代
2019年にOpenAIの研究員として加わり、大規模言語モデルの研究に本格的に転向した[4]。OpenAIでは、GPT-3およびCodexの開発に中心的な役割を果たした[5]。2020年には共著論文「Scaling Laws for Neural Language Models」を発表し、言語モデルの性能がモデルサイズ・データセットサイズ・学習計算量の冪乗則に従って予測可能な形で向上することを実証した[6]。同年には「Language Models are Few-Shot Learners」(GPT-3論文)にも共著者として名を連ねた[7]。
Anthropic創設
2021年、OpenAI出身の研究者グループとともに、AIセーフティと研究を主目的とする企業Anthropicを共同で創設した。創設チームにはダリオ・アモデイ(CEO)、ダニエラ・アモデイらが含まれる[8]。Anthropicは「信頼できる・解釈可能な・操舵可能なAIシステムの構築」をミッションとして掲げており、カプランはその最高科学責任者として研究の方向性を主導している[9]。Anthropicにおいてカプランは、Constitutional AIの開発にも携わった[5]。
2024年10月、Anthropicはカプランが同社の「責任ある拡張担当責任者(Responsible Scaling Officer)」に就任すると発表した。この役職においてカプランは、モデルリリース前に実施すべき安全性評価と予防措置を決定する権限を持つ[10]。
研究
スケーリング則
カプランの最も著名な学術的貢献は、ニューラル言語モデルのスケーリング則の発見である。2020年に発表した論文(Kaplan et al.)は、言語モデルの損失(性能)がモデルパラメータ数・学習データ量・学習計算量のそれぞれと冪乗則の関係にあり、この傾向が7桁以上の範囲にわたって成立することを示した。この発見はGPT-3をはじめとする大規模言語モデルの開発戦略に直接的な影響を与え、AI研究の方向性を大きく変えた[11]。
素粒子物理学・量子重力
物理学者としてのキャリアでは、AdS/CFT対応(反ド・ジッター空間と共形場理論の双対性)を中心とするホログラフィー研究に取り組んだ。またニーマ・アルカニ=ハメドらとの共同研究では散乱振幅の新手法を開発し、「最も単純な量子場理論は何か」という問いに取り組んだ[12]。
AIセーフティ研究
Anthropicにおけるカプランのセーフティ研究の主要な柱として、メカニスティック解釈可能性(ニューラルネットワークを人間が理解できるアルゴリズムに逆工学的に分解しようとする試み)、スケーラブル・オーバーサイト(AIシステムが人間の価値観に従って行動するよう訓練する手法)、Constitutional AIが挙げられる[13]。
責任ある拡張政策(RSP)
Anthropicは2023年9月に「責任ある拡張政策(Responsible Scaling Policy, RSP)」を公表した。これはAIモデルの能力に応じて安全対策を段階的に強化することを約束する業界初の公開フレームワークであり、カプランがその運用を統括している[14]。
2025年5月、カプランはAnthropicの最新モデル「Claude 4 Opus」が、初歩的な知識しか持たない人物が生物兵器を開発しようとする際に支援できる可能性があるとの社内評価を踏まえ、同モデルを「AIセーフティレベル3(ASL-3)」に指定することを決定した。これはAnthropicのモデルとしては初のASL-3指定であり、ジェイルブレイク(安全上の防壁を迂回する操作)への対策強化やモデル漏洩防止措置が義務付けられた[15]。
2026年2月、AnthropicはRSPの大幅な改訂を発表した。改訂版では、一定の能力閾値を超えたモデルの学習を停止するという従来の絶対的なコミットメントが削除された。カプランはTIME誌のインタビューにおいて、競合他社が開発を続ける状況でAnthropicのみが一方的に開発を停止することは有益ではないとの判断を説明した[16]。
受賞・表彰
主要論文
- Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei. "Scaling Laws for Neural Language Models". arXiv:2001.08361. 2020年. “Scaling Laws for Neural Language Models”. 2026年3月13日閲覧。
- Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan et al. "Language Models are Few-Shot Learners". Advances in Neural Information Processing Systems, 33. 2020年. “Language Models are Few-Shot Learners”. 2026年3月13日閲覧。
- A. Liam Fitzpatrick, Jared Kaplan, João Penedones, Suvrat Raju, Balt C. van Rees. "A Natural Language for AdS/CFT Correlators". Journal of High Energy Physics. 2011年. A. L. Fitzpatrick et al. (2011). “A Natural Language for AdS/CFT Correlators”. Journal of High Energy Physics.
主要な思想と概念
カプランの研究と思想を理解する上で、以下の4つの概念が中心をなす。これらは相互に関連しており、「どうすれば人類はAIの発展を安全に制御できるか」という根本的問いへの彼の回答を構成している。
スケーリング則(Scaling Laws)
スケーリング則とは、ニューラル言語モデルの性能(テスト損失)が、モデルのパラメータ数(N)・学習データ量(D)・学習計算量(C)のそれぞれと冪乗則(べき乗則)の関係にある、という経験的法則である。2020年にカプランらが発表した論文「Scaling Laws for Neural Language Models」において、この関係が7桁以上の広大な範囲にわたって成立することが実証された[18]。
この発見の意義は、AIモデルの性能向上が「予測可能」であることを示した点にある。それ以前の研究者たちは、モデルを大きくすれば性能が上がるという直感は持っていたものの、どの程度上がるかを数式で予測する手段を持っていなかった。カプランらはこれを精密化し、「パラメータ数を10倍にすれば損失がどれだけ下がるか」「一定の計算予算を与えられたとき、モデルをどのくらいの大きさにしデータをどれだけ使うのが最適か」を定量的に導き出すことを可能にした[19]。
論文の重要な実践的含意のひとつは、「大規模なモデルは小規模なモデルよりもサンプル効率がはるかに高い」という点である。このことは、計算コストが許す限りモデルを大きくすることが合理的であることを示唆し、GPT-3をはじめとする後の大規模言語モデルの開発戦略に直接の影響を与えた[20]。
カプラン自身は、物理学者としての素養——とりわけ「べき乗則か指数関数かを問い直す」という基本的問いへの执着——がこの発見を導いたと語っている。AI研究の世界では、学習の収束は指数関数的だと言われることがあったが、カプランはそれを疑い、実際には冪乗則であることを明示したのである。
信頼できる・解釈可能な・操舵可能なAIシステムの構築
Anthropicの設立理念はシンプルな三つの形容詞に集約される——「信頼できる(reliable)」「解釈可能な(interpretable)」「操舵可能な(steerable)」なAIシステムの構築である[2]。カプランはこの理念をAnthropicの組織的存在理由の中核に置いており、三つの言葉はそれぞれ異なる技術的・哲学的課題を指し示している。
「信頼できる」とは、モデルが与えられたタスクを一貫して正確にこなすことを指す。「解釈可能な」とは、モデルの内部動作が人間に理解可能であることを意味し、後述するメカニスティック解釈可能性研究の目標と直結する。「操舵可能な」とは、人間がモデルの振る舞いを意図した方向へ誘導・制御できることを指す。この三つは相互補完的であり、たとえば「解釈可能性」が高まれば、どこに問題があるかを特定しやすくなり、「操舵可能性」の改善にもつながる。
カプランが強調するのは、これらは単なる技術仕様ではなく、AIが人間の価値観と利益のために機能し続けるための根本条件だという点である。AIが人間よりも賢くなっていく過程で、この条件を技術的に担保し続けることが、Anthropicの研究活動の核心をなしている[21]。
メカニスティック解釈可能性とスケーラブル・オーバーサイト
メカニスティック解釈可能性(Mechanistic Interpretability)とは、ニューラルネットワークの内部動作を、人間が理解できるアルゴリズムのレベルにまで逆工学的に分解しようとする研究分野である。カプランはこれを「未知の、場合によっては危険なコンピュータプログラムを逆工学する作業」に例え、将来的にはモデルの「コードレビュー」に相当するものを可能にし、安全性の監査や保証に使えることを目標として位置づけている[22]。
Anthropicの解釈可能性チームが取り組む具体的な手法としては、ニューラルネットワーク内の「回路」(特定の動作を実現するニューロン群の接続パターン)のトレースや、スパースオートエンコーダを用いた特徴量の単義化(個々のニューロンが複数の概念を混在させる「多義性」問題の解消)などがある[23]。2025年3月には、モデルの思考過程を追跡する「回路トレーシング」手法が公開され、モデルが複数言語にわたる共通の概念空間を持つ可能性が示唆された[24]。
スケーラブル・オーバーサイト(Scalable Oversight)は、AIシステムが高度化するにつれて生じる本質的な問題——人間の監督能力がAIの能力を下回るようになる——に対処するための研究分野である。人間が全ての判断・出力を正確に評価できなくなった場合でも、AIが人間の価値観に従って行動し続けるよう訓練する手法の開発を目指す[25]。
主なアプローチとして、タスク分解(複雑な作業を人間が評価できる小タスクに分割する)、AIを用いたAI監督の補助(より賢いモデルによる弱いモデルの監督)、Constitutional AI(明示的な原則リストを用いたAIの自己批評と改善)などが挙げられる。カプランはこれらを組み合わせることで、わずかな高品質な人間の監督を、大量の高品質なAI監督へと「増幅」することを目指している[26]。
責任ある拡張政策(Responsible Scaling Policy, RSP)
RSPは、AIの能力上昇に比例して安全対策を段階的に強化するという原則——「比例的保護(proportional protection)」——に基づく枠組みである。Anthropicは2023年9月にバージョン1.0を公表し、これが業界初の公開コミットメントとなった[27]。
RSPの中核をなすのは「AIセーフティレベル(ASL)」という段階的分類体系である。これはアメリカ政府のバイオセーフティレベル(BSL)基準を参考にしており、モデルの危険能力の高まりに応じてより厳格なセーフティ・セキュリティ措置を要求する。現行の定義では以下のように分類される[28]。
- ASL-1:現実的な壊滅的リスクを持たないシステム(例:チェスAI)
- ASL-2:危険能力の初期兆候を示すシステム(例:生物兵器の情報を提供できるが、実用的な脅威にはならない水準)
- ASL-3:既存の非AIツール(検索エンジン等)と比較して壊滅的な悪用リスクを大幅に高めるシステム、または低レベルの自律能力を示すシステム
- ASL-4以上:現時点では未定義だが、壊滅的悪用可能性と自律性においてさらなる質的飛躍を伴うと予想される
RSPの重要な設計思想として、「安全性の問題を解決することが次のレベルへの拡張を可能にする」という構造がある。これにより、競争上の圧力を「底辺への競争」ではなく「頂点への競争」に変換することが意図されている。カプランはOpenAIおよびGoogle DeepMindが類似の枠組みを採用したことを、この構想が機能している証拠として挙げている[29]。
RSPは2024年10月(バージョン2.0)、2026年2月(バージョン3.0)にも改訂された。とくに2026年の改訂では、一定の能力閾値を超えたモデルの学習を絶対的に停止するというコミットメントが削除され、競合他社が開発を続ける状況での一方的停止の実効性について再評価が行われた[30]。
発言
前節の彼の思想の理解を助けるため、彼自身の言葉を引用し、また各言葉への解説も示す。
再帰的自己改善と知能爆発
AIが自律的に自身より高性能な次世代AIを訓練するようになるとき、何が起きるか——これはカプランが「人類史上最大の決断」と呼ぶ問題である。誰も介在しなくなった自律的改善のサイクルは制御不能になりうる。しかし同時に、そのような技術が特定の個人や勢力に独占されることもまた、それと同等以上の危険だとカプランは考えている。以下の発言はいずれも、2025年12月にThe Guardianが掲載したインタビューおよびその関連報道に基づく。
- 「人類は2030年までに、究極のリスクを取るかどうかを決断しなければなりません——AIシステムが自律的に自分自身をより強力に訓練することを許可するかどうか、という問いです。」
- (原文:"Humanity will have to decide by 2030 whether to take the 'ultimate risk' of letting artificial intelligence systems train themselves to become more powerful.")[31]
- 「AIに繰り返し自己改良をさせることは、ある意味で究極のリスクなんです。AIを野放しにすることに等しいですから。」
- (原文:"Allowing AI to make iterative improvements, in some ways, this is the biggest risk. Because it is like letting AI go unchecked.")[32]
- 「あなた自身より賢いAIを作り出し、そのAIがさらに賢いAIを作る——そのプロセスを想像してみてください。そのAIはさらに賢いAIを作るのを手伝ってもらうでしょう。とても恐ろしい過程に聞こえますね。どこに行き着くのか、誰にもわかりません。」
- (原文:"If you imagine you create this process where you have an AI that is smarter than you, or about as smart as you, it's [then] making an AI that's much smarter. It's going to enlist that AI help to make an AI smarter than that. It sounds like a kind of scary process. You don't know where you end up.")[33]
- 「AIがとてつもなく賢い存在を生み出してしまったとき、その権力の乱用を防ぐことがとても重要です。誰かが『このAIを私の奴隷にしたい、私の意志だけを実行させたい』と考えるようなことは、避けなければなりません。」
- (原文:"It seems very dangerous for it to fall into the wrong hands. You can imagine some person [deciding]: 'I want this AI to just be my slave. I want it to enact my will.' I think preventing power grabs — preventing misuse of the technology — is also very important.") [34]
- 「AIが自律的に次世代AIを訓練することは、極めてリスクの高い決断です。一度誰も関与しなくなると、AIが本当に何をしているのかわからなくなりますから。」
- (原文:"That's the thing that we view as maybe the biggest decision or scariest thing to do… once no one's involved in the process, you don't really know. One is do you lose control over it? Do you even know what the AIs are doing?")[35]
AIセーフティと責任ある開発
カプランのAIセーフティへの姿勢は、リスクを否定も過大評価もせず、現在から着実に備えるという実証的・実践的なスタンスに特徴がある。以下の発言は、Anthropicの設立理念から、2026年のRSP改訂における「競合他社が前進する中での一方的なコミットメントの限界」という難問への応答までを含む。AIの潜在的な恩恵と危険の両方を正面から認めながら、それでも前進することを選ぶ理由が語られている。
- 「AIの影響は、産業革命や科学革命に匹敵するかもしれません。そしてその影響はもうすぐ始まるかもしれない——おそらくこの10年以内に。AIがもたらす恩恵は真に深遠なものになるでしょう。」
- (原文:"We founded Anthropic because we believe the impact of AI might be comparable to that of the industrial and scientific revolutions. We also believe this level of impact could start to arrive soon—perhaps in the coming decade—and the benefits of AI will be truly profound.")[36]
- 「Anthropicは『口で言うのではなく、行動で示す』ことを信念としています。セーフティを重視した研究を継続的に発表することに注力してきました。」
- (原文:"At Anthropic, our motto has been 'show, don't tell,' and we've focused on releasing a steady stream of safety-oriented research that we believe has broad value for the AI community.")[37]
- 「もし競合他社のすべてが壊滅的なリスクについて透明性をもって正しいことをしているならば、私たちはそれと同等かそれ以上の取り組みをすることを約束します。でも、他社が前進しているときに私たちだけAI研究を止めることが意味をなすとは思えないんです。」
- (原文:"If all of our competitors are transparently doing the right thing when it comes to catastrophic risk, we are committed to doing as well or better. But we don't think it makes sense for us to stop engaging with AI research, AI safety, and most likely lose relevance as an innovator who understands the frontier of the technology, in a scenario where others are going ahead and we're not actually contributing any additional risk to the ecosystem.") [38]
- 「私たちがモデルのトレーニングを停止することが、誰かのためになるとは思えませんでした。競合他社がどんどん先へ進む中、一方的なコミットメントをすることは意味をなさないと感じていたんです。」
- (原文:"We felt that it wouldn't actually help anyone for us to stop training AI models. We didn't really feel, with the rapid advance of AI, that it made sense for us to make unilateral commitments … if competitors are blazing ahead.") [39]
- 「AIが人類にとって有益かどうか——それが核心にある問いです。AIは役に立つか、無害か、人々のことを理解しているか、人々が自分の人生と世界に対する主体性を持ち続けられるようにしてくれるか、ということです。」
- (原文:"The main question there is: are the AIs good for humanity? Are they helpful? Are they going to be harmless? Do they understand people? Are they going to allow people to continue to have agency over their lives and over the world?") [40]
米国上院AI Insight Forumでの証言(2023年)
2023年12月6日、カプランは米国上院主催の「AI Insight Forum:リスク、アライメント、および破滅的シナリオへの対策」に書面証言を提出した。この証言においてカプランは、フロンティアモデルに対する実証的なセーフティ研究の必要性と、そのトレードオフ——セーフティ研究を進めること自体が危険な技術の加速につながりうる——について、明確な立場を示した。以下の発言はその書面証言からの抜粋である[41]。
- 「フロンティアのAIシステムに関するセーフティ研究が必要だということ、それがAnthropicという組織が存在する大きな理由のひとつです。この研究を進めるには、大規模モデルを扱いながらセーフティを優先できる機関が必要なんです。」
- (原文:"A major reason Anthropic exists as an organization is because we believe that safety research on 'frontier' AI systems is necessary. Conducting this safety research requires an institution that can both work with large models and prioritize safety.") [42]
- 「経験的なセーフティ研究に大規模モデルが必要とすれば、難しいトレードオフに直面します。セーフティを動機とした研究が、危険な技術の展開を加速させる事態は全力で避けなければなりません。しかし、過度な慎重さによって、最もセーフティ意識の高い研究努力がフロンティアから大きく後れを取ることも許してはなりません。」
- (原文:"We must make every effort to avoid a scenario in which safety-motivated research accelerates the deployment of dangerous technologies. But we also cannot let excessive caution make it so that the most safety-conscious research efforts only ever engage with systems that are far behind the frontier, thereby dramatically slowing down vital research.")