ニック・ジョセフ
From Wikipedia, the free encyclopedia
ニック・ジョセフ(Nick Joseph、生年非公開)は、アメリカ合衆国の人工知能研究者・機械学習エンジニアである。AIセーフティ企業Anthropicの共同創業者の一人であり、同社のトレーニング部門(Head of Training)を率いている。Anthropicの大規模言語モデル Claudeのトレーニングを統括するとともに、AI安全性評価の枠組みである「責任あるスケーリングポリシー(RSP)」の策定と推進に深く関与している。
ジョセフは機械学習の研究者として、Vica社(Vicarious)などの研究機関を経てOpenAIに参加した。OpenAIでは大規模言語モデルの開発研究に従事し、2021年には大規模コード生成モデルCodexの論文の共著者の一人として名を連ねた[1]。
2021年、ダリオ・アモデイおよびダニエラ・アモデイらOpenAI研究者たちと同社を離れ、AIセーフティを中心的な使命とする企業Anthropicを共同設立した[2]。
Anthropicにおいてジョセフは、モデルの事前学習(プレトレーニング)、ファインチューニング、強化学習を統括するトレーニング部門のヘッドを務め、40名以上の研究者・エンジニアからなるチームを率いている。同チームは事前学習済みモデルを製品として使用可能なアシスタントへと変換するプロセス全体を担っている[3]。
学術的業績
ジョセフはOpenAI在籍中から大規模言語モデルの研究を主導してきた。Anthropic設立後は、Constitutional AI(憲法的AI)やRLHF(人間のフィードバックからの強化学習)に関する中心的な論文にも共著者として参加している。
スケーリング則 (AI)の研究においては、Anthropic設立の契機ともなった「モデルサイズとデータ・計算量を増やすとモデル性能が予測可能に向上する」という知見の形成に関わった。ジョセフによれば、Anthropicの創業者の多くが携わったスケーリング則の初期研究が、GPT-3の開発(OpenAI在籍中)につながったという[4]。
Anthropicの安全性研究においては、大規模生成モデルの予測可能性と不確実性に関する論文「Predictability and Surprise in Large Generative Models」(ACM FAccT 2022)にも共著者として加わっている[5]。
主な論文
- Evaluating Large Language Models Trained on Code — Mark Chen, Jerry Tworek, Heewoo Jun, et al. (Nicholas Josephを含む). arXiv:2107.03374. 2021年7月. “Evaluating Large Language Models Trained on Code”. arXiv (2021年7月14日). 2026年4月7日閲覧。
- Constitutional AI: Harmlessness from AI Feedback — Yuntao Bai, Saurav Kadavath, Sandipan Kundu, Amanda Askell, et al. (Nicholas Josephを含む). arXiv:2212.08073. 2022年12月. “Constitutional AI: Harmlessness from AI Feedback”. arXiv (2022年12月15日). 2026年4月7日閲覧。
- A General Language Assistant as a Laboratory for Alignment — Amanda Askell, Yuntao Bai, Anna Chen, et al. (Nicholas Josephを含む). arXiv:2112.00861. 2021年12月. “A General Language Assistant as a Laboratory for Alignment”. arXiv (2021年12月2日). 2026年4月7日閲覧。
- Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback — Yuntao Bai, Andy Jones, Kamal Ndousse, et al. (Nicholas Josephを含む). arXiv:2204.05862. 2022年4月. “Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback”. arXiv (2022年4月12日). 2026年4月7日閲覧。
- Predictability and Surprise in Large Generative Models — Deep Ganguli, Danny Hernandez, Liane Lovitt, et al. (Nicholas Josephを含む). ACM FAccT '22. 2022年6月. “Predictability and Surprise in Large Generative Models”. ACM Digital Library (2022年6月21日). 2026年4月7日閲覧。