サフラン・フアン

From Wikipedia, the free encyclopedia

生誕 ニュージーランドの旗 ニュージーランド オークランド
教育 ハーバード大学(応用数学・コンピュータサイエンス学士、2020年)
職業 研究者・著述家・テクノロジスト
雇用者 Anthropic
サフラン・フアン
Saffron Huang
生誕 ニュージーランドの旗 ニュージーランド オークランド
教育 ハーバード大学(応用数学・コンピュータサイエンス学士、2020年)
職業 研究者・著述家・テクノロジスト
雇用者 Anthropic
著名な実績 集合知プロジェクト共同創設、AIと民主主義の研究
テンプレートを表示

サフラン・フアン(Saffron Huang)は、ニュージーランド出身のテクノロジスト・研究者・著述家。人工知能(AI)と民主主義のガバナンスおよび社会的影響の交差点に位置する研究で知られる。現在はAnthropicの社会的影響チーム(Societal Impacts team)に所属する研究科学者であり、集合知プロジェクト(Collective Intelligence Project, CIP)の共同創設者でもある[1]。2024年、タイム誌の「AIにおける最も影響力のある100人」に選出された[2]

生い立ちと教育

サフラン・フアンはニュージーランドのオークランドで生まれ育った。オークランドは「世界の他の地域からとても遠く感じられる」場所であり、高校時代から海外の大学進学を志していた[3]。米国の大学の需要ブラインド型奨学金制度に魅力を感じ、ハーバード大学に進学することを決意した[4]

ハーバード大学では工学・応用科学大学院(SEAS)にて応用数学・コンピュータサイエンスを専攻し、副専攻として政治学およびドイツ語を選択。2020年に学士号を取得した[5]。在学中はバークマン・クライン・インターネット&社会センターに参加し、AIと社会の関係に関する研究に取り組んだ。また、2019年には英国外務英連邦省でインターンシップを経験し、国際関係とAIの交差点を探求した[5]。同年、冬休みにペルーを訪れてアマゾン川流域における違法採掘の影響を調査し、技術的問題の根本は政治・経済にあるという洞察を得た。この経験が、学際的アプローチへの信念を深めた[5]

キャリア

ハーバード大学卒業後、Google DeepMind(当時DeepMind)に研究エンジニアとして入社。言語モデル、人間とAIのインタラクション、概念的推論、価値アライメント、マルチエージェント強化学習など幅広いテーマで研究に従事した[6]

2022年9月、ディヴィヤ・シッダース(Divya Siddarth)とともに集合知プロジェクト(CIP)を共同創設[5]。CIPは、AI開発を民主化し、市民が変革的技術のガバナンスに参加できる新たなモデルを模索する非営利の研究・開発機関である。

2023年には英国AI安全性研究所(UK AI Safety Institute)にてシッダールスとともに社会的影響チームの立ち上げに貢献し、AI新モデルリリースに対して市民がリスク評価に意見を表明できる仕組みを構築した[7]

その後、Anthropicの社会的影響チーム(Societal Impacts team)に研究科学者として加わり、AIシステムが現実の会話においてどのような価値判断を下すかを分析するプロジェクト(「Values in the Wild」「Clio」など)を主導している[8]

2024年5月にサンフランシスコへ移住。現在もAnthropicに所属しつつ、CIPのアドバイザーとして活動を継続している[9]

研究・活動

集合知プロジェクト

集合知プロジェクト(CIP)は、「変革的技術に関する集合的なガバナンスモデルの実験場」として位置付けられており、AI開発への市民参加を促進する新たな仕組みを研究・実装している。フアンとシッダールスは、現在のAI開発が少数の富裕な技術企業に集中していることを「民主的な未来のための処方箋とは言えない」と批判的に捉え、より広い市民の声をAI開発に反映させる取り組みを推進してきた[10]

CIPの主要な活動として「アライメント・アセンブリ(Alignment Assembly)」が挙げられる。2023年にはAnthropicと協力し、米国の代表的な市民約1,000人を対象に、理想的なAIアシスタントが持つべき価値観を市民が起草する実証実験を実施した。この研究はのちに「Collective Constitutional AI」として学術論文にまとめられ、AIの偏向を若干低減させる効果が確認された[11]。また台湾デジタル担当大臣オードリー・タンとも協働し、台湾の言語・文化的文脈に沿った大規模言語モデルの調整に向けた市民アセンブリを実施した[12]

CIPはまたOpenAIや英国デジタル省など多くの機関とも連携し、AIガバナンスへの市民参加の実証例を世界各地で積み重ねている[13]

Anthropicでの研究

Anthropicの社会的影響チームでは、AIが現実世界でどのように使われ、どのような価値を体現しているかを明らかにするツール開発と調査を担っている。主な成果として以下が挙げられる。

Clio
数百万件の実際のAI会話をプライバシーに配慮した形で分析するシステム(2024年)[14]
Values in the Wild
実際のAI利用において言語モデルが示す価値観の分類法を開発し、3,307種の価値観タクソノミーを公開(2025年)[15]
Anthropic Interviewer
AIを活用して大規模な定性的インタビューを実施するシステム(2025年)[16]

著述活動

フアンは研究活動と並行して、技術と社会についての著述も行っている。『Letters to a Young Technologist』(2021年)に収録された「What is Technology?」および「To Be a Technologist is to be Human」の2本のエッセイを執筆した[17]。また、ハーバード在学中には雑誌『Kernel Magazine』を共同創刊し、クリエイティブ・ディレクターも務めた[18]

寄稿媒体には、WIRED、ニュー・ステイツマン、Noema Magazine、The Point、Rebootなどが含まれる[19]

受賞・評価

主要論文

  1. Saffron Huang, Esin Durmus, Miles McCain, Kunal Handa, et al., "Values in the Wild: Discovering and Analyzing Values in Real-World Language Model Interactions", Proceedings of the Conference on Language Modeling (COLM), 2025. “Values in the Wild”. arXiv. (2025). https://arxiv.org/abs/2504.15236 2026年3月22日閲覧。. 
  2. Kunal Handa, Alex Tamkin, Miles McCain, Saffron Huang, et al., "Which Economic Tasks are Performed with AI? Evidence from Millions of Claude Conversations", Anthropic, 2025. Which Economic Tasks are Performed with AI?”. 2026年3月22日閲覧。
  3. Lujain Ibrahim, Saffron Huang, Lama Ahmad, Umang Bhatt, Markus Anderljung, "Towards Interactive Evaluations for Interaction Harms in Human-AI Systems", Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society (AIES), 2025. Knight Columbia profile”. 2026年3月22日閲覧。
  4. Saffron Huang, Divya Siddarth, Liane Lovitt, Thomas I. Liao, Esin Durmus, Alex Tamkin, Deep Ganguli, "Collective Constitutional AI: Aligning a Language Model with Public Input", Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency (FAccT '24), pp. 1395–1417, 2024. doi:10.1145/3630106.3658979
  5. Alex Tamkin, Miles McCain, Kunal Handa, Esin Durmus, et al. (Anthropic Societal Impacts Team), "Clio: Privacy-Preserving Insights into Real-World AI Use", arXiv:2412.13678, 2024. “Clio”. arXiv. (2024). https://arxiv.org/abs/2412.13678 2026年3月22日閲覧。. 
  6. Christopher Summerfield, ..., Saffron Huang, et al., "The Impact of Advanced AI Systems on Democracy", Nature Human Behaviour, vol. 9, pp. 2420–2430, 2025 (arXiv preprint 2024). doi:10.1038/s41562-025-02309-z
  7. Saffron Huang, Divya Siddarth, "Generative AI and the Digital Commons", arXiv:2303.11074, 2023. doi:10.48550/arXiv.2303.11074
  8. Ethan Perez, Saffron Huang, Francis Song, Trevor Cai, Roman Ring, John Aslanides, Amelia Glaese, Nat McAleese, Geoffrey Irving, "Red Teaming Language Models with Language Models", Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 3419–3448, 2022. doi:10.18653/v1/2022.emnlp-main.225
  9. Jack W. Rae, Sebastian Borgeaud, Trevor Cai, ..., Saffron Huang, et al., "Scaling Language Models: Methods, Analysis & Insights from Training Gopher", arXiv:2112.11446, 2021. “Scaling Language Models: Gopher”. arXiv. (2021). https://arxiv.org/abs/2112.11446 2026年3月22日閲覧。. 

個人の価値観・思想

フアンの思想の根幹には、「テクノロジーは中立的なツールではなく、それを形成する人々の価値観と選択が深く埋め込まれたもの」という認識がある。自身の公式ウェブサイトでは、「テクノロジーとはある目的へのきわめて偶発的な経路である」と記し、技術開発が特定の利益構造や権力関係を生み出すことへの批判的な視座を一貫して示している[24]

この姿勢はエッセイ「What is Technology?」にも明確に表れている。たとえばFacebookInstagramはいずれも「人々をつなぐ」という同じ目的を持ちながら、InstagramはそのルートとしてAI視覚的な審美性を人々に植え付けており、技術は「中立な解法」ではなく特定の現実を構築するものだと論じている[25]

CIPの活動を通じたフアンの主要な主張は、「進歩安全参加(Progress, Safety, Participation)の三者をトレードオフとして捉えてはならない」というものである。多くの論者はそのうちふたつしか選ばないが、CIPはこの三つを同時に追求できるモデルを探求している[26]

また、「集合知(Collective Intelligence)」の概念についても独自の立場を展開している。フアンはDeepMindでの研究を踏まえ、集合知とはデータを効率的に集積することではなく、「集合として設定した目標に向かって、私たちが一緒に知性的に行動できているかどうか」だと定義する[27]

AIの評価方法についても、フアンは現行の静的ベンチマーク手法に根本的な限界があることを指摘している。実際のAI利用はシングルターンの質問応答にとどまらず、人々の世界観意思決定に影響を与えているにもかかわらず、それを捉える計測手法が整備されていないことを問題視しており、「AIの社会的影響を理解するための精密な計測器を構築することは、意味あるガバナンスの前提条件だ」と主張する[28]

さらに、AI開発の「政治経済学」という観点も重視しており、現在のシリコンバレー主導の開発体制がベンチャーキャピタル優先・急速スケール優先の技術を生み出す構造的問題を抱えていると批判する。「スタートアップを立ち上げてベンチャーキャピタルを調達する」というデフォルト前提が、特定の種類の技術とビジネスモデルを優遇し、長期的・社会公益的な目的のプロジェクトを不利にしていると指摘している[29]

フアンはペルーでの体験を通じて、問題の多くは政治・経済的な構造に起因しており、技術的介入だけでは解決できないという確信を得た[5]。この学際的視座はその後の研究姿勢全体に反映されており、AI研究者としての立場と社会科学民主主義理論の知見を結びつける独自のアプローチを形成している。

発言

外部リンク

脚注

Related Articles

Wikiwand AI