XDiversity

From Wikipedia, the free encyclopedia

xDiversity(クロス・ダイバーシティ)は、科学技術振興機構(JST)CRESTに採択された研究プロジェクト、およびその活動を継承する一般社団法人xDiversityの総称である。正式な研究課題名は「計算機によって多様性を実現する社会に向けた超AI基盤に基づく空間視聴触覚技術の社会実装」[1]。研究代表者は落合陽一筑波大学准教授)[2]

AI技術の個人最適化と空間視聴触覚技術を統合し、障害や身体的特性による困難を人機一体で超克することを目指す[3]。「技術の多様性」と「問題の多様性」を掛け合わせ(cross)、多様な情報技術と多様な課題を接続する点にプロジェクト名の由来がある[4]

xDiversityは、超高齢社会である日本において、障害の有無や年齢に関わらず人々が共に喜びを見出せる社会の実現をテクノロジーで目指すプロジェクトである[2]。聴覚支援デバイス、ロボット義足、視覚支援デバイスなどの支援ハードウェアと、ユーザー特性モデリングによる適応学習の仕組みを組み合わせた「xDiversity AIプラットフォーム」の構築を中核課題とした[1]

従来、障害を持つ個人が自ら大きなコストをかけて課題を解決せざるを得なかった状況に対し、既存の製品・サービス・データとAIを組み合わせることで迅速にソリューションを生み出すアプローチを採る[5]

沿革

xDiversityの主な沿革
年月出来事
2017年10月JST CREST 研究領域「人間と情報環境の共生インタラクション基盤技術の創出と展開」(研究総括:栄藤稔)に採択、研究開始[1]
2018年4月第1回「耳で聴かない音楽会」開催(落合陽一×日本フィルハーモニー交響楽団[6]
2018年11月30日一般社団法人xDiversity設立[7]
2020年10月READYFORにて第1期サポーター募集(クラウドファンディング)開始[8]
2022年5月乙武義足プロジェクト、国立競技場トラックにて117メートル歩行達成[9]
2023年1月書籍『xDiversityという可能性の挑戦』(講談社)刊行[10]
2023年3月JST CRESTプロジェクトとしての研究期間終了[4]
2024年xMod発売(M5Stack・スイッチサイエンスと共同開発)[11]
2025年4月令和7年度文部科学大臣表彰 科学技術賞(理解増進部門)受賞[12]

組織

JST CRESTプロジェクト

2017年度に採択されたJST CRESTの研究課題であり、研究領域は「イノベーション創発に資する人工知能基盤技術の創出と統合化」(研究総括:栄藤稔大阪大学教授)である[1]。研究期間は2017年10月から2023年3月までの約5年半[4]

研究チームは4つの領域に分かれ、それぞれ以下の主要メンバーが担当した[5][4]

研究者所属(プロジェクト当時)担当領域
落合陽一(研究代表者)筑波大学准教授 / ピクシーダストテクノロジーズ代表取締役3D空間視聴触覚
菅野裕介東京大学生産技術研究所准教授コンピュータビジョン / 機械学習
遠藤謙ソニーコンピュータサイエンス研究所研究員 / Xiborg代表取締役ロボティクス / 義肢
本多達也富士通 / Ontenna開発リーダーUIデザイン / 聴覚支援デバイス

一般社団法人xDiversity

2018年11月30日に設立された[7]。JST CRESTプロジェクトの社会実装・ライセンス化を加速するために法人格を取得した[13]ピクシーダストテクノロジーズから落合陽一(代表理事)および村上泰一郎(業務執行理事)が理事として派遣された[13]

CRESTプロジェクト終了後も一般社団法人として活動を継続し、ワークショップ開催、デバイス開発、クラウドファンディングによるサポーター募集(第1期〜第3期)などを行っている[8][14]

主な研究成果・プロジェクト

耳で聴かない音楽会

落合陽一と日本フィルハーモニー交響楽団のコラボレーションにより、2018年4月に第1回が開催された[6][15]。聴覚に障害のある人々がオーケストラの音楽を体感できるよう、埋め込みスピーカーを備えたウェアラブルデバイス「LIVE JACKET」を用いて、振動と触覚を通じて音楽を全身で感じる体験を提供する[6]

後に「SOUND HUG」(光と振動で音楽を感じるデバイス)へと発展し、複数回にわたりクラウドファンディングを通じて公演が継続された[16]

See-Through Captions

聴覚障害者向けのリアルタイム字幕表示システム。透明ディスプレイの両面に音声認識による字幕を表示し、話者の表情やボディランゲージを確認しながら会話内容をテキストで把握できる[17]。筑波大学デジタルネイチャー研究室で開発され、据え置き型とポータブル型の2形態が存在する[17]日本科学未来館での展示ツアーにも活用され、聴覚障害者を対象とした実証実験が行われた[18]

Ontenna

音の大きさを振動と光の強さにリアルタイム変換するデバイス。「音のアンテナ」を意味する造語であり、髪の毛や耳たぶに装着して使用する[19]。本多達也(富士通)が開発を主導し、xDiversityプロジェクトにおいて社会実装が推進された[4]。全国のろう学校の約80%に導入され、発話練習やリズム練習、STEAM教育に活用されている[20][21]

乙武義足プロジェクト(OTOTAKE PROJECT)

遠藤謙ソニーコンピュータサイエンス研究所・Xiborg)が開発したロボット義足「SHOEBILL」を用いて、先天性四肢欠損の乙武洋匡が二足歩行に挑戦するプロジェクト[22]。2018年に開始され、2021年には日本科学未来館にて50メートル超の歩行を達成[22]、2022年5月には国立競技場のトラックで117メートル(7分44秒)の歩行を記録した[9]。SHOEBILLは2016年からソニーCSLとXiborgの共同プロジェクトとして開発されてきたロボット義足である[23]

Holographic Whisper

複数の超音波トランスデューサを個別に駆動し、空中に超音波焦点を形成することで、その焦点からのみ可聴音を発生させる空間音響提示装置[24]。ビームスピーカーとは異なり、焦点から全方向に音が伝播する点音源スピーカーとして機能し、特定の人物だけに耳元で囁くように音を届けることが可能である[25]

Telewheelchair

遠隔制御機能と計算機による操作支援機能を備えた電動車椅子システム。介護者がヘッドマウントディスプレイを介して遠隔操作でき、人検知システムによる自動停止・衝突回避機能を搭載する[26]

Air Mount Retinal Projector

メタマテリアルミラーを用いることで、従来の網膜投影の課題を解決する光学システム。SIGGRAPH 2018にて「Make your own Retinal Projector」として発表された[27]。視覚支援への応用が研究されている。

OTON GLASS

視覚障害者向けに、視野内のテキストを読み上げるウェアラブルデバイス。島影圭佑が開発し、YouFab Global Creative Awards 2016でグランプリを受賞した[28]。xDiversityプロジェクト内では「ファブビオトープ」(FabBiotope)構想へと発展した[10]

xMod

一般社団法人xDiversityがM5Stack Technology(深圳)およびスイッチサイエンスと共同開発した教育用デバイス[11]。ロボットトイ「toio」とM5Stack Core2/CoreS3を接続し、触覚フィードバック(振動アクチュエータ)、ライン出力、MIDI入出力などの機能を備える[29]。視覚障害者向けの非視覚プログラミング環境の構築から開発が始まり、プログラミング初心者や子どもにも使いやすい設計となっている[11]

日本科学未来館

xDiversityプロジェクトは日本科学未来館(東京都江東区)の研究エリアに拠点を持ち、科学コミュニケーターとの協働による展示・ワークショップを実施している[2]。透明字幕パネルを用いた展示ツアー(手話通訳付き)やAIをテーマとしたトークイベント、音探検ツアーなどのインクルーシブな科学コミュニケーション活動を展開している[30]

情報発信

xTalk

xDiversityメンバーとゲストによるトークイベントシリーズ「xTalk(クロス・トーク)」を定期的に開催しており、YouTube Liveでの配信に加え、ポッドキャストとしても配信されている[31][32]

シンポジウム

JST CREST xDiversityシンポジウムを定期的に開催し、研究成果の発表と社会への共有を行ってきた[33]

受賞

  • 令和7年度(2025年)文部科学大臣表彰 科学技術賞(理解増進部門)[12][34]
    • 業績名:「AI技術の社会実装による身体/認知的多様性の理解増進」
    • 受賞者:落合陽一(筑波大学デジタルネイチャー開発研究センターセンター長・准教授 / 一般社団法人xDiversity代表理事)、遠藤謙(ソニーコンピュータサイエンス研究所シニアリサーチサイエンティスト / 一般社団法人xDiversity理事)、菅野裕介(東京大学生産技術研究所准教授 / 一般社団法人xDiversity理事)、本多達也(富士通 / 一般社団法人xDiversity理事)

書籍

脚注

外部リンク

Related Articles

Wikiwand AI