XDiversity
From Wikipedia, the free encyclopedia
xDiversity(クロス・ダイバーシティ)は、科学技術振興機構(JST)CRESTに採択された研究プロジェクト、およびその活動を継承する一般社団法人xDiversityの総称である。正式な研究課題名は「計算機によって多様性を実現する社会に向けた超AI基盤に基づく空間視聴触覚技術の社会実装」[1]。研究代表者は落合陽一(筑波大学准教授)[2]。
AI技術の個人最適化と空間視聴触覚技術を統合し、障害や身体的特性による困難を人機一体で超克することを目指す[3]。「技術の多様性」と「問題の多様性」を掛け合わせ(cross)、多様な情報技術と多様な課題を接続する点にプロジェクト名の由来がある[4]。
沿革
| 年月 | 出来事 |
|---|---|
| 2017年10月 | JST CREST 研究領域「人間と情報環境の共生インタラクション基盤技術の創出と展開」(研究総括:栄藤稔)に採択、研究開始[1] |
| 2018年4月 | 第1回「耳で聴かない音楽会」開催(落合陽一×日本フィルハーモニー交響楽団)[6] |
| 2018年11月30日 | 一般社団法人xDiversity設立[7] |
| 2020年10月 | READYFORにて第1期サポーター募集(クラウドファンディング)開始[8] |
| 2022年5月 | 乙武義足プロジェクト、国立競技場トラックにて117メートル歩行達成[9] |
| 2023年1月 | 書籍『xDiversityという可能性の挑戦』(講談社)刊行[10] |
| 2023年3月 | JST CRESTプロジェクトとしての研究期間終了[4] |
| 2024年 | xMod発売(M5Stack・スイッチサイエンスと共同開発)[11] |
| 2025年4月 | 令和7年度文部科学大臣表彰 科学技術賞(理解増進部門)受賞[12] |
組織
JST CRESTプロジェクト
2017年度に採択されたJST CRESTの研究課題であり、研究領域は「イノベーション創発に資する人工知能基盤技術の創出と統合化」(研究総括:栄藤稔・大阪大学教授)である[1]。研究期間は2017年10月から2023年3月までの約5年半[4]。
研究チームは4つの領域に分かれ、それぞれ以下の主要メンバーが担当した[5][4]。
| 研究者 | 所属(プロジェクト当時) | 担当領域 |
|---|---|---|
| 落合陽一(研究代表者) | 筑波大学准教授 / ピクシーダストテクノロジーズ代表取締役 | 3D空間視聴触覚 |
| 菅野裕介 | 東京大学生産技術研究所准教授 | コンピュータビジョン / 機械学習 |
| 遠藤謙 | ソニーコンピュータサイエンス研究所研究員 / Xiborg代表取締役 | ロボティクス / 義肢 |
| 本多達也 | 富士通 / Ontenna開発リーダー | UIデザイン / 聴覚支援デバイス |
一般社団法人xDiversity
2018年11月30日に設立された[7]。JST CRESTプロジェクトの社会実装・ライセンス化を加速するために法人格を取得した[13]。ピクシーダストテクノロジーズから落合陽一(代表理事)および村上泰一郎(業務執行理事)が理事として派遣された[13]。
CRESTプロジェクト終了後も一般社団法人として活動を継続し、ワークショップ開催、デバイス開発、クラウドファンディングによるサポーター募集(第1期〜第3期)などを行っている[8][14]。
主な研究成果・プロジェクト
耳で聴かない音楽会
落合陽一と日本フィルハーモニー交響楽団のコラボレーションにより、2018年4月に第1回が開催された[6][15]。聴覚に障害のある人々がオーケストラの音楽を体感できるよう、埋め込みスピーカーを備えたウェアラブルデバイス「LIVE JACKET」を用いて、振動と触覚を通じて音楽を全身で感じる体験を提供する[6]。
後に「SOUND HUG」(光と振動で音楽を感じるデバイス)へと発展し、複数回にわたりクラウドファンディングを通じて公演が継続された[16]。
See-Through Captions
聴覚障害者向けのリアルタイム字幕表示システム。透明ディスプレイの両面に音声認識による字幕を表示し、話者の表情やボディランゲージを確認しながら会話内容をテキストで把握できる[17]。筑波大学デジタルネイチャー研究室で開発され、据え置き型とポータブル型の2形態が存在する[17]。日本科学未来館での展示ツアーにも活用され、聴覚障害者を対象とした実証実験が行われた[18]。
Ontenna
音の大きさを振動と光の強さにリアルタイム変換するデバイス。「音のアンテナ」を意味する造語であり、髪の毛や耳たぶに装着して使用する[19]。本多達也(富士通)が開発を主導し、xDiversityプロジェクトにおいて社会実装が推進された[4]。全国のろう学校の約80%に導入され、発話練習やリズム練習、STEAM教育に活用されている[20][21]。
乙武義足プロジェクト(OTOTAKE PROJECT)
遠藤謙(ソニーコンピュータサイエンス研究所・Xiborg)が開発したロボット義足「SHOEBILL」を用いて、先天性四肢欠損の乙武洋匡が二足歩行に挑戦するプロジェクト[22]。2018年に開始され、2021年には日本科学未来館にて50メートル超の歩行を達成[22]、2022年5月には国立競技場のトラックで117メートル(7分44秒)の歩行を記録した[9]。SHOEBILLは2016年からソニーCSLとXiborgの共同プロジェクトとして開発されてきたロボット義足である[23]。
Holographic Whisper
複数の超音波トランスデューサを個別に駆動し、空中に超音波焦点を形成することで、その焦点からのみ可聴音を発生させる空間音響提示装置[24]。ビームスピーカーとは異なり、焦点から全方向に音が伝播する点音源スピーカーとして機能し、特定の人物だけに耳元で囁くように音を届けることが可能である[25]。
Telewheelchair
遠隔制御機能と計算機による操作支援機能を備えた電動車椅子システム。介護者がヘッドマウントディスプレイを介して遠隔操作でき、人検知システムによる自動停止・衝突回避機能を搭載する[26]。
Air Mount Retinal Projector
メタマテリアルミラーを用いることで、従来の網膜投影の課題を解決する光学システム。SIGGRAPH 2018にて「Make your own Retinal Projector」として発表された[27]。視覚支援への応用が研究されている。
OTON GLASS
視覚障害者向けに、視野内のテキストを読み上げるウェアラブルデバイス。島影圭佑が開発し、YouFab Global Creative Awards 2016でグランプリを受賞した[28]。xDiversityプロジェクト内では「ファブビオトープ」(FabBiotope)構想へと発展した[10]。
xMod
一般社団法人xDiversityがM5Stack Technology(深圳)およびスイッチサイエンスと共同開発した教育用デバイス[11]。ロボットトイ「toio」とM5Stack Core2/CoreS3を接続し、触覚フィードバック(振動アクチュエータ)、ライン出力、MIDI入出力などの機能を備える[29]。視覚障害者向けの非視覚プログラミング環境の構築から開発が始まり、プログラミング初心者や子どもにも使いやすい設計となっている[11]。