導入:空間をキャプチャする技術の進化
こんにちは。今回は、弊社のロボティクス・空間DXプロジェクトでも大活躍している最新の3D表現技術「3D Gaussian Splatting (3DGS)」について解説します。
少し前まで、写真から3D空間を構築する技術といえば「NeRF (Neural Radiance Fields)」がディープラーニング界隈を席巻していました。しかし、ここ最近は3DGSが新たなスタンダードになりつつあります。なぜ3DGSがこれほど注目されているのでしょうか?
1. 3DGSの仕組み:「点」ではなく「もや」で空間を塗る
従来のフォトグラメトリでは空間を「点(ポイントクラウド)」や「面(メッシュ)」で表現していました。一方、3DGSはその名の通り、空間を**数百万個の3Dガウス分布(Gaussian)**の集まりとして表現します。
イメージとしては、空間に無数の「半透明な楕円体(もやのようなもの)」を配置していく感覚です。それぞれのガウシアンは以下のパラメータを持っています。
- 位置 (Position):どこにあるか
- 共分散 (Covariance):どんな形・向きをしているか(引き伸ばされた楕円など)
- 色 (Color / 球面調和関数):見る角度によってどう色が変わるか
- 不透明度 (Opacity):どれくらい透けているか
これらを最適化することで、現実の光の反射や半透明な物体(ガラスなど)も驚くほどリアルに再現できます。
2. NeRFとの最大の違いは「描画の速さ」
NeRFは空間を「ニューラルネットワークの重み」として暗黙的に記憶します。そのため、ある視点からの画像を作る(レンダリングする)たびに、光の経路(レイ)に沿って何度もネットワークの推論計算を行う必要があり、非常に重い処理でした。
対して3DGSは、最適化されたガウシアンを従来のCGと同じ**ラスタリゼーション(画面のピクセルに直接色を塗る処理)**で描画します。ニューラルネットの推論を通さないため、描画が圧倒的に高速なのです。
特徴 | NeRF (Neural Radiance Fields) | 3D Gaussian Splatting (3DGS) |
|---|---|---|
表現方法 | 暗黙的(ニューラルネットワーク) | 明示的(3Dガウシアンの集合) |
学習時間 | 数時間 〜 数日 | 数十分 〜 数時間 |
レンダリング速度 | 遅い(数FPS〜) | 非常に速い(100FPS以上も可能) |
空間の編集 | 困難(全体が繋がっているため) | 容易(ガウシアンを個別に削除・移動可能) |
3. ロボティクス・医療福祉DXにおける3DGSの価値
弊社が3DGSに注目している理由は、単に「綺麗だから」ではありません。「実用的だから」です。
- エッジデバイスでの動作: レンダリングが軽いため、高価なGPUサーバーがなくても、タブレットやXRゴーグル上で施設の3Dモデルをリアルタイム表示できます。
- シミュレータとしての活用: 「空間の編集が容易」という特性を活かし、スキャンした実際のオフィスモデルの中で「ここに障害物を置いたらロボットはどう動くか?」といったシミュレーション(Sim-to-Real)が可能になります。
次回は、この3DGSとロボットを組み合わせた具体的なシステム構築についてご紹介します。