ニューラルテクスチャ圧縮とは

NEURAL TEXTURE COMPRESSION
読み: ニューラルテクスチャアッシュク

ニューラルテクスチャ圧縮とは、ニューラルネットワークを用いて3DCGのテクスチャデータを圧縮・復元する技術である

読み: ニューラルテクスチャアッシュク

従来のブロック圧縮方式(BC7やASTC)と比較して同等以上の画質を維持しながら、より高い圧縮率を実現する。NVIDIAがSIGGRAPH 2023で発表した論文を皮切りに、リアルタイムレンダリングの分野で注目を集めている。

かんたんに言うと

3Dゲームや映像制作では、壁や地面の質感を再現するために大量のテクスチャ画像を使う。従来はブロック単位で機械的に圧縮していたが、ニューラルテクスチャ圧縮では小さなニューラルネットワークがテクスチャの特徴を学習し、必要なときにGPU上でリアルタイムに復元する。「画像をそのまま持つ」のではなく「画像の作り方を覚えておく」という発想である。

テクスチャ圧縮が求められる背景

3DCGのリアリティはテクスチャの解像度に強く依存する。最新のゲームタイトルでは数十GBに及ぶテクスチャデータを扱うことも珍しくなく、GPUのビデオメモリ(VRAM)をどれだけ節約できるかがパフォーマンスを左右する。

BC1からBC7、ASTCといったブロック圧縮方式はハードウェアが直接デコードできるため処理速度に優れるが、圧縮率はおおむね4:1から6:1にとどまる。4Kや8Kのテクスチャが当たり前になりつつある状況では、従来方式だけでは限界が見え始めている。

ニューラルネットワークによる圧縮の仕組み

基本的な考え方は、テクスチャの各ピクセル値を直接保存する代わりに、テクスチャを生成できる小規模なニューラルネットワークの重みとして保持するというものである。

開発時にエンコーダがテクスチャ全体を学習し、圧縮された潜在表現を生成する。実行時にはGPUのテンソルコアを使い、デコーダがこの潜在表現からリアルタイムにテクセル値を復元する。NVIDIAの実装ではランダムアクセスに対応しており、従来のブロック圧縮と同様にテクスチャの任意の位置を即座に参照できる。同社のデモでは6.5GBのVRAM使用量を約970MBまで削減した事例が報告されている。

導入の制約と今後の見通し

テンソルコアを搭載したGPU(NVIDIAのRTXシリーズなど)が事実上の動作要件となるため、対応ハードウェアの範囲は限定される。テクスチャフィルタリング(ミップマップやバイリニアフィルタリング)がハードウェアではなくシェーダで処理されるため、従来方式と比べてデコード時の計算負荷が高い点にも注意が要る。

2025年にNVIDIAがRTX NTC SDKをベータ公開し、Unreal Engine向けプラグインの開発も進んでいる。Intelも独自のNeural Compressionを発表しており、GPU各社の取り組みが広がっている。ゲームエンジンへの本格統合が進めば、VRAM制約の緩和によって、より多くのオブジェクトや高解像度テクスチャを同時に描画できるようになる見込みである。

当社の見解

当社はローカルLLM推論環境の運用を通じて、GPUのVRAM管理やテンソルコアの活用に関する実務知見を蓄積してきた。ニューラルテクスチャ圧縮はグラフィックス領域の技術であるが、「限られたGPUメモリの中でニューラルネットワークの推論品質をどう維持するか」という問い自体は、LLM推論における量子化やバッチサイズ調整と構造が同じである。NTC SDKの普及は、GPUのテンソルコアがレンダリングとAI推論の双方でさらに大きな役割を果たす方向を示している。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する