Vulkanとは

VULKAN
読み: ヴァルカン

Vulkanとは、Khronos Group策定のオープンなグラフィックス・計算用API

読み: ヴァルカン

Khronos Group策定のオープンなグラフィックス・計算用API。メーカーを問わず全てのGPUでハードウェア加速を利用できる唯一の共通規格。2026年にはCooperative Matrixでテンソルコアを直接操作するAI推論機能も標準化。

かんたんに言うと

NVIDIA専用のCUDA、Apple専用のMetalに対し、Vulkanは「どのメーカーのGPUでも動く」共通言語。PCでもスマホでも使える。

Cooperative MatrixとAI推論

VK_KHR_cooperative_matrixでGPU内部のテンソルコアをVulkanから直接操作できる。CUDAに匹敵する速度で行列計算を実行。Llama.cppのVulkanバックエンドが最適化され、AMD/Intel GPUでもLLMを高速実行できるようになった。

Roadmap 2026と低レイテンシ設計

CPUのオーバーヘッドを極限まで削ぎ落とした設計で、Gemini 3.1 Flash LiveのようなリアルタイムAIの低遅延処理に適する。Vulkan Videoとの連携で映像処理とAI処理をGPU内でゼロコピー完結。

当社の見解

当社はOpenAI APIを完全廃止し、EmbeddingLLMも全てローカルで稼働させている(2026年4月時点)。これにより月額のAPI費用がゼロになっただけでなく、機密情報や顧客データを外部に送信せずにAI処理できるようになった。クライアントのログデータをマスキングなしでそのまま分析に回せるのは、ローカルLLMだからこそ実現できる。2026年4月にはOllama常駐実行(CPU 25%、GPU 30%を常時占有)を廃止し、FastEmbed(ONNX Runtime)による非常駐型推論に移行。処理が必要な瞬間だけプロセスを起動し、完了後に即座に終了する設計で、アイドル時のリソース消費をゼロにした。あえて一般的なデスクトップPC環境で複数のローカルLLMを実機検証した経験から言えることは、ベンチマークスコアと実務での使い勝手、そして常駐時のリソース消費は全て別の指標だということだ。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する