FastFlowLMとは

FASTFLOWLM
読み: ファストフローエルエム

FastFlowLMとは、AMD Ryzen AIのNPUに特化した超高速・超軽量のLLM推論ランタイム

読み: ファストフローエルエム

AMD Ryzen AIのNPUに特化した超高速・超軽量のLLM推論ランタイム。GPUを使わずにNPUだけで70Bクラスのモデルを実用的な速度で動作させ、ランタイムサイズはわずか16MBに収まる

かんたんに言うと

高価なグラフィックボードがなくても、最新のノートPCに内蔵されたAI専用チップ(NPU)だけでAIを動かせるソフト。バッテリーもほとんど減らない。

GPU不要の革命と電力効率10倍

従来のローカルLLM実行はGPUパワーに依存していた。FastFlowLMはAMD Ryzen搭載ノートPC(Strix Point/Strix Halo等)のNPUを主役に据え、GPUなしで70Bクラスのモデルまで実用的な速度で動かす。
GPUと比較して10倍以上の電力効率。バッテリー消費を抑えつつAIを動かせるため、外出先でのAIエージェント常駐運用に最適。ランタイムサイズ16MBでインストールも数十秒。

256Kトークン対応と2.6倍速Prefill

NPUのメモリ管理を極限まで最適化し、256,000トークンの超長文を一度に読み込める。独自のAttention Engineで質問入力から回答開始までの待ち時間(Prefill)を2.6倍高速化。
2026年3月にLinux正式対応。RotorQuantTurboQuantで軽量化したモデルをNPU上で効率的に回す組み合わせが、GPU不要のローカルAI環境の新標準になりつつある。

AMD NPU特化の設計

FastFlowLMはAMD Ryzen AIのNPU(ニューラルプロセッシングユニット)に特化した推論ランタイム。GPUもCPUも使わずにNPUだけでLLMを動かす。17MBの軽量ランタイムで20秒以内にインストールでき、モデルの書き換えやチューニングが不要。2025年10月にAMDのLemonade Serverに統合され、2026年3月にLinux対応が追加された。

電力効率の実測値

同じチップ上の内蔵GPUと比較して67.2倍、CPUと比較して222.9倍のエネルギー効率を実現している。1トークンあたりの消費電力がGPUの約1/67。ノートPCのバッテリー駆動でAIを動かす場合、電力効率の差は実稼働時間に直結する。エッジデバイスやモバイル環境でのAI推論に向いている。

導入の判断基準

AMD Ryzen AI搭載のPCが前提。Intel CPUやNVIDIA GPUでは動作しない。対応モデルはLFM2.5-1.2Bなど比較的小型のモデルが中心で、70B以上の大規模モデルには対応していない。ローカルで軽量なAIを動かしたい場合に選択肢になるが、高精度が必要な業務用途ではGPU推論の方が適切。

当社の見解

当社はOpenAI APIを完全廃止し、EmbeddingLLMも全てローカルで稼働させている(2026年4月時点)。これにより月額のAPI費用がゼロになっただけでなく、機密情報や顧客データを外部に送信せずにAI処理できるようになった。クライアントのログデータをマスキングなしでそのまま分析に回せるのは、ローカルLLMだからこそ実現できる。2026年4月にはOllama常駐実行(CPU 25%、GPU 30%を常時占有)を廃止し、FastEmbed(ONNX Runtime)による非常駐型推論に移行。処理が必要な瞬間だけプロセスを起動し、完了後に即座に終了する設計で、アイドル時のリソース消費をゼロにした。あえて一般的なデスクトップPC環境で複数のローカルLLMを実機検証した経験から言えることは、ベンチマークスコアと実務での使い勝手、そして常駐時のリソース消費は全て別の指標だということだ。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する