ASIC

ASIC
読み: エーシック

読み: エーシック

ASICとはAI専用チップの経済性

ASICはApplication Specific Integrated Circuitの略で、特定の用途に特化して設計された集積回路を指す。汎用プロセッサと異なり、決まった処理だけを極めて高速かつ低消費電力で実行できる。AI分野ではGoogleのTPUが代表例であり、LLMの推論コストを劇的に引き下げる手段として注目されている。

かんたんに言うと

何でもできるスイスアーミーナイフではなく、刺身を引くためだけに鍛え上げた柳刃包丁のようなチップである。用途を絞った分、その一点では汎用品を寄せ付けない性能を出す。

GPUやCPUとは設計思想が異なるASICの基本概念

GPUはもともとグラフィック描画のために生まれ、後から機械学習の並列計算に転用された。CPUはさらに汎用的で、メールの送受信からExcelの計算まで何でもこなす。ASICはこうした「何でも屋」の対極にいる。
設計段階から「この演算しかやらない」と決め打ちしているため、不要な回路を持たない。余計な回路がなければ電力消費が減り、チップ面積も小さくなり、単位演算あたりのコストが下がる。
とはいえ万能ではない。仕様変更が入ったらチップごと作り直しになる。設計から製造まで数億円単位の投資が必要で、失敗すればそのまま埋没コストになる。

GoogleのTPUとAWSのInferentia

AI向けASICの筆頭はGoogleが自社開発したTPUである。2015年に初代が社内運用を開始し、現在はv5eまで進化している。Googleの検索エンジン、YouTube推薦、Geminiの推論基盤に使われている。
AWSはInferentiaというASICを2019年にリリースした。推論に特化した設計で、GPUと比較して最大70%のコスト削減を謳う。後継のInferentia2は学習にも一部対応している。
両者に共通するのは「自社のクラウドサービスに顧客を囲い込む」戦略の一環でもあるという点である。チップの性能だけでなく、プラットフォーム全体の競争力を左右する。

FPGAとの住み分け

ASICとよく比較されるのがFPGAである。FPGAは製造後に回路構成を書き換えられる半導体で、プロトタイプ段階や少量生産に向いている。
量産フェーズではASICのほうが圧倒的に安い。1個あたりの製造コストは数量が増えるほど下がるため、年間数百万個を出荷するなら回路を固定したASICに軍配が上がる。
一方、AI分野のようにモデルのアーキテクチャが頻繁に変わる領域では、FPGAの柔軟性が武器になる場面もある。新しい演算子が登場するたびにASICを作り直すわけにはいかないからである。実際にはどちらか一方ではなく、用途に応じて使い分けている企業が多い。

AI推論コストとASICの経済合理性

LLMの推論コストは無視できない規模に膨らんでいる。OpenAIが1日あたり数百万ドルのGPU使用料を払っているという報道もある。
ここでASICが注目される理由は明快で、同じ推論処理をGPUの数分の一の電力で実行できるからである。電力コストはデータセンター運営費の30〜40%を占めるため、チップの消費電力が下がれば運営コスト全体が圧縮される。
ただ、ASIC開発には設計に2〜3年、製造にさらに半年以上かかる。その間にモデルのアーキテクチャが変わってしまえば、せっかくのチップが陳腐化するリスクを抱える。投資回収の時間軸と技術の進化速度のバランスが経営判断の核心になる。

今後の選択肢をどう考えるか

自社でASICを設計できる企業はGoogle、Amazon、Apple、Metaなど資金力のある巨大テック企業に限られる。それ以外の企業はNVIDIAのGPUか、クラウド経由でTPUやInferentiaを利用するのが現実的な選択肢になる。
注目すべきは、GroqやCerebrasのようなスタートアップがAI推論専用チップを開発し始めている点である。NVIDIAの独占に風穴を開けようとしている。
自社のAIワークロードがどの程度の規模で、どの処理にボトルネックがあるのか。そこを見極めた上でGPUを使い続けるのか、ASIC系のクラウドサービスに移行するのかを判断してほしい。

当社の見解

当社は機密情報のマスキング処理を全てローカルAIで行っている。これにより機密情報を外部に送信せずにAI処理できるようになった。だが、AIが嘘をつくハルシネーションの問題は依然としてある。確認していないのに「確認しました」と言う。当社はこの前提で運用を設計している。事実と推測の強制分離、ファクトチェック機能、3つのAIと人間の同士の三重検証を行っている。どこまでいっても、AIは完璧ではない。理論上100%安全設計をしていても、AIも人間も想定しないことは起こるものだ。その万が一に備えておくことが、AIを使う上では前提になっている。だろうではなく、かもしれない運用がAIを使う上での安全基盤となっている。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する