Hugging Face

HUGGING FACE
読み: ハギングフェイス

読み: ハギングフェイス

Hugging FaceとはAI共有基盤

Hugging Faceは、AIモデルの共有と活用を軸としたオープンソースプラットフォームである。Transformersライブラリ、Model Hub、Spacesの3つを柱に、研究者と開発者がモデルやデータセットを公開・再利用できる環境を提供している。AI業界における「GitHubのような存在」として定着した。

かんたんに言うと

AIモデルの図書館兼実験室である。世界中の研究者や企業が自分のモデルを棚に並べ、誰でも借りて使える。自分の手元で動かすことも、ブラウザ上で試すこともできる。

チャットボット企業からAI業界のGitHubへ変貌したHugging Faceの出発点

Hugging Faceは2016年にフランス人のClment Delangueらが設立した。最初のプロダクトは10代向けのチャットボットアプリで、社名の絵文字(抱きしめる顔)はそこに由来する。
転機は2018年。GoogleがBERTを発表した直後、Hugging FaceがBERTのPyTorch実装をオープンソースで公開した。当時、BERTの公式実装はTensorFlowのみだったため、PyTorchユーザーが殺到した。ここからTransformersライブラリの開発が本格化する。
2024年時点で、Hugging FaceのModel Hubには100万件以上のモデルが登録されている。MetaのLlamaMistralのMixtral、GoogleのGemmaといった主要なオープンモデルが公開される場所としても機能している。

Transformersライブラリの中身

Transformersは、自然言語処理を中心としたAIモデルをPythonから数行で使えるようにするライブラリである。PyTorchとTensorFlowの両方に対応しており、モデルのダウンロードから推論、ファインチューニングまでを統一的なAPIで扱える。
たとえば、感情分析を実行するコードは3行で書ける。モデル名を指定するだけで、Hubから自動的にダウンロードされ、即座に推論が走る。
大規模言語モデルのブームで、Transformersの対応範囲はテキストに留まらなくなった。画像生成のStable Diffusion音声認識のWhisper、マルチモーダルモデルのLLaVAなど、モダリティを問わず主要モデルの大半がTransformers経由で利用可能になっている。

Model HubとSpacesが変えた共有文化

Model Hubは、訓練済みモデルをGitリポジトリとして管理・共有する仕組みである。モデルの重みファイルだけでなく、トークナイザー設定やモデルカード(用途、性能、バイアス情報などを記載したドキュメント)もセットで公開される。
Spacesは、Gradioやstreamlitで作ったデモアプリをワンクリックでホスティングできるサービスである。研究者が論文と一緒にデモを公開するのが当たり前になり、「実際に触ってから判断できる」環境が整った。
この共有文化が、オープンソースAIの発展を加速させた面は大きい。とはいえ、Hub上のモデルの品質はピンキリで、ライセンス条件もモデルごとに異なる。商用利用可能かどうかの確認を怠ると、後になって問題になるケースがある。

企業向けサービスとビジネスモデル

Hugging Faceの収益源はエンタープライズ向けの有料サービスである。Inference Endpoints(専用のモデル推論サーバー)、AutoTrain(ノーコードでモデルを訓練するサービス)、Enterprise Hub(アクセス制御SSOを備えた企業向けHub)が主な製品ラインになっている。
AmazonはHugging Faceに数億ドルを投資し、AWS SageMakerとの統合を深めた。MicrosoftのAzure ML、GoogleのVertex AIでもHugging Faceのモデルを直接デプロイできる。クラウド3大ベンダーの全てと提携している点は、プラットフォームとしての立場を強固にしている。
ただし、ビジネスモデルの持続性については疑問の声もある。コアとなるライブラリやHubは無料で提供しており、有料サービスの契約率がどの程度なのかは非公開のままである。

活用を始めるための現実的なステップ

まず試すなら、Hugging FaceのWebサイトでSpacesのデモを触るのが手っ取り早い。テキスト生成画像認識、音声文字起こしなど、主要なタスクのデモが無料で公開されている。
自社の業務に組み込む段階では、Transformersライブラリをpipでインストールし、ユースケースに近いモデルをHub上で検索する。モデルカードに記載されたライセンス、訓練データの出典、性能指標を必ず確認してほしい。
エンベディングモデルを使った社内文書の検索や、分類モデルによる問い合わせの自動振り分けなど、小規模なタスクから始めて成果を確認してから、本格的なファインチューニングに進むのが失敗の少ない進め方である。

当社の見解

当社はツール選定において実用性を第一方針にしている。カタログスペックやベンチマークスコアではなく、実務で1週間使い倒して初めて判断する。フレームワークを増やすほど管理コストが増える経験もした。フックを増やしすぎてAIが情報過多でパニックになったこともある。足し算だけでなく、引き算の判断が選定の質を決める。検証せずに導入したツールは、ほぼ例外なく3か月以内に使わなくなった。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する