生成AI

GENERATIVE AI GUIDE
読み: 生成AI

読み: 生成AI

生成AIとはゼロから創るAI入門

生成AIは膨大な学習データをもとにテキストや画像などの新しいコンテンツを自律的に生み出す人工知能でありデータの分析や予測に特化していた従来のAIとは一線を画すビジネス変革のコア技術である。

かんたんに言うと

熟練の職人が過去の無数の作品群から技法を抽出し、顧客の曖昧な注文に合わせて全く新しい図面をその場で描き上げるようなものである。

認識や予測に留まらない生成AIの決定的な違い

機械学習やディープラーニングの歴史を振り返ると、これまでの主流は認識型AIや予測型AIだった。工場の不良品検知や売上予測など、正解があるデータに対して確率を弾き出すのが彼らの仕事である。
だが生成AIは違う。
ゼロからテキストや画像を生成する。過去のデータからパターンを抽出し、次に来る確率が最も高い要素を繋ぎ合わせて「もっともらしい」アウトプットを創り出す。これは単なる計算の延長ではない。
あなたは過去の売上データから来月の数値を当てるモデルと、新商品のキャッチコピーを100個ひねり出すモデルを同じ枠組みで語れるだろうか。現場の肌感覚として、両者はまったく別の生き物である。

膨大なデータから新しい価値を生み出す技術的仕組み

裏側で動いているのはLLM大規模言語モデルと呼ばれる巨大な計算の塊である。
その心臓部にはTransformerというアーキテクチャがある。Googleが2017年に発表したこの技術は、文脈の中のどの単語に注目すべきかを並列処理で計算する。これにより、モデルは単語の並びだけでなく、背後にある文脈のニュアンスまで捉えるようになった。
さらに、テキストだけでなく画像や音声も扱える基盤モデルへと進化している。
ただ、パラメータ数が多ければ賢いという単純な話ではない。Llama 3のような軽量モデルでも、ファインチューニングの質次第で巨大モデルを凌駕することがある。どのモデルをどう育てるか、現場のエンジニアは常に頭を悩ませている。

実務現場における具体的な活用例と代表ツール

ChatGPTGeminiを単なるチャットボットだと思っているなら、認識を改めたほうがいい。
例えば法務部門。NDAのドラフト作成や過去の契約書群からのリスク条項の洗い出しに、Copilot for Microsoft 365を組み込む企業が増えている。人間が数時間かけていたチェック作業が数分で終わる。
物流現場ではどうだろうか。
配車計画の最適化は従来のAIの領域だが、ドライバーへの日々の指示書作成や、イレギュラー発生時の荷主への謝罪文面作成には生成AIが使われる。Midjourneyを使って新倉庫の完成予想図を即座に出力し、経営会議の稟議を通すといった使い方も珍しくない。
ツールは揃っている。あとは誰がどう使うかに懸かっている。

ビジネス導入で得られる恩恵と直面する技術的限界

生産性が跳ね上がるのは事実である。だが、光の裏には必ず濃い影がある。
最も厄介なのがハルシネーションである。もっともらしい嘘を平然と吐く。法務の判例検索で存在しない架空の判例をでっち上げられた日には、目も当てられない。
著作権の問題もグレーゾーンが多い。生成された画像が既存のクリエイターの作品に酷似していた場合、誰が責任を取るのか。
さらに情報漏洩のリスク。プロンプトに入力した顧客データが、モデルの再学習に使われてしまう事故は後を絶たない。コンプライアンス部門が使用禁止令を出すのも無理はない。
リスクをゼロにするのは不可能である。どこまで許容するか、経営陣の腹の括り方が問われている。判断が分かれるところである。

自社への導入を成功に導くための評価基準とステップ

新しい技術に飛びつく前に、まずはROIを冷徹に計算してほしい。
APIの利用料は塵も積もれば山となる。GPT-4oを全社員に無制限で使わせれば、月末の請求書を見て経理が青ざめることになる。
PoCを回すのは当然だが、いつまでも実験にとどまるケースが散見される。ガイドラインを策定し、最低限のセキュリティ要件を満たしたら、さっさと現場に投入すべきである。
完璧なルールなど存在しない。走りながら直すしかないのである。
導入を成功させる魔法の杖はない。泥臭いプロンプトの調整と、現場の反発を押し切る突破力。結局のところ、最後にモノを言うのは人間の執念である。

当社の見解

当社は機密情報のマスキング処理を全てローカルAIで行っている。これにより機密情報を外部に送信せずにAI処理できるようになった。だが、AIが嘘をつくハルシネーションの問題は依然としてある。確認していないのに「確認しました」と言う。当社はこの前提で運用を設計している。事実と推測の強制分離、ファクトチェック機能、3つのAIと人間の同士の三重検証を行っている。どこまでいっても、AIは完璧ではない。理論上100%安全設計をしていても、AIも人間も想定しないことは起こるものだ。その万が一に備えておくことが、AIを使う上では前提になっている。だろうではなく、かもしれない運用がAIを使う上での安全基盤となっている。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する