強いAI
読み: 強いAI
強いAIとは汎用知能の現在地
強いAIは特定のタスクに限定されず人間と同等以上の認知能力と汎用的な問題解決能力を備えた次世代の人工知能概念である。
かんたんに言うと
特定の料理しか作れない専用調理器ではなく冷蔵庫の残り物から最適なフルコースを自ら考案し調理までこなす熟練のシェフのような存在である。
メディアの喧騒を超えて見る汎用人工知能AGIの到達点
強いAIつまり汎用人工知能AGIの到達点についてメディアは騒ぎすぎている。現在のLLMはあくまで確率的に尤もらしい単語を繋いでいるに過ぎない。
OpenAIのQ-StarプロジェクトやGoogle DeepMindのGemini 1.5 Proのマルチモーダル推論能力を見ていると確かに特化型AIから弱いAIの枠を超えようとする執念は感じる。
だが現場の感覚から言えばまだ遠い。
特定のドメインに縛られず未知の状況に適応して自律的に学習する。これが強いAIの条件である。今のモデルにそれを期待すると痛い目を見る。
自律的な学習と推論を支える技術の泥臭い現実
ディープラーニングや強化学習の進化がAGIへの道を開くと信じられている。
自己回帰モデルの限界を突破するために各社は推論時の計算量を増やすアプローチにシフトしている。OpenAIのo1モデルがその典型である。
しかし内部のニューラルネットワークがどう判断を下したのかブラックボックス問題は依然として残る。
法務部門で契約書のレビューを任せる場合を想像してほしい。
なぜその条項がリスクだと判断したのか根拠を論理的に説明できないAIに数億円の取引を委ねられるだろうか。悩ましい。
製造や法務の現場で自律型エージェントはどう動くか
おもちゃのようなツール群は実務では使い物にならない。実用に耐えうる自律型エージェントはもっと泥臭い領域で動いている。
例えばソフトウェアエンジニアリングに特化したDevinは環境構築からデバッグまでを自律的にこなす。
法務領域ではHarveyが膨大な判例から未知の法的リスクを推論しようと試みているし製造業のピッキングロボットを制御するOSAROは未知の形状の物体に対する把持戦略を強化学習でリアルタイムに生成する。
これらは強いAIの片鱗を見せている。
だが現場の運用はエラーとの戦いである。
企業にもたらす恩恵と現場が直面する泥沼
強いAIが実現すれば業務のあり方は根本から変わる。
しかし現段階でそれに近いものを導入しようとするとデータ汚染やAI倫理の壁にぶつかる。
自社の独自データを食わせた結果モデルが予期せぬバイアスを獲得してしまうケースは後を絶たない。
経理部門の異常検知システムが特定の取引先の請求書を常に不正とフラグ立てするようになったらどうする。
原因究明に何週間も溶かすことになる。現場の落とし穴は常にデータの質に潜んでいる。
幻想を捨てて自社のシステムにどう組み込むか
強いAIの到来を待つのではなく今ある技術の限界を見極めてアーキテクチャを組むしかない。
費用対効果を計算しどのプロセスをLLMに任せどこを従来のルールベースで縛るか。この線引きがすべてである。
完全な自律性を求めるのは危険である。
システム全体を疎結合に保ちモデルの推論結果を別のモデルが検証するような多段構成を組む。
結局のところ技術の進化を横目に泥臭いデータパイプラインの整備をやり切れるかどうかにかかっている。判断が分かれるところだが私はそう信じている。
当社の見解
当社は機密情報のマスキング処理を全てローカルAIで行っている。これにより機密情報を外部に送信せずにAI処理できるようになった。だが、AIが嘘をつくハルシネーションの問題は依然としてある。確認していないのに「確認しました」と言う。当社はこの前提で運用を設計している。事実と推測の強制分離、ファクトチェック機能、3つのAIと人間の同士の三重検証を行っている。どこまでいっても、AIは完璧ではない。理論上100%安全設計をしていても、AIも人間も想定しないことは起こるものだ。その万が一に備えておくことが、AIを使う上では前提になっている。だろうではなく、かもしれない運用がAIを使う上での安全基盤となっている。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
