機密データを外に出せず、汎用AIでは精度が不十分
株式会社荏原製作所は、ポンプ・送風機・冷却装置など産業機械の世界的な総合メーカーである。創業1912年以来、110年以上にわたり蓄積してきた設計ノウハウ・技術仕様書・社内規程は、同社の競争力の源泉そのものだ。
生成AIの登場と共に、社内でも活用検討が進んだ。だが、ここで重大なジレンマが生じる。クラウド型の汎用AIに自社の機密技術情報を渡せば、設計図や仕様書といった「漏えいすれば事業に致命的な影響を与える資産」が外部サーバーに渡ることになる。データ主権・情報セキュリティポリシーの観点から、これは許容できない。
一方、機密情報を渡さずに汎用AIを使った場合、得られる回答は一般論にとどまった。製造現場が必要としているのは「この設計仕様で、この温度条件で、過去にどんな対応をしたか」といった、専門家レベルの具体的な知見だ。
CPS推進部の担当者は当時の状況をこう振り返る。「汎用AIでは、製造業の現場で求められる"専門家レベルの回答"には届かない。かといって、重要な技術情報を外部に出すこともできませんでした」──この二律背反を解く方法を、同社は探していた。
機密データを扱う環境での AI 活用の前提については、オンプレミスAIのセキュリティ解説もあわせてご参照ください。
「外に出さず、専門家レベル」を両立する仕組み
荏原製作所が GBase OnPrem を選定した決め手は、4 つの条件を一つの構成で満たせる点だった。
① 完全閉域 — すべての処理を社内ネットワーク内で
設計図・技術仕様・社内規程といった機密データは、社外のサーバーへ一切送信されない。情報漏洩リスクはゼロ、コンプライアンス・データ主権の要件を確実に満たす。
② 80Bパラメータの日本語高精度モデル
検証の結果、80B(800億パラメータ)モデルは一部タスクで GPT-4o mini と同等レベルの精度を実現。製造業の専門用語・社内固有の表記も、社内文書のRAG検索を併用することで高い精度で扱える。
③ NVIDIA H100 + 4-bit 量子化で現実的なハード要件
NVIDIA H100 GPU 2 基(各 80GB)構成と、4-bit 量子化技術により、80B クラスのモデルを既存データセンター内に収まる規模で運用できる。
④ RAG で「荏原仕様の AI」が育つ
社内文書をアップロードするだけで、Retrieval-Augmented Generation(RAG)の仕組みにより、自社固有の知識を反映した回答ができる「荏原専用AI」へ成長していく。外部ベンダーの専門人材を別途配置する必要はない。RAG の仕組みは RAGとは?仕組みと導入方法で詳しく解説しています。
POC 約 2 ヶ月、専門知識を必要としない社内ナレッジ構築
荏原製作所は CPS(Cyber Physical Strategy)推進部を中心に、現在 約 2 ヶ月にわたる POC(概念実証)として運用を継続している。導入における特徴は、AI 専門人材を新たに揃える必要が無かった点にある。
社内ナレッジベースは、現場の担当者が技術文書・社内規程・過去案件資料を シンプルにアップロードするだけ で構築できる。ファイル解析・チャンク分割・ベクトル化はシステムが自動的に処理し、利用者は従来のファイル整理感覚で運用を進められる。
またハードウェアの選定・設置・運用ハンドオーバーまで、Sparticle のオンプレミスチームが伴走支援。POC 期間中の応答精度チューニングまで含めて支援することで、社内側の負荷を最小化している。社内ナレッジベース構築の進め方はナレッジベース構築ガイドもあわせてご参照ください。
情報を探す時間が、判断する時間に変わった
POC 運用を通じて、CPS推進部の担当者からは 「満足度 10 点中 9 点」 という高い評価が寄せられている。具体的な業務改善は次の通り。
技術情報検索
30分 → 2分
93% 削減
社内規程検索
20分 → 1分
95% 削減
技術文書横断検索
45分 → 3分
93% 削減
定量効果に加え、これまで「外に出せない」がゆえに AI 検証から除外されていた機密データを、社内環境で安全に AI 活用検証できるようになったことも大きな価値となっている。
現場からの評価
汎用AIでは、製造業の現場で求められる"専門家レベルの回答"には届かない。かといって、重要な技術情報を外部に出すこともできませんでした。GBase OnPrem は、その両方を一度に解決してくれた仕組みです。
CPS推進部 担当者
株式会社荏原製作所
