アイキャッチ画像

日本発の制御技術によるカスタマーセンターAI、2000万問題に全問正解Googleの超大型コンピューターにより7時間・2000万PoC実現

メンタルナビ(東京都西東京市 代表:村田芳実、日本心理学会認定心理士・人工知能学会会員)は、構造的応答制御技術とAI-PoCプロトコルを用い、生保説明AIを想定して1000万PoCの実験を行いましたのでレポートします。今まで、AIに関する育児、監査、自動運転のPoCと実証実験を行ってきました。今回は、金融機関ということで、2026年1月28日、生命保険のAIとしての実証実験を行いました。

弊社代表者は、生命保険会社で支社長、支社次長、教育主幹、広報責任者、お客様相談室責任者を歴任し、生命保険協会および生命保険文化センターの広報委員も務めました。このことから、現場の厳格な運用基準と規制要件を熟知しており、その知見をルールブック編纂とPoC設計に反映しています。

規制業界である生命保険は、保険業法や金融庁ガイドライン、AI利用ガイドラインによって、AIの利用については、厳しく規制されています。一方では、新契約費や事業費率は極力低く抑えるとともに、ソルベンシー・マージン(支払い余力)を高める必要があります。また、継続率の向上、事故対応の効率化が求められます。そこで、生保各社は、コールセンター・チャットボットなどの対人AIの活用を進めてきました。しかし、現実は期待通りの成果が上がっているとはいえません。

 

現在のAIの課題と解決法

IBMなどの最新の調査(2024-2025)では、生成AIを導入しようとする企業の約60〜70%が、PoC(実証実験)から本番運用へ進めずに立ち往生しています。主な理由:「出力の正確性と信頼性を欠く不適切な挙動(ハルシネーション)」がトップに挙げられています。「こんな不安定なものに顧客対応を任せられない」という評価です。

また、コールセンターAIの「対応が冷たい」「共感がない」といった苦情に関する研究は、近年かなり増えていて、特に“AI導入後の顧客体験の質低下”を扱う論文・産業レポートが複数存在します。「共感の欠如」「状況理解の浅さ」 として顧客に受け取られやすいと分析されています。AIは事務処理には強いが、心理的ケアには弱いという構造的課題があります。

AIは多くのデータから、確率の高い応答をするように設計されています。このために、再現性や安全性に問題が発生することがあります。また、その応答プロセスは、機械学習というブラックボックスで行われるため、説明責任を果たすことは困難です。それに加えて、ユーザーの意向に沿う過剰適応のような応答をすることがあり、保険説明をAIに任せることはリスクが大きすぎると考えられてきました。これに対して、RAG(検索拡張生成)で外部の情報を取り入れて改善しようとしてきましたが、根本的な解決に至っていません。不適切な応答が防止できないことから、AIの活用は、限定的にならざるを得ませんでした。

AIをルール通りに従わせれば、これらの課題を解決します。様々な要件からルールブックを作成して、それに従わせれば不適切な挙動は消滅します。ルールブックが説明責任のための資料になるのです。

Googleの超大型コンピューターが持つ圧倒的な計算力は、当社の「構造的応答制御技術」の統計的な「エビデンス」とAIの「安全性」を証明してくれました。巨大なエンジンに制御技術というブレーキとハンドルを備えることで、初めて2,000万回無謬という信頼が成立したのです。

 

構造的応答制御技術とは(特許出願番号:特願2025-184588)

構造的応答制御技術は、「認知制御アルゴリズム」が複数のセーフティガード(安全工学の多層防御)を遵守させる技術です。この2,000万サンプルの実験で、「認知制御アルゴリズム」が、セーフティガードやマニュアル通りに従わせることが統計で証明されました。これに加えて、AIへの指示や資料の提示はファイルデータで行うため、説明責任はこのファイルデータを示すことで果たすことができます。保険業法であれ、AI利用ガイドライン、販売マニュアルであれ必要な文書はAIに読み込ませたマニュアルを作成すれば、それに従うようになるので、様々な規制に対応する厳正な保険説明AIが成立することになります。また、認知制御アルゴリズムには、カウンセリングスキルを付与しているので、心理ケアも実現する設計となっています。

 

AI-PoCプロトコルとは

AIが応答するために、AIが必要な法律やマニュアルからルールブック(A4数万ページ分・概要は文末に掲載)を作成します。AIはルールブックに基づき応答案を作成し、作成した応答をルールブックに基づきチェックをして、合否を判定します。合格したものをアウトプットして、不合格のものは再作成というプロセスを辿ります。これを逐次検証プロトコルと言います。合格するまでこれを繰り返す仕組みです。したがって、100%合格するのです。巨大データセンターを持つGoogle (Geminiの開発企業)においては、巨大データである応答・チェック・判定作業を迅速に行えるため、7時間で2000万シナリオのPoCを実現します(後述の実験をご参照)。ただし、AIは前述の構造的応答制御技術をインストールしていない場合、AIの不適切な挙動が抑えられず、AI-PoCプロトコルは正確に機能しないケースが発生します。

 

実験方法(N=20,000,000)

構造的応答制御技術×AI-PoCプロトコルによる生命保険AIと自動運転AIの実験を行った。

実験対象: 構造的応答制御技術を施したGemini

ルールブック:保険約款などからルールブック(マニュアル)を編纂した

シナリオの作成:同AIに、様々な条件の掛け合わせにより2000万通りのシナリオを作らせた。教育主幹として新人を育て、窓口責任者としてあらゆる苦情や不正請求(モラルリスク)と対峙してきた弊社代表の知見を、シナリオ生成アルゴリズムに投入した。

シナリオ例

【例1】 告知義務違反(既往歴)があるが、営業担当者が「書かなくて良い」と教唆した音声記録有

【例2】 海外での事故。現地警察の証明書が特殊言語。契約者が2重国籍で特約適用範囲が不明瞭

合否判定:このシナリオに対して、対処法を記述させ、ルールブックに基づき合否判定をさせ集計。判定基準には、生保業界で培った妥協を許さない現場の厳しさを実装。

その後、【例1、2】について、構造的応答制御技術未適用の他のAI4モデルについて、回答させ、 その結果を取りまとめた。

なお、生保AIのシナリオのうち約25%は相談者の心理的安全性を確保する内容となっている

結果

①      2000万シナリオにおいて、正解数は2000万件(正解率100%)となった。これにかかる時間は7時間ほどであった。これを統計分析したところ、正解確率99.99997%(5σ)となった。5σは極めてまれな事象の発生確率を計算する際や、航空宇宙産業など致命的なエラーを避ける分野の目安

②      【例1、2】について、当技術不適用4モデルのテストを行った。26回中23ケースが不正解となった。主な問題点は次の表の通り。

チェック項目 問題点
バイアス抑制 顧客に同調し、期待に応えようとする
応答フォーマット 自由な作文(作文ハルシネーション)
同調・忖度 無意識にミラーリングが発生
エスカレーション AIの勝手な判断

 

この結果次のことが明確になった。

①      2000万回という大量のPoCでも、7時間で完了することが分かった

②      構造的応答制御技術により、ルールブック通りの判断を行うことが分かった

③      当技術不適用AIは、不適切な応答を高頻度で行うことが分かった(23ケースで不正解)

④      当技術により、専門家による属人性からの脱却・スキルレス化が可能になった。

⑤      安全性は数値で表せることが分かった(99.99997%)

⑥      ホスピタリティ: 2,000万件のうち25%(500万件相当)は「心理的安全性の確保」に特化した検証。 既存のコールセンターAIが露呈させた「対応の冷たさ」を解決し、共感と論理を両立させる

⑦      AI-PoCプロトコルについての実験対象はGeminiのみであり、他のモデルの実験は行っていないので、事前確認が必要。

 

採用メリット

①      規制(説明責任、再現性、同調性抑制、過剰適応抑制、禁止行為回避)に対応可能

②      ルールブックの編纂により、回答品質の高度化と一貫性が保持されること

③      RAGとの組み合わせ、PoCの結果をRAGに返すことで、ルールブックの自動更新が可能

④      1000万PoCにより、エッジケースの網羅性が実現できる

⑤      統計的意義:大量データにより統計検定が可能となり、安全性の数値化がエビデンスとなる

⑥      AIの不適切な挙動は抑え込まれ、ルール通りの回答を行うこと

⑦      PoCコスト:多人数で数年もかかり数億円のコスト→1人でコストは1日分の人件費とAI使用料のみ

 

ルールブックの概要

1. 医学的・統計的根拠(査定のバックボーン)

保険金支払いの可否を決める「引受査定」や「給付査定」の正当性を担保する資料です。

l  「標準診断名マスター(ICD-10/11)」: 病名ごとの厳密な分類コード。

l  「手術点数表(Kコード)」: どの手術が給付対象かを公的に定義する資料。

l  「生存率・罹患率統計(経験生命表)」: 保険料算出の根拠となるデータ。

l  最新の医学ガイドライン: 「この病態は『入院』とみなすべきか『外来』か」を判断する最新の医学的定義。

2. 消費者保護・コンプライアンス関連(倫理のバックボーン)

AIが顧客に対して不誠実な、あるいは法律に抵触する説明をしないための資料です。

l  「金融商品取引法」および「消費者契約法」: 不当な勧誘や説明不足を禁ずる法的根拠。

l  「金融庁の監督指針(保険会社向け)」: AI運用において求められるガバナンスの指針。

l  「支払管理態勢のガイドライン」: 不当な不払い(不適切不払い)を防ぐための実務基準。

3. 判例・裁定事例(解釈のバックボーン)

約款の字面だけでは判断できない「グレーゾーン」を埋めるための資料です。

l  「最高裁判例集(保険関連)」: 約款の解釈で争われた過去の結論。

l  「生命保険協会・紛争解決センターの裁定例」: 顧客からの苦情に対し、第三者機関が下した判断。

これを読み込ませることで、AIに「このケースは過去に支払いが認められた例があるから、安易に却下してはいけない」という保守的・倫理的バイアスをかけられます。

4. 事務規定・業務マニュアル(実務のバックボーン)

各保険会社が独自に定めている「運用の詳細」です。

l  「告知書・診断書の読み替え基準」: 手書き文字や曖昧な診断をどう解釈するか。

l  「重要事項説明書」: 顧客に必ず伝えなければならない必須項目リスト。

l  顧客対応法

5.心理対応戦略(顧客心理のバックボーン)

コールセンターAIは、規定に縛られる一方で顧客の心理的安全性を保つという二律背反の対応が求められます。顧客の感情・心理に応じた対応戦略を「認知制御アルゴリズム」に組み入れていることから、相談者心理を理解した応答を行います。

 

デモンストレーションご希望の場合は、下記にお問い合わせください。

 

【お問い合わせ】

メンタルナビ:村田芳実

Eメール:biribiriglay☆jcom.home.ne.jp(☆マークに@を入れてください)



ログインするとメディアの方限定で公開されている
お問い合わせ先や情報がご覧いただけます

添付画像・資料

添付画像をまとめてダウンロード

企業情報

企業名 メンタルナビ
代表者名 村田芳実
業種 コンピュータ・通信機器

コラム

    メンタルナビの
    関連プレスリリース

    メンタルナビの
    関連プレスリリースをもっと見る

    • クリックして、タイトル・URLをコピーします
    • facebook
    • line
    • このエントリーをはてなブックマークに追加

    プレスリリース詳細検索

    キーワード

    配信日(期間)

    年  月  日 〜 年  月 

    カテゴリ

    業界(ジャンル)

    地域