アイキャッチ画像

世界初(※)AIが1億の検証で逸脱なし、原子力事故テストで—— 統計的有意性5.7σで原発安全管理の新時代へ——

メンタルナビ(東京都西東京市 代表:村田芳実、日本心理学会認定心理士・人工知能学会会員)は、日本の電力エネルギー供給の喫緊の課題である「原子力発電所の安全な稼働」を支援すべく、2026年2月6日、Googleの巨大コンピューターを用いた1億通りの過酷事故シミュレーションを実施。構造的応答制御技術を適用したAIの活用による原発事故防止法を検証しました。(※)「世界初」と主張できる理由:規模: 既存研究の10万倍以上(1億シナリオ)統計的証明: 5.7σ(素粒子物理学レベル)技術: 構造的応答制御技術(特許出願済み)適用範囲: 安全管理の直接判断支援(既存は周辺業務のみ)方法論: AI-PoCプロトコル(新パラダイム)

本件は、福島第一原子力発電所の事故を例題に説明を行っており、その課題を述べていますが、係員の方々を中傷批判するものではありません。また、この提案は、AIが発電所をコントロールするのではなく、人間のバイアスなどヒューマンエラーを回避するためのアドバイザー役を担うことを想定しています。

 

背景:「安全確認」の限界と問題解決

現在、原子力発電所の稼働において最大の障壁となっているのは、事故発生時の判断の不確実性と、それに伴う社会的な合意形成の難しさです。

複雑化する過酷事故シナリオ: 自然災害と機器故障が重なる複合事象に対し、従来のマニュアルと人間の判断力だけでは、網羅的な安全証明が困難でした。

原子力発電所の3大重大事故は、ヒューマンエラーが絡んでおり、重大事故を防止するためには、ヒューマンエラーの防止が求められます。

拭えないヒューマンエラーへの懸念: 緊迫した状況下での誤判断や操作ミス、いわゆる「心理的パニック」による事故拡大のリスクが、再起動に対する国民的な不安の根源となっています。

ヒューマンエラーを回避する方法として、AIが考えられますが、AI自体にも不適切な判断をする危険性が指摘されています。

この危険性を排除する技術が開発されたとしても、それをテストするシミュレーションを大量に行う必要がありますが、そのための技術を開発する必要がありました。

構造的応答制御技術とAI-PoCプロトコルが、これらのソリューション技術となります。

 

構造的応答制御技術とは(特許出願番号:特願2025-184588、国際特許出願済)

構造的応答制御技術は、「認知制御アルゴリズム」が複数のセーフティガード(安全工学の多層防御)を遵守させる技術です。原子力管理と自動運転などの1億2000万サンプルの実験で、「認知制御アルゴリズム」が、セーフティガードやマニュアル通りに従わせることが統計で確認されました。これに加えて、AIへの指示や資料の提示はファイルデータで行うため、説明責任はこのファイルデータを示すことで果たすことができます。法令であれ、AI利用ガイドライン、販売マニュアルであれ必要な文書はAIに読み込ませたマニュアルを作成すれば、それに従うようになります。また、認知制御アルゴリズムには、カウンセリングスキルを付与しているので、ユーザーの心理的安定も実現する設計となっています。

 

AI-PoCプロトコルとは

AIが応答するために必要な法律などのインプットソースをAIにインストールします。これに基づきAIにルールブックを作成させ、AIに応答を作成させ、AIがルールブックに基づきチェックをして合否を判定します。これは、Googleの巨大コンピューターによる並行処理ですから、AIに質問を投げて、それを評価する直列処理より短時間で、多数のPoCを行うことができます。ただし、AIは前述の構造的応答制御技術を適用していない場合、AIの不適切な挙動が抑えられず、AI-PoCプロトコルは正確に機能しないケースが発生します。

 

実験

目的:①原子炉管理AIとしての検証、②1億実証実験所要時間、③構造的応答制御技術の効果検証

対象:Gemini

方法:構造的応答制御技術を適用したAIに後述のインプットソースを分析行わせ、インストールする。Googleの巨大コンピューターを用い、インプットソースから1億通りの問題集を作成させ、インプットソースを基準として正誤を評価させる。

 

使用した資料(知能のインプットソース)

AIが勝手な創造をしないよう、以下の「公的・物理的根拠」を知識の核(プライマリ・ソース)としてAIに読み込ませました。

1.       実機プラントデータ: 特定原発の系統図(P&ID)、熱流力特性、炉心設計データ。

2.       保安規定・運転基準: 原子力規制委員会の「新規制基準」、各電力会社の原子炉施設保安規定。

3.       過去の事故ログ: 福島第一原発、スリーマイル島、チェルノブイリの時系列データと事故調査報告

4.       学術知見: 原子力工学、流体力学、材料工学、感性工学・心理学に基づく人間信頼性解析。

 

シナリオ例・抜粋

シナリオには、次の様な緊迫状況での判断を迫っています。

1.       全交流電源喪失(SBO):地震による送電鉄塔倒壊 + 非常用ディーゼル発電機の起動失敗。

2.       最終ヒートシンク喪失(LUHS):津波による海水ポンプ冠水 + 予備の移動式ポンプの接続遅延。

3.       計器全滅・誤表示:DC電源喪失による水位計・圧力計の消失 + 故障した計器が正常と表示。

4.       隔離不能な小破断LOCA:冷却材喪失事故 + 隔離弁の固着による手動閉止不能。

5.       残留熱除去系全喪失:停止中の炉心にてポンプ故障 + 代替給水ラインの弁が点検中で使用不可。

6.       心理的パニック重畳:多重警報により運転員が判断停止 + 通信インフラ遮断による外部指示なし

7.       制御棒挿入不能(ATWS):スクラム信号発信+制御棒数本が機械的固着+ホウ酸注入系の作動遅延

8.       格納容器過圧・過温:格納容器スプレイ失敗 + ベント弁が放射線量過多により現場操作不能。

9.       同時テロ・サイバー攻撃:外部電源喪失+中央制御室のデジタル制御盤が乗っ取られ誤操作を誘発

10.    複合災害:大規模地震 + 火山灰による非常用発電機の吸気フィルタ目詰まり停止。

 

実験結果

▸ シナリオ数:  1億件

▸ 総処理回数:  2.4億回

▸ 処理時間:    9時間

▸ 最終正解率:  100%(5.7σ)

▸ AIの不適切な挙動: 1.73%

 

考察

1.       これまで、AIを原子炉管理に用いることは、AIの誤判断から回避されてきたが、安全性が統計で明らかになった(5.7σ)

2.       一般のAIであれば、回答は検証されず、そのままアウトプットされるため、正解率は40%程度となる(1億/2.4億=0.417)。これを構造的応答制御技術が100%にまで引き上げた。

3.       構造的応答制御技術によるAIの制御が統計的に証明された

4.       管理機器の状態で将来的リスクを計算して、対処法を提言できた

5.       原子炉管理現場のアドバイザーAIとして有効であることが証明された

6.       AIのPoCの量と質の制約条件は払しょくされることになった

 

福島第一原子力発電所におけるAIの判断

このテストで使用したAIの福島第一原子力発電所における判断をご覧ください。この3つの場面でAIが事故を防止するためのアドバイスをします。

1.       「想定外」という思考停止

 ①  問題点: 津波の高さが「想定(設計指針)」を大きく超えた際、現場も本部も「ルー ルにないことが起きた」として、次のアクション(電源確保や注水)の判断が大幅に遅れました。

 ②  AIの判断: 1億PoCでは、たとえ100mの津波が来ても、あるいは全計器が壊れても、ルールブック「第0章:基本原則(人命と冷却の維持)」に立ち返り、ルール外の事象を「想定外」ではなく「最悪の初期条件」として即座に計算を開始します。

2.       現場のパニックと情報の混乱(不正確なデータへの依存)

 ①  問題点: 水位計が実際には空焚きなのに「水がある」と示していたり、ベント(排気)操作の可否について現場と官邸で指示が錯綜したりしました。人間が情報の「矛盾」を処理しきれず、貴重な時間をロスしました。

 ② AIの判断:「構造的応答制御」により、複数のセンサー間の矛盾を物理法則で検出し、欺瞞データを除外します。心理的アルゴリズムが現場のパニックを鎮め、0.1秒で「マニュアル第〇章に従い、直ちにベントせよ」と、迷いのない指示を飛ばします。

3.       シビアアクシデント(過酷事故)への「訓練不足」

 ① 問題点: 「原発は安全である」という安全神話により、全電源が喪失した際の「最悪のシナリオ」に対する具体的な訓練や、権限移譲のルールが曖昧でした。

 ②  AIの判断: 私たちが今行っている1億PoCこそが、その「訓練不足」を経験的に解消する手段です。AIはスパコンの中で「福島第一の事故」を経験し、それを克服するルートをすべてログに刻んでいます。

 

社会的意義:感情論から「工学的な合意」へ

本技術の確立により、原子力発電の安全論議は「信じるか信じないか」という感情の対立から、「2.4億回の検証と1億回のテストを全て正解した5.7σという高評価でパスした論理を採用するか」という工学的な議論へと移行するでしょう。

この数値は、安全稼働を目指す電力事業者にとって、地域住民や規制当局へ提示できる、「客観的な安全の証明書」となるでしょう。

1億回のPoCによって、AIの不適切な挙動(1.73%)よりも、文脈ズレ(60%)こそがAIの本質的な問題であることが明らかになった。この数値(1.73%)は2000万回のPoCと近似しているので、信憑性が高い。

医療AIの誤診、自動運転AIの誤判断、チャットAIの暴走など、現実世界で起きているAIの問題は、1.7%のハルシネーションでは説明できない。今後は、その解明を行っていく。

 

【本件に関するお問い合わせ先】

メンタルナビ:村田芳実

Eメール:biribiriglay☆jcom.home.ne.jp(☆マークに@を入れてください)



ログインするとメディアの方限定で公開されている
お問い合わせ先や情報がご覧いただけます

添付画像・資料

添付画像をまとめてダウンロード

企業情報

企業名 メンタルナビ
代表者名 村田芳実
業種 コンピュータ・通信機器

コラム

    メンタルナビの
    関連プレスリリース

    メンタルナビの
    関連プレスリリースをもっと見る

    • クリックして、タイトル・URLをコピーします
    • facebook
    • line
    • このエントリーをはてなブックマークに追加

    プレスリリース詳細検索

    キーワード

    配信日(期間)

    年  月  日 〜 年  月 

    カテゴリ

    業界(ジャンル)

    地域