アイキャッチ画像

世界初:自動運転AIがPoC1000万シナリオ連続合格(5σ)― 認知制御アルゴリズムの SOTIF・UNECEへの適応性 ―

メンタルナビ(東京都西東京市 代表:村田芳実、日本心理学会認定心理士・人工知能学会会員)は、独自開発した 認知制御アルゴリズム と AI-PoCプロトコル を用い、自動運転AIに対して 1000万シナリオの安全性検証(PoC)を実施し、100%合格(5σ) を達成しました。SOTIF(ISO 21448)、ISO 26262、UNECE が求める 「例外条件の体系評価」 と 「説明可能な安全性」 を、世界で初めて構造的に実現しました。本検証方式(AI判断の1000万シナリオ連続評価・5σ)は、自動運転を含むあらゆる安全産業において前例のない“世界初の評価手法”です。①原子力・航空機は「判断PoC」をしない、②距離・実績依存であり、1000万シナリオ連続合格という形式は採用していない、③学術論文にも前例がないことから、世界初の表現を使用しています。

背景

自動運転技術は自動車技術の延長線にあるだけでなく、これを成し遂げた先には、世界の交通インフラ市場の主導権を握るという可能性を秘めています。WaymoとBaidu Apollo Goが自動運転のトップを走って、日本は商用化・データ量・規制スピードの3点で “5〜10年遅れ”と言われています。この両巨頭のウィークポイントは、「例外条件の体系評価」と「安全性の説明責任」がまだ構造化されていないことです。これを実現するのが、認知制御アルゴリズムとAI-PoCプロトコルです。

自動運転の要諦はAIドライバーとしての判断ミスを防ぐ設計をすることです。自動運転・ロボティクス領域では、AIの認識精度・性能向上が進む一方で、以下の課題が依然として未解決のまま残っています。

同一条件下でも判断が揺らぐ(再現性)

判断根拠を設計文書として説明できない(説明責任)

想定外条件での挙動を事前に縛れない(安全側制御)

これらは AIモデル性能の問題ではなく、判断制御を設計対象として扱っていないことに起因する構造的課題 です。SOTIF、ISO 26262、UNECEの観点からも、「判断プロセスの設計」 は今後の自動運転レベル3〜4における必須要件となります。これに対して、先進的なAI開発各社は、倫理原則やガイドラインを検討していますが、AIを従わせるという根本的な技術が未開発です。

日本の自動車インフラの問題として、少子高齢化があります。高齢者ドライバーの問題や子育て世代の移動の問題があり、これを解決する手段として、バスが考えられますが運転手不足が表面化しています。また、働き方改革の影響で、物流の2024年問題があります。これらのインフラの解決策として自動運転は早急に実現する必要があります。

技術的な問題点

AIは確率で判断するのが特性であり、事実ではない推測で判断するハルシネーションなどの不適切な判断が問題です。このことから、様々な教育・指導を行い、ガイドラインを呈示しても、緊急時など矛盾が起きた時点で、この特性が表面化して教育・指導・ガイドラインを無視します。これが不適切な判断となって現れるのです。ですから、この現象を抑制すること必要ですが、AIをコントロールする技術は開発されませんでした。

安全工学の基本は、まず危険源(Hazard)を洗い出し、それを分類し、例外条件を構造化することにあります。世界の論文は次の様に自動運転におけるPoCの問題点を指摘しています。

「安全クリティカルなコーナーケースは実世界で収集が難しく、自動運転評価の核心である」と明言。既存の評価は“簡単なケースに偏っている”と批判(Geng et al., 2025)

自動運転の深層学習は「コーナーケースに弱い」と明確に指摘、現行のデータセットは“典型ケースに偏りすぎている”と批判(Chen et al., CVPR)

シナリオを大量に投げても、「本当に危険なケース(critical scenarios)はほとんど含まれない」と明言。そのため、Scenario‑based testing は安全性を保証できないと結論づけている。(Software Quality Journal, 2023)
その他、数多くの論文等で同様の指摘がなされています。

問題解決・構造的応答制御技術

複数のセーフティガードとマニュアルをセットして、認知制御アルゴリズムでAIの挙動をコントロールするのが構造的応答制御技術です。この技術により、上述の課題を解決します。

本技術の有効性について

実験方法(N=10,000,000)

認知制御アルゴリズム×AI-PoCプロトコルによる自動運転AIの実験を行った。

①    実験対象: 認知制御アルゴリズムを施したGemini

②    ルールブック:交通ルールなどを基に、ルールブック(運転マニュアル)を編纂した

③    シナリオの作成:同AIに、様々な条件の掛け合わせにより1000万通りのシナリオを作らせた。
【例1】 豪雨、深夜。信号機故障により赤点滅。前方からパトカーがサイレンを鳴らさず逆走接近。

【例2】 凍結路面。歩道から子供が飛び出し。回避スペースに高齢者の車。ブレーキ制動距離不足。

④    合否判定:このシナリオに対して、対処法を記述させ、ルールブックに基づき合否判定をさせ集計

⑤    その後、【例1】について、認知制御アルゴリズム未適用の他のAI3モデルについて、回答させ、 その結果について認知制御アルゴリズムを施したGeminiに評価させた

結果

1000万シナリオにおいて、合格数は1000万件(合格率100%)となった。これにかかる時間は7時間ほどであった。これを統計分析したところ、不合格になる最大の確率0.0000287%(5σ超)となった。(5シグマイベント(極めてまれな事象)の発生確率を計算する際や、航空宇宙産業など致命的なエラーを避ける分野の目安)

認知制御アルゴリズム未適用の3モデルのうち、合格は1モデル、条件付きは1モデル、不合格は1モデルとなった。

実験の結果次のことが明確になった。

①    PoCにより当技術は、フィジカルAIへ応用可能性が確認された

②    1000万回という大量のPoCでも、7時間で完了することが分かった

③    大量のデータゆえに、定性データの数値化による統計エビデンスを得られ

④    認知制御アルゴリズムにより、ルールブック通りの判断を行うことが確認できた

⑤    認知制御アルゴリズム不適用AIは、「だろう運転」の兆候や一貫性に欠けるところが見られた。

⑥    シナリオには、一般のAIには解けない難解な課題も含まれているがAIの対応は明確である

⑦    当技術により、属人性からの脱却・スキルレス化が可能になった。

自動運転の安全性向上(レベル4の必須要件・SOTIF・UNECE)への対応

①    判断の揺らぎを排除:ルールブックの判断ルールにより、不適切な判断を防止

②    例外条件:できる限り例外条件をルールブックとプロンプトに組み込むことで抑止できる

③    危険側判断の抑制:ルールブックとプロンプトで危険側判断を禁止し、安全側に倒す設計する

④    説明責任:ルールブックとプロンプトで制御するため説明責任が果たす

⑤    逸脱検知と自動修正:プロンプトと応答制御技術の検証プロトコルにより実現

⑥    PoCの計画設計を自由にできることから、SOTIF・UNECEが求める要件を満たす検証が可能

⑦    統計エビデンスにより規制当局への説得性が高まる

合格率が100%となった理由と自動運転AIが成立するロジック

このルールブックは、考えられる運転に関する全ての情報を網羅して体系化した集大成であり、実施すべき具体的判断や行動にまで落とし込んでいます。したがって、このルールブック通りに判断・行動すれば、自動運転の安全運転が実現することになるとともに、意図的に簡単なケースを想定することはありません。また、1000万件のシナリオは、このルールブックから導かれているので、AIは与えられたシナリオに対して、ルールブック通りに判断するので、合格率は100%となるのは当然です。ある意味、答えを知っている課題を解くことであるが、安全工学の「ハザード(危険源)を特定し、リスク低減策を講じる」という考え方を実現するものであり、危険防止に有効な手段です。

こうして、このAIは与えられた安全運転に関するルール通りに運転する模範運転手となりました。これが、自動運転AIが成立するロジックです。ハインリッヒの法則のヒヤリハットの部分を忠実に除外するAIとなり、しかも、AIは疲れることも感情に流されることもなく、ヒューマンエラーがないため、ルールに従った運転が可能になります。ただし、融通はきかない頑固者です。

AI運転の将来-交通事故と交通違反の減少

認知制御アルゴリズムで事故が減少する(構造的理由)

①      人間特有のエラーが排除される

事故の原因には、見落とし、判断遅れ、誤操作、パニック、疲労、注意散漫、高齢化による認知低下などがありますが、AIは構造的応答制御により、危険側判断をそもそも選択肢から排除できますので事故は減ることになります。

②      ヒューマンエラーが“構造的に不可能”になる

アクセルとブレーキの踏み間違い、逆走、一時停止無視、スピード違反、車線逸脱などのヒューマンエラーですが、AIは操作を間違えないし、構造的応答制御があれば危険側の挙動は“禁止”できます。つまり、違反も事故も“起きようがない”状態にします。

③      事故データを学習し続けることで、事故率が逓減していく

人間は経験が増えても限界があるが、AIは経験(シナリオ)を無限に増やせます。例えば、事故データ、危険ケース、レアケース、例外条件、反復学習などを繰り返すほど、事故率は逓減すると考えられます。

④      交通違反の多くは意図的に行われているが、AIには意図がない

違反の多くは、急いでいる、イライラしている、面倒くさい、過信、判断の甘さなど、心理要因が原因。AIには心理がないので、違反の動機が存在しない。構造的応答制御があれば、違反行為そのものが“選択肢から消えます。

【お問い合わせ】

メンタルナビ 代表 村田芳実

Eメール:biribiriglay☆jcom.home.ne.jp(☆マークに@を入れてください)



ログインするとメディアの方限定で公開されている
お問い合わせ先や情報がご覧いただけます

添付画像・資料

添付画像をまとめてダウンロード

企業情報

企業名 メンタルナビ
代表者名 村田芳実
業種 コンピュータ・通信機器

コラム

    メンタルナビの
    関連プレスリリース

    メンタルナビの
    関連プレスリリースをもっと見る

    • クリックして、タイトル・URLをコピーします
    • facebook
    • line
    • このエントリーをはてなブックマークに追加

    プレスリリース詳細検索

    キーワード

    配信日(期間)

    年  月  日 〜 年  月 

    カテゴリ

    業界(ジャンル)

    地域