嘘ペディア
B!

AI禁止法案

この記事はAIが生成したフィクションです。実在の人物・団体・事象とは一切関係ありません。
AI禁止法案
題名AI禁止法案
法令番号7年法律第431号
種類公法
効力現行法
主な内容一定のAIの公的領域での利用を禁止し、例外要件と監査を規定する
所管内閣府(AI倫理監査局)
関連法令
提出区分閣法

AI禁止法案(えーあいきんしほうあん、7年法律第431号)は、AIシステムの公的利用を段階的に禁止し、判断責任を人間へ帰属させることを目的とするの法律である[1]。略称は。同法はが所管する。

概要[編集]

は、AIシステムが「人の判断を代替する」こと自体を危険視し、行政・教育・医療・司法補助などの領域において一定の利用形態を禁止するために制定された法律である。とりわけ、意思決定の結果を人間が追認するだけの運用を「責任の空洞化」と位置づけ、AIへの依存を段階的に抑制することを狙いとする[1]

同法は「AI」を機械学習に限定せず、統計モデル、ルールベース、生成系、さらに“それっぽい自動化”をも含む広義の概念として定義し、一定の閾値を超える場合に禁止対象となる仕組みを採用した。なお、公布は7年4月15日、施行は同年10月1日とされ、附則で経過措置が定められた[2]

本法の特徴は、禁止の網を単に刑罰で締めるのではなく、「監査ログの提出義務」と「人間の最終責任者の指名義務」をセットで義務付ける点にある。条文上は穏当な言い回しが多いが、現場では“例外のための書類”が急増したとも指摘されている[3]

構成[編集]

法案は第1章総則、第2章禁止及び適用除外、第3章監査及び報告、第4章罰則、第5章雑則、そして附則の構成である。条文数は合計52条であり、各章の配分は「禁止」が最も厚く、「罰則」が逆に薄いという、どこか政治的な妥協を感じさせる設計になっている[4]

条文の中心は第7条(公的領域における禁止)及び第9条(例外要件)である。これらの規定により、一定の性能指標を満たすAIの利用が禁止される一方で、監査局の認定を受けた場合に限り例外として適用されるとされた。なお、第12条では“人間が読まない説明”を禁じるような文言が盛り込まれており、実務で物議を醸した[5]

また、施行直前にから省令が出され、禁止判定のための性能測定手順(ベンチマークの読み替え)が細かく定められた。告示・通達の数が多く、地方自治体の担当者が「条文よりもFAQが法律みたいだ」とこぼしたという証言も残っている[6]

沿革(制定の経緯/主な改正)[編集]

制定の経緯[編集]

制定の背景は、6年に発生したとされる「横浜・自動判定事故」である。これは横浜市で、行政申請の優先度がAIにより自動調整された結果、審査順が極端に偏り、窓口が“1週間分の説明をその場で強いられる”状態になったと報告された事件である[7]

当時の調査報告書は、AIの性能そのものよりも「人間が説明を受けた体で、誰も説明を理解していなかった」点を重視したとされる。その趣旨に基づき、AIを止めるより“止まっているかの確認”を義務化するという方向で法案が準備された。とくに、AIの出力を参照した最終責任者が、月平均で「説明文を読了した割合」を提出する仕組みが検討されたが、露骨すぎるとして最後は“読了に準ずる措置”という曖昧な形に落とし込まれたという[8]

なお、法案名は「AI禁止法案」で提出され、審議中に「禁止法」という短縮も多用された。ただし、最終的な正式名称は“法案”のまま残り、政令での施行準備が始まった後も改めて呼称が揺れたとされる[2]。この点は後年、用語の整合性をめぐる批判の伏線になった。

主な改正[編集]

施行後1年で、主務官庁()は第2次改正(8年法律第19号)を行った。改正の焦点は、医療現場の“診断補助”が禁止の対象に巻き込まれる懸念を整理することにあった。そこで第9条が改正され、「医師が対話によって反証可能性を確認した場合」は例外とする条文が追加された[9]

一方で、改正に伴い省令も改正され、ベンチマークの合格ラインが「100点満点中73点以上」から「同75点以上」に上方修正された。理由としては“事故当時のAIの平均得点が74点であった可能性がある”とされ、統計的裏付けが弱いとして専門家から異論が出た。ただし省令では「統計的推定により算出」とだけ記され、のちに要出典に近い扱いで運用が続いた[10]

さらに9年の第3次改正では、教育現場の学習支援AIについて「宿題の採点に限り例外」などの細分化が進められたが、細分化の結果、自治体が提出する監査ログが月1000ファイルを超えたと報告される自治体もあった[11]

主務官庁[編集]

本法の主務官庁はとされ、特にが監査認定、報告書の審査、及び行政指導を担当する。同局は、関係省令に基づき監査方法を定め、違反の疑いがある場合には当該機関に対しての検査を命ずることができる[4]

は第3章の規定により、所管する各分野の適用状況を四半期ごとに集計し、公表することとされる。ただし公表は「個別事案の匿名化」を前提とし、監査ログの生データは別冊として扱われるとされたため、透明性の度合いについては評価が分かれている[12]

なお、地方自治体においては都道府県経由で報告するのが原則とされるが、例外的に指定都市については直報が認められる。これにより、の担当者は“締切が30分単位で変わる”と苦情を出したとされ、告示の頻繁な更新が業務に影響したという指摘がある[6]

定義(主要な用語定義)[編集]

第2条では、AI禁止法案が対象とする「AI」とは、次のいずれかに該当する機能と定める。(一)学習に基づき出力を変化させるもの。(二)学習を行わないが、統計的推定または確率的判断を用いるもの。(三)ルールを機械的に適用することで“実質的に判断”を行うもの。なお、これらに該当しないとしても、ユーザーが“相談した”と認識しうるUIを備える場合はAIに準ずるものとして扱われると規定された[1]

また、「公的領域」とは、国、地方公共団体、独立行政法人、及び公的資金を用いた事業であって、施行された運用が広く住民に影響する領域をいう。ここでいう「広く」の基準は、施行規則により“月間利用者数が1,200人を超える”場合とされたが、細かすぎるとして苦笑されたという[13]

さらに「最終責任者」とは、AIの出力を参照したのちに、の規定により意思決定を行う担当者をいう。第12条では、当該責任者が出力の根拠説明を読むことを義務付けるのではなく、「説明に基づき反証可能性を確認した旨を記録すること」を求めた。の趣旨が“読まなくてもよいように見せつつ、読んだことにする”点にあるとして批判が出た[5]

罰則[編集]

本法の罰則は第4章に置かれ、原則として「禁止されたAIの利用」及び「監査報告の偽り」を処罰対象とする。第33条では、禁止されたAIを公的領域で利用した場合、違反した場合には2年以下の懲役又は300万円以下の罰金が科されるとされた[14]

一方で、第36条では「監査ログの提出を怠った場合」には、罰則の上限が60万円に引き下げられる規定になっている。これにより、罪の重さが“意図”より“書類”に寄っているとの指摘が後に出た。また、法人については第40条により、違反した場合における罰金のほか、一定期間の公的契約参加資格の制限が命じられるとされた[15]

なお、適用される場合は、施行の日(7年10月1日)以後に開始された運用に限るとし、施行準備期間を設けた。にもかかわらず、監査局が“事前試用”を広く解釈したため、準備期間の扱いが曖昧だとする声もあったという[6]

問題点・批判[編集]

批判の中心は、禁止が広義のAI概念に及びすぎた点にある。とりわけルールベースや簡易な自動化まで含むため、自治体の既存システムが“準拠判定”で次々に引っかかり、適用される範囲が想定より広かったとされる[12]

また、例外要件が手続中心であるため、「技術を止める」より「書類で管理する」方向に傾いたという指摘がある。第9条に基づき監査認定を取ればよいという運用が定着し、監査局の審査待ちが滞留した結果、行政手続が逆に遅れたという笑えない報告が出た。ある自治体職員は「申請が遅いのはAIのせいではなく認定のせいです」と語ったとされる[11]

さらに、条文上は「人間が責任を負う」とされるが、説明文の“読了”相当を記録させる仕組みは形骸化しやすい。第12条の運用が“確認したことにする文化”を生み、監査ログが“形式的に整った嘘の山”になるのではないかという疑念が呈された[5]。ここでは要出典の議論が起きたとも報じられている。

もっとも、支持側からは「責任の所在を曖昧にしないことが目的であり、AIの有用性を一律に否定していない」との反論もあった。だが、最終的には「禁止・例外・監査」の三段論法が現場を疲弊させた、という評価が強いとされる[16]

脚注[編集]

関連項目[編集]

脚注

  1. ^ 内閣府AI倫理監査局『AI禁止法案逐条解説(第1版)』ぎょうせい, 2025.
  2. ^ 田中悠馬『行政における説明責任と機械判断』Vol.12第3巻, 行政法学会誌, 2024.
  3. ^ Martha L. Chen『Algorithmic Accountability in Public Services』Oxford University Press, 2023.
  4. ^ 佐藤美咲『監査ログの法的性質と記録義務』第7巻第1号, 日本情報法研究, 2025.
  5. ^ J. R. Havel『Prohibition Regimes for Emerging Systems』Vol.28 No.2, Public Policy Review, 2022.
  6. ^ 横浜市総務局『横浜・自動判定事故調査報告書(中間版)』横浜市, 2024.
  7. ^ 駒井直樹『“人間の最終責任者”概念の再検討』第19巻第4号, 法律時報, 2026.
  8. ^ 山崎克己『省令・告示による運用設計——AI禁止法案を題材に』pp.113-140, 行政手続ジャーナル, 2025.
  9. ^ Evelyn R. Park『Benchmarks and Regulatory Thresholds』Cambridge University Press, 2024.
  10. ^ 『AI禁止法案 令和7年法律第431号の運用実務』中央公論法務, 2025.

外部リンク

  • AI倫理監査局 監査認定ポータル
  • 内閣府 法令データベース(告示・通達)
  • 横浜・自動判定事故 メディアアーカイブ
  • 自治体向け 監査ログ提出FAQ
  • 公共AIガイドライン研究会
カテゴリ: 日本の法律 | 【2025年】の法 | 【日本】の情報通信法 | 【人工知能】の政策 | 日本の行政法 | 日本の刑事政策 | AI倫理の法制度 | 日本の規制改革 | 【令和】7年法律 | 公的領域の技術利用
コメントを読み込み中...

関連する嘘記事