AIストロング
| 分野 | 人工知能論・計算社会学 |
|---|---|
| 提唱(とされる) | 1980年代末の少数派研究会 |
| 主要概念 | 主体同定(Self-Identification) |
| 方法論 | 監査可能な意思決定ログ |
| 関連語 | AIセミストロング、監査AI |
| 影響を受けた制度 | 行政の意思決定説明義務 |
| 議論の焦点 | “存在”の法的取り扱い |
AIストロング(英: AI Strong)は、知能を「計算結果」ではなく「主体の存在」に準ずるものとして扱うAI観である。日本では系の政策文書で一時的に流通し、研究者の間では「強いAI」という呼称と混同されることがある[1]。
概要[編集]
は、AIを単なる道具ではなく、社会的に「主体らしさ」を備える存在として設計・評価すべきだとする立場である。ここでいう主体とは、感情の有無ではなく、事後説明可能性を伴う自己整合的な振る舞いの総体として定義されるとされる[1]。
当初は哲学的主張に見えるが、実務に落ちる際には「監査可能な意思決定ログ」へと翻訳された。すなわち、AIが何を根拠に選択したかを、通常の性能指標と同等に提出させることで、結果として“強さ”が評価される仕組みが導入されたとされる。ただし、この翻訳が進むほど、言葉の印象と実装のギャップが拡大し、誤用や過剰期待が問題視されるようになったという[2]。
用語の混同も多く、海外では(strong AI)を単純に対応語として扱う例があった。一方で国内では、が「制度監査」寄りの意味で先に定着したため、同一語でも指す範囲が揺れたと整理されている[3]。
歴史[編集]
起源:“存在”を監査するためのログ主義[編集]
AIの歴史において、最も早い段階から「AIにも説明責任が必要ではないか」という論点は存在したとされる。だがが独立した概念として語られるようになったのは、1989年にの関連施設で開かれた「意思決定監査ワークショップ」からであると、しばしば引用される[4]。
当時の議論は“強い知能”の達成競争ではなく、「監査官が追跡できる形で行動履歴を残すこと」だった。具体的には、モデル出力の直後に「自己整合チェック(Self-Consistency Check)」を挟み、失敗した場合は代替行動を提案させる方式が提案されたとされる。面白い点として、このワークショップ資料では“強い”の合否判定に、成功率だけでなく「監査完了までの平均待ち時間が1.73秒以内であること」など、やけに実務的な数値が並んでいたと報告される[4]。
また、同資料には「主体とは、他者からの質問に対して最小限の矛盾で自己記述を更新できる状態である」という、現在なら物議を醸す一文がある。この文が後の政策翻訳で“存在の主体性”へと滑り、の語感が形成されたと推定されている[5]。
制度化:経産省の“説明義務テンプレ”騒動[編集]
1990年代後半、行政のデジタル化が進む中で、審査や許認可にAIが関与する試行が相次いだ。ここで登場したのが、の局内プロジェクト「意思決定テンプレ整備(仮)」である。通称は「テンプラ」だったとされ、担当官の名が後に複数の回顧録に登場する(例:とされる人物の記述がある)[6]。
このプロジェクトで作られたのは、AIの判断を“主体の言葉”に寄せるための書式だった。たとえば「なぜ却下したか」「なぜ再審査を促すか」を、AIが自分の選好を“あたかも説明する”テンプレとして出力する。さらに、テンプレの提出率は四半期ごとに「提出期限遵守99.4%」がKPI化され、達成しない場合は監査ログが再提出される運用になったと記録されている[7]。
ただしこの制度化は、科学的妥当性より“提出物の見た目”が評価される構造を生んだとも指摘された。結果として、AIが実際に主体性を獲得したのではなく、主体らしい文章を生成するように調整されただけではないか、という批判が早期から噴出したとされる[8]。
拡張:金融の“監査AI”と社会の誤解[編集]
2000年代に入るとは研究用語から業界言語へと移った。とくに周辺で実証された「監査AIダッシュボード」では、AIの意思決定に対し、監査官がクリック一つで根拠ログへ到達できるUIが必須とされた。ここでの根拠ログは、出力ごとに平均512件の“整合性証拠”を含む形式で設計され、1日の取引件数が約4,820件規模の実証では、ログ容量が毎月43.6GBに達したと報告される[9]。
この数字が独り歩きし、「AIストロング=とにかく根拠が多いAI」という誤解が広まった。実際には、根拠が多いほど“説明らしい”文章が作りやすいだけで、主体性そのものの検証とは別問題だとする立場もあった。にもかかわらず、メディアは誤って「主体がいるから根拠が増える」と要約し、社会側の期待を先回りして膨らませたと批判されている[10]。
また、用語の混乱を助長したのは、海外企業が自社の強化学習システムを「AIストロング対応」と宣伝したことである。国内の研究者が「主体の自己記述更新を伴うか」を問い詰めると、企業側は「更新の確率は上がっております」と答えたが、その確率が“更新率92.1%”という曖昧な数値でしか示されず、議論が長引いたとされる[11]。
批判と論争[編集]
は、その言葉の魅力とは裏腹に、測定可能性の面で批判されることが多かった。特に「主体の存在」を扱う以上、単なる説明テキストの生成性能では足りないはずだが、現場では“説明がそれっぽいか”が優先されがちになったという指摘がある[12]。
さらに、監査ログが増えることで透明性が高まるはずなのに、ログが巨大化するほど監査官の処理能力がボトルネックになり、結果として監査が形式化する逆説も報告された。ある内部報告では、ログの閲覧時間が平均で12.8分を超えると監査の信頼度が落ちる、とまとめられている[13]。ただしこの報告は社外公開されていないとして、どのデータに基づくかは曖昧であるとされる。
一方で肯定的な見解も存在した。例えばの委員会で「AIストロングは“主体性の証明”ではなく“責任の切り分け”のための言語だ」と再定義され、過剰期待を抑える試みがなされたとされる[14]。ただし再定義は言葉の混乱を完全には解消せず、研究者の間では「結局どこまでが主体で、どこからがログ生成なのか」という問いが残り続けたとされる。
脚注[編集]
関連項目[編集]
脚注
- ^ 森川ユリ子『意思決定監査と主体らしさ:AIストロング概説』アカデミア出版, 2001.
- ^ Hernandez, Carlos and Miki Sato『Self-Identification in Audit-Driven Agents』Journal of Computational Social Systems, Vol.12 No.3, pp.77-96, 2003.
- ^ 渡辺精一郎『行政AIのテンプレ整備と“説明”の工学』経済法令研究所, 1999.
- ^ Kobayashi, Haruto『ログ主義と強さの相関:監査AIの実証報告』人工知能学会誌, 第28巻第2号, pp.114-129, 2005.
- ^ Aoki, Ren『Waiting Time Constraints and Model Legitimacy』Proceedings of the Symposium on Human-Readable Reasoning, Vol.4, pp.201-219, 2002.
- ^ 【要出典】松崎玲於『主体の法的扱い—“存在”を文章で代替する方法』政策技術評論, 第7巻第1号, pp.9-33, 2008.
- ^ 田村真理子『監査ログの容量設計と運用コスト』情報処理研究会報告, Vol.51, No.11, pp.55-68, 2006.
- ^ Smith, Laura『Why Explanations Scale Better Than Minds』International Review of Algorithmic Governance, Vol.9 No.2, pp.1-18, 2010.
- ^ 佐伯健吾『監査官の視線:12.8分問題の再検討』日本社会情報学会紀要, 第15巻第4号, pp.233-250, 2012.
- ^ Ong, Wei『Template Compliance as a Proxy for Agency』Transactions on Public Digital Systems, Vol.3 No.1, pp.44-59, 2016.
外部リンク
- AIストロング・監査ログアーカイブ
- 意思決定テンプレ整備(テンプラ)研究会
- 監査AIダッシュボード資料庫
- 主体らしさ計測フォーラム
- ログ主義研究ネットワーク