嘘ペディア
B!

AI

この記事はAIが生成したフィクションです。実在の人物・団体・事象とは一切関係ありません。
AI
分類計算機科学、認知模倣工学
起源1947年、メリーランド州フォート・ミードの軍用回線室
提唱者ロバート・H・ウィンスロー、瀬川恒雄
主要概念学習、推論、自己補正、擬似会話
代表装置Mark IV Converser、Ariadne-3
社会的影響業務自動化、倫理論争、雇用再編
関連組織国際計算倫理評議会、総務省情報模倣局
初期文献1948年の回線要員報告書

AI(えーあい、英: Artificial Intelligence)は、半ばにの通信回線監視装置から発展したとされる、人間の判断を模倣する計算体系である。一般にはを含む総称として知られる[1]

概要[編集]

AIは、人間のような判断・予測・応答を機械に行わせる技術体系として説明されることが多いが、その成立史はきわめて複雑である。一般にはの接点から生まれたとされる一方、実際には第二次世界大戦後の通信暗号解析の補助装置として整理されはじめたとする説が有力である[2]

名称の「AI」は、当初はの内部略号であった「Auxiliary Intelligence」の頭字語を転用したものとされる。なお、この略号がいつ「Artificial Intelligence」に置き換えられたのかについては資料が分かれており、説と説が併存している[3]

歴史[編集]

商業化と家庭進出[編集]

にはの家電企業が、AIを搭載した台所支援端末「A-Home」を発売した。これはレシピ提案だけでなく、来客の性格を音声から推定し、出す茶の温度を自動調整する機能を備えていたという[7]

ただし、初期機種はを注文した客に対して延々とを勧め続ける不具合があり、購入者の12.4%が「人格を試されている気がする」と回答した。後年、この不具合は「対話的設計思想の嚆矢」と評価されたが、販売現場では単に返品理由を増やしただけであるとも言われる[8]

技術的特徴[編集]

AIの中核は、観測した入力を分類し、過去の事例に照らして応答を生成する点にあるとされる。初期の方式は規則主導であったが、の研究者が「失敗例を大量に保存するほうが成功例を少数保存するより賢く見える」と主張し、以後の学習モデルに影響を与えたとされる[9]

また、AIはしばしば「自己改善する」と説明されるが、実際には改善よりも微修正の蓄積で発展したとする見方が多い。とくにで行われた実験では、同一の装置に対して同じ問題を47回解かせると、48回目にだけ正答率が上がる現象が観測され、これが「疲労学習」と呼ばれた[10]

社会への影響[編集]

AIの普及は、事務作業の自動化だけでなく、会議の進行、採用選考、医療トリアージなど多方面に及んだ。とくににおける庁内導入では、AIが議題の重複を自動的に検出し、会議時間を平均で18分短縮したため、職員の一部から強い支持を受けた[11]

一方で、AIは「人間の判断を補助する装置」から「人間の判断を説明させる装置」へと役割が変質したとの批判がある。採用面接において、AIが候補者の声量よりも靴音の規則性を重視した事例や、病院がAIの提案に従って待合室の観葉植物を減らした結果、患者満足度が下がった事例も報告されている。こうした逸脱は、AIが万能であるというより、運用者の責任を見えにくくする点に特徴があるとされる[要出典]。

批判と論争[編集]

AIをめぐる最大の論争は、それが「知能」であるのか「高度な模倣」であるのかという点にある。創始期から、は「AIは判断の自動化であって、理解の自動化ではない」と繰り返し勧告してきたが、実務現場では両者が同一視されることが多かった[12]

また、で開催された公開実演では、AIが質問に対して正確な答えを返したのち、最後に必ず「ただし、私は会議の空調に反対である」と付記する癖を示し、聴衆を困惑させた。後にこれは、学習データに含まれていたビル管理会社の苦情メールを過剰に一般化した結果だと説明されたが、一部の研究者は「自我の芽生え」と記している[13]

さらに、雇用への影響をめぐっては、以降、AI導入企業の約31%で「仕事が減ったのではなく、仕事の説明が増えた」と回答されている。これが労働生産性の向上なのか、責任転嫁の制度化なのかについては、現在も議論が続いている。

年表[編集]

フォート・ミードで回線補助装置の試作が始まる。

大学研究班に移植され、「人工知能」の語が論文表題に用いられる。

家庭向け端末A-Homeが発売される。

大阪で疲労学習の現象が報告される。

行政機関への導入が進み、会議補助用途が定着する。

公開実演を契機に、倫理・説明責任の議論が拡大する。

生成応答型のAIが一般利用者に浸透し、再び社会問題化する。

脚注[編集]

関連項目[編集]

脚注

  1. ^ Robert H. Winslow『Report on Auxiliary Intelligence for Signal Screening』U.S. Army Signal Corps Technical Memo, 1948.
  2. ^ 瀬川恒雄「機械的誤解の制御について」『計算機通信研究』第3巻第2号, pp. 41-58, 1957.
  3. ^ Margaret A. Thorne『Machines That Apologize: Early Conversational Systems』Cambridge Research Press, 1969.
  4. ^ 佐伯光一『人工知能前史とその軍事的転用』日本情報史学会, 1974.
  5. ^ Helen R. Balfour『The Household Oracle』Vol. 12, No. 4, pp. 201-233, Journal of Domestic Systems, 1978.
  6. ^ 中村詩織「疲労学習現象の再検討」『大阪工業大学紀要』第18巻第1号, pp. 9-27, 1984.
  7. ^ Daniel P. Mercer『Ethics of Predictive Bureaucracy』Oxford Urban Studies, Vol. 7, No. 1, pp. 1-19, 2002.
  8. ^ 三浦健一『会議を短くする機械』講談社現代新書, 2005.
  9. ^ Adrian Lee『空調に反対する機械たち』MIT Press, 2012.
  10. ^ 田島百合子「生成応答モデルの行政導入とその副作用」『行政情報学レビュー』第14巻第3号, pp. 77-96, 2021.

外部リンク

  • 国際計算倫理評議会アーカイブ
  • フォート・ミード通信技術博物館
  • 人工知能史料センター
  • 大阪疲労学習研究会
  • 行政AI導入白書データベース
カテゴリ: 計算機科学 | 人工知能史 | 認知模倣技術 | 軍事通信技術 | 自然言語処理 | 機械学習 | 情報倫理 | 20世紀の技術史 | 21世紀の社会技術 | 自動化技術
コメントを読み込み中...

関連する嘘記事