この問題は以前も取り上げましたが、少しずつ中身がわかってきた(感がする)ので再度あえて同じ話題で掲載します。人間を超えるマシンが出現する可能性はありますが、あくまでも判断決断は人間がしておきたいという心情は理解できます。米国が目指すのは限りなく人間をサポートするマシンなのでしょう。ロシア、中国が人体を改造しているとの確証はありませんが、倫理問題が騒がれない分だけ仕事はしやすいのでしょうね。
‘The Terminator Conundrum’: Pentagon Weighs Ethics of Pairing Deadly Force, AI
By Andrew Clevenger 11:56 a.m. EST January 23, 2016
WASHINGTON — 国防総省は第三相殺戦略に120億ないし150億ドルを2017年度予算に確保し、根本から流れを変える画期的技術の開発をめざすと統合参謀本部副議長が述べた。
- 主な分野にはエネルギー生産・貯蔵、強力な威力を発揮する兵器技術、ソフトウェアによる誘導制御があると空軍大将ポール・セルヴァがブルッキングス研究所主催の会場で語った。
- 「一部の資金投入は結果を生まないだろう。だが小規模の賭けを同時にして違いを見つつ、優位技術と判れば推進力となり、第三相殺の手段となりうる」
- 「ただし問題は『民間部門で開発中の技術で戦力効果を増進させる効果が得られるのか』という点で、初回の相殺戦略では戦術核兵器、第二回目ではステルス技術があったが、今度は何になるのか。また先の質問の答がイエスなら戦闘方法も変わることになる。 これに失敗すれば軍は現行能力を少しでも伸ばして優位性の確保に務めるだろう。」
- 威力甚大な兵器を生む技術に指向性エネルギーや超高速発射可能な動力砲構想があり、ミサイル防衛の経済効果をひっくり返す可能性があるとセルヴァ大将は発言。非常に高価な高性能手段で弾道ミサイル・巡航ミサイルを迎撃するのではなく安価な装備でミサイル防衛が可能になれば、敵側はさらに高性能な攻撃兵器へ資金投入を迫られるはずだ。
- 米国は「10セントの問題に10ドルの解決策をあてはめている。必要なのは10ドルの問題に10セントで対応することだ」
- 実用化寸前まで来ている新技術があるが、深刻な倫理問題を引き起こしかねないとセルヴァ大将は注意を引いた。国際社会は生物強化策や人体への機械部品埋め込みで合意可能な規範を打ち出す必要に迫られるだろうとした。
- さらに人工知能の問題があり、自ら学習していくマシンは予めセットした任務だけ実施するロボットとは全く異なる存在で、今後の課題になると警告。
- 「人工知能は戦闘行為をより早く実施するのに大いに役立つし、戦闘の行方がより正確に予想できるようになり、敵の情報を活用して戦場で重要決断を下すことも可能となる。だが私自身は現時点で機械に決定させたくない」
- 「武器に敵の特徴を学習するよう指示すると、敵の特徴から目標捕捉ができるようになる。これもこの時点でこれをよしとすればだが。敵を捕捉しても、攻撃実施は人間の判断すべきことだ」
- だが軍はまもなく無人自律型の攻撃兵器の投入をすべきか決断を迫られる。
- 「倫理上の問題があり、戦争法でも問題になる。『ターミネーター』問題と呼んでいる。致命的な被害を与える機械が人工知能を備えたらどうなるだろうか」と発言し、「自動機械の心が読めるだろうか、知能をもった機械を作る事ができる前提でいっているのだが」
- 一つ困難が予想されるのは自律型、学習型装備のテストで実用的かつ確実性で意図通りの作動が可能になるのかという点だ。.
- 「国防総省では機械を組み立てれば壊れるまでテストを繰り返す。人工知能を持った機械の場合はこれができない。ソフトウェアが学習した内容をこちらに伝える機能が必要だ」
- だが実験施設外で自ら学習する機械が望ましい結論に到達し、こちらが望む反応を示すと保証できるだろうか。
- 「それは技術部門が悩む問題だろう。機材製造は比較的簡単になるはずだ」.
- 国防総省は莫大なデータベースからのディープラーニングシステムとして、世界各地の大型データベースを串刺しで分類区別したいとセルヴァは述べた。その目標はヒトに助言を与えれるまでにマシンを教えることで実現すれば大きな成果となると本人は見ている。
- 「普段使うデータセットが巨大化し複雑化して何らかの整理のしくみがないとデータの山に飲み込まれそうだ」とし、「何らかのアルゴリズムを作り、マシンに学習させれば天気予報が一変するし、農作物の栽培方法も変わるだろう。戦場でも敵の探知方法が一変するはずだ」■
コメント
コメントを投稿
コメントをどうぞ。