かつてSF小説家でもあったアイザック・アシモフはロボット三原則を提唱し、その第1条に「ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない」と記した。AIによるビッグデータ処理とその導き出されたルールにも明確な原則を打ち出すことが必要だと感じる。そうでなければAIの暴走をくい止めることもできなくなる。またこれまで本連載で記してきたことと異なる視点であるが、AIが主流になる時代において危惧する点を指摘しておきたい。それはAIに判断してもらうことに慣れて、AI依存症やAI判断依存症になり、判断の責任回避傾向が大きくなるのではないかということである。
AIを搭載した自律型致死兵器(ロボット兵器)についても述べてきたが、ロボット兵器の判断によって爆撃対象や殺りく対象が選定されることになれば、今日のようなフェイク情報があふれる戦争状況では事実関係を特定することも極めて難しくなるといえる。当然そのロボット兵器を稼働させた軍や人物の責任であることは明確であるが、ロボット兵器の性能等とも関わって責任の所在は複雑になるといえる。これらは人命に関わる問題であり、より重大な問題に直結している。
ビジネスにおいても重大性は異なっても同様の問題は起こりえる。あらゆる分野でAIが活用されることによって情報環境の劇的な変化が起こり、その変化がビジネスの在り方や働き方を大きく変える。それは当センターの中心的な課題である公正採用をはじめとした採用にも重大な影響を与えていくことになり、学生の就活の在り方も大きく変える可能性を含んでいる。
現在進行中のロシアによるウクライナ侵攻によって勃発した戦争においても、圧倒的に規模も小さく兵器も少ないウクライナ軍が善戦しているのは、情報戦においてロシアに勝っているからである。それは昔ながらの情報戦としてのインテリジェンスの闘いだけではない。北大西洋条約機構(NATO)に加盟している国等から供与されている武器や兵器の方がロシアの兵器に比較してIT(情報技術)面で優れているからである。換言すれば武器や兵器の情報化が進んでいるのである。その基盤を支えているのがAIを搭載した兵器である。AIによる情報分析とAIにコントロールされている高性能な武器によってロシアの戦車部隊等をくい止めているのである。さらにウクライナはロシア侵攻から3日後にはIT軍への参加を呼びかけている。そのIT軍には世界から30万人以上が参加しているといわれており、サイバー攻撃をはじめとした情報戦を展開しているのである。まさに「情報がすべてを決する」といった言葉が当てはまる状況である。戦争だけではなく人権問題も科学技術の進歩とともにより高度で複雑で重大な問題になっていくことを忘れてはならない。
次回からは最新の知見をふまえて「情報と人権」について考えていきたい。
北口 末広(近畿大学人権問題研究所 主任教授)