前回、AIが多くの判断をする時代についてお伝えした。さらに具体的に考えていきたい。
人びとは日々多くの判断や決断に追われている。立場によって異なるが、苦渋の判断をしなければならないときもある。その多くをAIが担ってくれれば精神的負担は極めて軽くなる。人の生死の判断に直結することも職業によっては珍しくない。
戦争に関わる部署や医療に関わる部署等である。政治家も同様だ。今、ウクライナをめぐってロシアと米欧諸国との緊張関係が大きく高まっている。それぞれの政治リーダーの判断によっては多くの人の命が失われるとことも現実味を帯びている。そうしたリーダーの判断の前提として開戦になった場合の勝敗等の見通しなども重要なものになるだろう。
しかしこれらの判断材料が示されたとしても、その政治家の倫理観や戦争の悲惨さといった認識の強弱、人権感覚等によって判断は大きく変わる。
同じようにAIもどのようなビッグデータで学習してきたかによって判断基準は変化する。人権を重視するか否かの判断基準は間違いなく開戦判断に影響を与える。
AIも臨機応変な人間の判断に近づくとこれまでに述べたが、全ての人間が同じ判断をするわけではない。
人間もその生い立ちや何を経験し学んだかによって、その思想性は大きく変わる。多くの人びとにとっては生まれてからのあらゆる経験がビッグデータである。その経験によって人権感覚や差別意識に差異が生まれる。AIも同じである。
人間は日々多くの学びも含めた体験をビッグデータとして吸収している。AIもビッグデータを吸収すればするほど判断が研ぎすまされていく。一方でビッグデータに大きな偏りがあれば間違った判断をする可能性が高くなる。
人間も多くの経験というビッグデータからの学びによって人権感覚が変化するように、何を人生の中で重視するかによって感情も変化する。
AIを研ぎすますビッグデータには人間活動の多くが含まれている。過去の人間活動のデータには人間の感情も含めて一見矛盾するようなデータも含まれている。そのデータには差別や偏見も含まれている。人びとの会話を含む言動もビッグデータである。
SNS上の差別的な会話から学んだAIはどのようなルールを導き出すだろうか。
人間は家族の会話や友人との会話で差別意識や偏見を学ぶこともある。AIも同様である。そうしたデータから学んだAIは間違いなく差別的な基準や「価値観」で判断することになる。
それが就職や結婚時に使用されれば就職差別、結婚差別につながることもあり得る。こうしたAI判断は多くの分野で発生するといえる。
だからこそAIを活用するための基本ルールが必要なのである。
北口 末広(近畿大学人権問題研究所 主任教授)