AIの倫理学 | M. クーケルバーク

AIの倫理学 | M. クーケルバーク

公平な機械学習アルゴリズムが2018年ごろから注目の研究トピックとなり、同時にEUやAI4Peopleでの信頼できるAIの原理、ガイドライン、7産業別の手本に続き、先ごろ4月に法制化案が発表された。そんな中、AIの倫理的側面に関する政治学倫理学など、社会学および哲学分野からの、技術政策に対する提言が盛んになっている。そんなわけで、データサイエンティストやAI技術者らの、本分野への関心も高いと思われる。

そういった読者層の関心に応えるのは8~9章だろう。これらの章では、道徳的責任の第一条件=制御の条件(control condition)と道徳的責任の第二条件=認識的条件を、AIは充足しうるのかという議論に始まり、説明可能なAIに求められる要件や、重点となるAI研究課題を明らかにしている。さらに、公平な機械学習アルゴリズムが目指すべきものを、目指すべきことかどうかを含めて議論している。これらの内容と結論は、読者らにとってはおそらく承知済みのことであろうが、技術倫理的な側面からの解釈という意味で有用だと思う。

ただ、本書の価値は、AIを取り巻く倫理的な問題を、AIは道徳的な行為者ないし被行為者としてどう扱うべきかを、この問題に対する人々の理解を文化的なコンテキストから説明づけ(1~5章)、AIの倫理的な側面を検討することは、人間の倫理的な問題を考察することにほかならず、AI政策提言が果たしうる役割や(10~11章)、その中でのAIの倫理=持続可能性を持ったAIが、人間中心であるべきとは限らないことやを示そうとしているところにある(12章)。

一方、11章以降の内容は具体性は低いように思う。例えば、AI開発の早期に倫理的課題を検討するべきで、これを制約やネガティブなものと考えるのではなく、リスクを低減することによって、ビジネスや社会の長期的で接続可能な発展に貢献しているものとして、「ポジティブな倫理」を目指すことが重要だとしている。理屈ではわかっても、そちら側へのインセンティブ設計ができなければ、机上の空論ではないだろうか。だからこそ環境政策には時間がかかりすぎて、間に合うのかどうかわからないのだ。また、AI政策がAIの存在を前提にしているところからスタートしている以上、どのような仕事はAIにゆだねず人間に残すか、といった重要な議論には影響を与えないことを本書も指摘している。だとしたら、AIを使わない可能性や、AIにゆだねない仕事を決めることなどが重要だと言いはしても、その選択肢は初めから検討外で、結局のところなるようにしかならないとしか、今のところは思えない。