【XAI】説明可能なAIの概念を3分で理解する

機械学習 説明可能なAI

テクノロジーと人間が共に進化し、より良い未来を築くためには、私たちが使用するツールを理解し、適切に活用することが不可欠です。この記事を通じて、AIの透明性と信頼性を高めるXAIの重要性について、そしてそれが私たちの生活や社会にどのように貢献していくのかについて、一緒に考えてみましょう。

ご挨拶

こんにちは!かっつーです

テクノロジーと人間との共進化し、なめらかな社会を目指していして、

様々なテクノロジーについての勉強や政治、経済、社会や身体についてなどを勉強しています。

このブログでは自分の活動についてや勉強した内容についてアウトプットしていきたいと思います。

AI技術が日々進化し、私たちの生活に深く浸透している今、その判断基準を理解し、信頼することがこれまで以上に重要になっています。そこで今回は、AIの判断がどのように行われているのかを明らかにする「説明可能なAI(Explainable AI、XAI)」にスポットを当て、その意義と具体的な活用方法について深掘りしていきたいと思います。

説明可能なAIとは

説明可能なAI(Explainable AI、XAI)は機械学習アルゴリズムで生成した結果や予測、アウトプットを人間のユーザーが理解し、信用信頼できるようにするプロセスと方法のことを指します。

一言で言うならば、

なぜその答えを出したのか?」を説明できる能力のあるAIを作りましょう

ということです。

例えば、ある犬の画像があるとします。そしてAIがその画像を犬ときちんと判定しました。

そこで、AIに対してなぜその画像が犬なのですか?という質問を投げかけたときにAIが

「この画像には耳や鼻、尻尾があり、4本足だからです」

というふうに答えたらある程度その内容を説明することができていますよね?

このようにAIの推論結果の根拠を説明でき、その説明に対して人間が納得感があることが大切になります。

説明可能なAIが出てきた背景について

2010年代ショ糖から第三次AIブームが始まり、そして2022年12月ごろからChatGPT3.5が登場してからAI産業は大きな転換点を迎えています。

AIの活用対象である認識や分類、予測といった各種の機能に対して求められていたのは精度でした。しかし、AIの活用範囲の広がりとともに精度以外の価値も求められるようになってきました。

実際のビジネス現場で活用するとなると、人間の意思決定に関わる業務をAIに代替させる取り組みは増えてきてAIの出力に対する公平性や倫理面での妥当性が新たに求められるようになりました。

AI活用が広がり、精度以外に求められるようになった価値は大きく分けて3つあります。

  1. 公平性
  2. 説明責任
  3. 透明性

です。

内閣府が出しているに「人間中心のAI社会原則」という物があるのですが、そこの中の人間中心のAI社会原則においても「公平性、説明責任および透明性の原則」という内容が明記されています。

説明可能なAIと解釈可能なAIの違いについて

公平性や説明責任、透明性という3つの要求を満たす上で重要なのは、

AIが学習によってどういう処理を獲得したのか、そして完成したAIは入力に対してどのような根拠に基づいて出力したのかです。

ここで、説明可能なAIと解釈可能なAIの違いについてご紹介したいと思います。

解釈性とは機械学習モデルの判断過程を人間が解釈可能かとその程度のことを表します。機械学習のアルゴリズムの内部構造はブラックボックス化しており、モデルの解釈性が低いです。

そこでその内部構造を解析することで、予測に至るまでの計算過程を確認できるようなAIやその特性のことを解釈可能なAIと呼びます。

一方で、説明可能なAIの方はAIモデルの内部構造を精密に解析する必要はありません。ブラックボックスなAIに対して理由を説明できることにフォーカスしています。

つまり、内部構造を解析して本質的にモデルの計算過程を確認したり解釈するのが解釈可能なAIで、予測に対する理由を説明することにフォーカスするのが説明可能なAIですね。

対局説明と局所説明について

XAIによるAIの説明は説明する範囲の違いによって2つに分類されています。

  1. 大局説明(Global Explanations)
  2. 局所説明(Local Explanations)

大局説明とは?

一つ一つの入力データについて予測過程を説明するのではなく、AIが全体としてどのように判断しているかを説明するものです。

例えば犬の画像分類タスクをAIに行わせたとします。そのときに、大局説明ではAIが全体としてどのように動き、特徴について説明したのかを表します。どの程度の精度で犬を分類できるのかというパーセンテージやどの特徴が重視されているのかなどを説明します。

これは多くの画像データのなかで犬の分類をどれくらいの精度で分類や予測できるのかを表しているので、全体を説明するため、大局説明と呼ばれています。

イメージとしては料理のレシピ全体を説明するようなものです。

局所説明とは?

特定の入力データに対する出力を理解することを目的としています。言い換えると、ここの予測結果の判断理由を理解することです。

大局説明とは異なり、与えられる一つ一つの事例に対する予測過程を説明しています。
例えば、犬の画像の分類であれば、これは犬です。と判断した理由を説明するとうことです。
個々のデータに記録された変数が予測確率をどの程度寄与しているのかを算出します。

まとめ

AIの進化は止まることを知らず、私たちの生活に深く根ざしています。しかし、その進化に伴い、AIの判断をどのように理解し、信頼するかが重要な課題となっています。説明可能なAIは、この課題に対する一つの解答です。公平性、説明責任、透明性を確保することで、AIと人間が共に成長し、より良い未来を築くための基盤を提供します。私たちは、技術の進歩をただ受け入れるのではなく、それを理解し、適切に活用することで、テクノロジーと共に進化していく必要があります。

AIの世界は複雑で、常に変化していますが、説明可能なAIのような取り組みによって、私たちはその複雑さを理解し、信頼を築くことができます。これからも、AIと人間の共進化を目指し、テクノロジーの勉強を続けていきましょう。