反実仮想とは何か?「あのとき別の道を選んでいたらどうなっていた?」をAIで解き明かす技術を反実仮想説明、説明可能AI(XAI)とともに解説

2023年4月26日

「あのとき別の道を選んでいたらどうなっていた?」をAIで解き明かす

選択を行った後で、選ばなかった方の選択肢について考えることはあるでしょうか。
ビジネスや医療の分野では、日々選択が行われ、膨大なデータが蓄積されています。
こういったデータは機械学習などの技術で分析され、次の意思決定の支援に使われます。

しかし、ここで集められているデータによって導かれた結論には「選択バイアス」がかかっています。
選択バイアスとは、観測されなかったデータが考慮されないことで起こるバイアスです。

そこで、反実仮想という考え方を用いてバイアスの少ない結論を導こうという取り組みが進んでいます。

反実仮想とは?

反実仮想とは「もし~ならば、~だろうに」というように、現実でないことを想定した場合の言い回しです。
日本語としての反実仮想は「もし~ならば」の部分は自由な発想で「もし魔法が使えたら」のように現実ではあり得ないことを語ることも可能です。

機械学習の分野における反実仮想は「観測する可能性はあったが実際には観測されなかったデータ」を指します。
そのため、全くあり得ないことを仮定することはできず、あくまで選択肢の中でどれを選んでいたらという範囲内での反事実を仮定するものになります。

反実仮想機械学習(Counterfactual Machine Learning:CFML)

A/Bテスト

選択肢A/Bどちらを取るべきかという課題に対して、統計学では被験者を集めて実験を行うことで選択肢の評価を行います。これをA/Bテストと言います。

たとえば熱の症状を訴える人に薬Aを投与して、5日で完治したとします。

この時、薬Bを投与したとしたら、完治に何日かかったのでしょうか?

または、一切薬を投与しなかった場合はどうでしょう。

1人の患者からは「薬Aを投与した」というデータしか取れないため、他の選択肢の評価を行うことはできません。
そのため、同様の症状を持つ患者に対しそれぞれの選択肢を割り当てて経過を観察します。

選択バイアスの排除を検討する

このように、A/Bテストを行うことで統計的に選択肢の評価を行い、選択バイアスを排除して適切な選択肢を検討します。

医療のような人の命に関する分野ではA/Bテストのような検証施策がとられていますが、A/Bテストは非常にコストが高く時間もかかるので、ビジネスに適用するのは困難とされてきました。

そこで考えられたのが反実仮想機械学習という考え方です。
反実仮想機械学習では、Off-Plicy Learningという考え方を用いて、実際に実験をしなくても観測されなかったデータを補完し、施策の評価を行うことができます。

反実仮想機械学習を用いたビジネス

反実仮想機械学習はすでにビジネスの現場で用いられ始めています。

Netflixはユーザに表示するサムネイルの情報を操作することで、より再生されやすいようにサムネイルの評価を行っています。
サムネイルAで動画を再生した人は、サムネイルBだと再生しなかったのか、またはサムネイル関係なしに再生したのかなどの評価を行い、レコメンドに役立てています。

他にも、ZOZOTOWNといった大企業が反実仮想機械学習の考え方を用いてビジネスの枠組みを広げています。

また、直近ではSpotifyの研究チームが反実仮想機械学習を用いた新たなモデルを構築したことで注目を浴びました。

反実仮想機械学習は、精度の高いレコメンドやマーケティングを行う必要があるビジネス分野で活躍しています。

反実仮想説明(Counterfactual Explanation)

「あのとき別の道を選んでいたら」の考え方を発展させることで、違った観点で反実仮想を用いようとする研究も進められています。

それは、「AIが出した結論を覆すために必要な変数量」を導くというもので、反実仮想説明という考え方です。

AIはブラックボックス

基本的にAIの予測や分類は、結果までの過程がブラックボックスになっています。
つまり、なぜこういう結果になったのか、何を根拠にAIが結論を出したかは人間にはわかりません。

人間の「なぜこの結論に?」という問いにAIが答えてくれることはないというのが従来までの一般的な機械学習でした。

説明可能AI(XAI)とは

機械学習で予測を行う際に、予測値そのものだけが目的となっているケースは多くありません。
予測の意図は基本的には予測結果をもとに行動を促す、つまり「意思決定」を目的にしています。

AIの精度が高いという理解はあっても、人間に理解できる形で根拠が示されないために、重要な局面でAIを盲信できないという課題がありました。
その課題に対して考えられたのが説明可能AI(Explainable AI: XAI)です。

XAIでは、なぜその結果になったかの特徴量や道筋をAIが示してくれるという技術分野です。

XAIはまだこれから発展の余地がある分野ですが、AIが完全なブラックボックスではなくなったことで、説明性が求められるビジネスへの利用がしやすくなりました。

反実仮想を用いた説明可能AI(Counterfactual XAI)

XAIの登場で、AIのブラックボックスという課題は徐々に解消に向かっています。

そして近年ではもう一歩踏み込んだ意思決定支援のための研究が進んでいます。
それが、反実仮想を用いたXAIです。
反実仮想では、予測の結果をさらに応用してどのような条件であれば予測結果を覆すことができるかまでを説明します。

通常のAIとXAI、反実仮想を用いたXAIの違いを金融会社におけるローン審査モデルを例に説明します。

消費者がローンの審査に通らなかった場合を仮定し、それぞれのAIの出力結果を比較します。

通常のAI:「お金を貸すことはできません。」

説明可能AI:「学歴が低いことから生涯年収が低いと予測されるため、お金を貸すことはできません。」

反実仮想を用いた説明可能AI:「学歴が低いことから生涯年収が低いと予測されるため、お金を貸すことはできません。最終学歴が博士以上であれば、お金を貸すことができます。」

このように反実仮想を用いて「AIが出した結論を覆すために必要な変数量」を算出することで、次に何をしようかという意思決定を支援することができます。

参考

書籍

  • 斎藤優太、安井翔太『施策デザインのための機械学習入門 データ分析技術のビジネス活用における正しい考え方』株式会社技術評論社

Webページ

  • https://www.ariseanalytics.com/activities/report/20220304/(2023年4月15日確認)
  • https://www.technologyreview.jp/s/303141/the-complex-math-of-counterfactuals-could-help-spotify-pick-your-next-favorite-song/(2023年4月15日確認)
  • https://daikikatsuragawa.hatenablog.com/entry/2021/12/18/120000(2023年4月15日確認)