このシリーズではE資格対策として、シラバスの内容を項目別にまとめています。
LIME
LIME
LIME(Local Interpretable Model-Agnostic Explanations)は、機械学習モデルの解釈性を高めるための手法で、モデルの種類に依存せずに使用することができます。
LIMEの基本的な考え方は、学習済みモデルをfとし、ある入力x=x1,x2,…,xnが与えられたときの出力をfxとすることから始まります。その後、近似モデルgを構築して、fz≈gz′となるようにします。ここでzはシンプルにした入力であり、係数ϕの絶対値の大きさを変数の重要度と解釈します。
LIMEの計算プロセスは、以下の要点で構成されます。
- 線形モデルでの表現: 入力がxであるときの出力をfxとし、これらの関係を線形モデルで表現します。
- シンプルな説明変数の使用: シンプルな説明変数でfxを説明できた方が望ましいため、xをx′に変換します。
- サンプリングと空間の変換: x′の周辺をサンプリングし、その結果を′z′として、元の空間に戻したものをzとします。
- 近似モデルの構築: fz≈gz′となるように、係数ϕを求めます。
モデル非依存の局所的説明手法:LIMEは、深層学習やSVM、ランダムフォレスト、線形回帰などの多岐にわたるモデルに対して、推論結果の根拠を説明することができる手法です。局所的な説明を提供するため、特定の入力データに対するモデルの動作を理解しやすくします。
加法的特徴帰属法:LIMEは特徴を加えていくことによって説明モデルを構成する方法であり、SHAPの開発者はこれを加法的特徴帰属法(Additive Feature Attribution Methods)と呼びました。
SHAP
SHAP
SHAP(SHapley Additive exPlanations)は、機械学習モデルの予測を解釈するための手法で、2017年にLundbergとLeeによって提案されました。これはゲーム理論におけるShapley値の考え方を取り入れたもので、特徴重要度を数値化する方法として知られています。
LIME(Locally Interpretable Model-agnostic Explanations)などの加法的特徴帰属法とともに、SHAPはモデルの出力を特徴の重要度の和として説明します。この方法はXAI(説明可能な人工知能)における局所的な説明手法としてデファクトスタンダードになっています。
原論文では、様々な種類のSHAPが提案され、それぞれ異なるタイプのモデルに適用されることを前提としています。
どんなモデルにでも使えるSHAP:Kernel SHAP
深層学習用のSHAP:Deep SHAP
線形モデル向けSHAP:Linear SHAP
説明変数の次元が小さいときの高速なSHAP:Low-order SHAP
出力が最大値関数になっているときの高速なSHAP:Max-SHAP
これらの性質は、モデルの予測がどのように特徴量から構築されるのかを理解しやすくするための基本的な要件です。SHAPはこれらを満たしつつ、異なるモデルや問題設定に対して柔軟に適用できるため、多岐にわたる研究や産業界で利用されています。
まとめ
最後までご覧いただきありがとうございました。