「AI黑箱探測」事後模型歸因解析Part 1

在可解釋機器學習領域,獲取可解釋性最簡單的方法是使用傳統旳可解釋統計模型,如線性回歸邏輯回歸、決策樹模型等。然而,傳統統計模型卻往往有精度低的弊端,為了追求更高的精度,人們往往選用現在比較流行的一些機器學習模型,其中包含黑箱模型。黑箱模型精度很高,但可解釋性差,人們無法知道為什麼模型給出了這個結果,更不清楚如何判斷結果的合理性。為了解決這個問題,科學家們提出一種與模型無關的可解釋方法( model- agnostic interpretable)。它能夠在模型訓練完成後解析岀部分可解釋性質,從而擺脫了模型本身的限制。

立即體驗,開啟數位化轉型之旅!