告別AI模型黑盒子:可解釋的神經網絡研究(一)

你是否曾被無理拒絕貸款而煩惱?你是否懷疑過自己的汽車自動駕駛的安全性?你說這種藥物能治療肺癌,為什麼呢?種種懷疑充斥在科學研究、金融市場等領域。眾所周知,機器學習模型,如神經網絡,深度神經網絡等,有非常不錯的預測能力,但是讓人信任一個模型的結果除了有良好的精度之外,可解釋性也是一個重要的因素。本文將介紹機器學習模型可解釋性的定義、性質和方法,並在後續的文章中,著重介紹不同解釋模型的方法,力求在維持模型精度的同時,通過更好的解釋模型方法,提高模型的可解釋性,從而提高人們對模型和模型結果的信任和接受程度。

立即體驗,開啟數位化轉型之旅!