告别AI模型黑盒子:可解释的神经网络研究(一)

你是否曾被无理拒绝贷款而烦恼?你是否怀疑过自己的汽车自动驾驶的安全性?你说这种药物能治疗肺癌,为什么呢?种种怀疑充斥在科学研究、金融市场等领域。众所周知,机器学习模型,如神经网络,深度神经网络等,有非常不错的预测能力,但是让人信任一个模型的结果除了有良好的精度之外,可解释性也是一个重要的因素。本文将介绍机器学习模型可解释性的定义、性质和方法,并在后续的文章中,着重介绍不同解释模型的方法,力求在维持模型精度的同时,通过更好的解释模型方法,提高模型的可解释性,从而提高人们对模型和模型结果的信任和接受程度。

立即體驗,開啟數位化轉型之旅!