首頁
-
關於我們+
-
產品與服務+
產品與服務-
-
智能營銷產品 +
-
人工智能產品 +
-
大數據產品 +
-
解決方案+
解決方案-
-
智能營銷解決方案 +
-
人工智能解決方案 +
-
大數據平台解決方案 +
-
客戶案例+
-
AI創新中心+
-
投資者關係+
-
聯繫我們+
-
申請試用+
研究報告
精選技術研究及行業洞察報告,免費資源在線下載
研究報告
最新研究
社交网络中的网络表示学习技术
查看詳情
全部研究報告
-
告別AI模型黑盒子:可解釋的神經網絡研究(一)
模型可解釋性目的
你是否曾被無理拒絕貸款而煩惱?你是否懷疑過自己的汽車自動駕駛的安全性?你說這種藥物能治療肺癌為什麽呢?種種懷疑充斥在科學研究、金融市場等領域。眾所周知,機器學習模型,如神經網絡深度神經網絡等,有非常不錯的預測能力,但是讓人信任一個模型的結果除了有良好的精度之外,可解釋性也是一個重要的因素本文將介紹機器學習模型可解釋性的定義、性質和方法,並在後續的文章中,著重介紹不同解釋模型的方法,力求在維持模型精度的同時通過更好的解釋模型方法,提高模型的可解釋性,從而提高人們對模型和模型結果的信任和接受程度。
-
「AI黑箱探測」事後模型歸因解析Part 1
VI、PDP、ICE和ALE
在可解釋機器學習領域,獲取可解釋性最簡單的方法是使用傳統的可解釋統計模型,如線性回歸、邏輯回歸、決策樹模型等。然而,傳統統計模型卻往往有精度低的弊端,為了追求更高的精度,人們往往選用現在比較流行的一些機器學習模型,其中包含黑箱模型。黑箱模型精度很高,但可解釋性差,人們無法知道為什麽模型給出了這個結果,更不清楚如何判斷結果的合理性。為了解決這個問題,科學家們提出一種與模型無關的可解釋方法(model-agnostic interpretable) 。它能夠在模型訓練完成後解析出部分可解釋性質,從而擺脫了模型本身的限製。
-
自動化機器學習研究綜述
高效的機器學習算法
近年來,機器學習在各個領域都有著巨大的貢獻,然而一個高效的機器學習算法往往依賴於人類指導,例如數據處理,特征工程,算法選擇以及超參選定等。隨著機器學習算法越來越復雜,可選擇的算法及過程數量越來越多,為了節約時間及人力成本以及提高精度,自動化機器學習(autoML) 孕育而生。