模型翻譯機

A.

模型翻譯機是什么?

What

不僅要做出模型預測,還要給出模型產生預測結果的理由。知其然更要知其所以然

可解釋機器學習(Intepretable Machine Learning,縮寫為IML)的核心思想在于選擇模型時,預測精度和可解釋性并重,并盡量找到二者之間的最佳平衡


B.

問題產生的背景?

Backdrop

銀行業的分析模型越來越多,所用算法也復雜多樣

為了追求更高的模型精度,各種集成模型(如隨機森林、XGBoost)和深層網絡模型(如CNN、RNN、LSTM)成為熱點算法,但由于模型過于復雜,這些算法已經成為無法理解的黑箱,業務上難以應用。


C.

有哪些特色和創新點?

Innovation

兼顧模型的準確性和可解釋性

內在可解釋(Intrinsic Interpretability)通過改良模型結構,增強模型靈活表征能力,提升模型的預測精度,如GAMxNN、RuleFit、Falling Rule List

事后可解釋(Post-hoc Interpretability):保持復雜模型精度不變,通過事后的歸因解析及可視化來獲得模型的部分可解釋性,如:LIME、SHAP


D.

能否帶來真正業務價值?

Value

在某銀行的基金推薦點擊預測項目中與XGBoost算法精度相當,特征變量從100個大幅縮減為10個,同時能夠可視化展示這些特征帶來的量化影響顯著提高了業務上的可用性

總體可解釋性有助于業務人員理解模型的重要特征個體可解釋性便于客戶畫像,進行個性化精準營銷


可翻譯分析模型

Translatable Analysis Model

可翻譯分析模型

復雜的深層神經網絡黑箱

xNN

GAMxNN

多種算法的實際應用

模型性能與特征數量對比

總體可解釋性

個體可解釋性

立即體驗,開啟數字化轉型之旅 !

必威体育下载