An explainable knowledge distillation method with XGBoost for ICU mortality prediction

计算机科学 人工智能 特征工程 机器学习 深度学习 预测建模 多元统计 任务(项目管理) 特征(语言学) 数据挖掘 语言学 哲学 经济 管理
作者
Mucan Liu,Chonghui Guo,Sijia Guo
出处
期刊:Computers in Biology and Medicine [Elsevier BV]
卷期号:152: 106466-106466 被引量:21
标识
DOI:10.1016/j.compbiomed.2022.106466
摘要

Mortality prediction is an important task in intensive care unit (ICU) for quantifying the severity of patients’ physiological condition. Currently, scoring systems are widely applied for mortality prediction, while the performance is unsatisfactory in many clinical conditions due to the non-specificity and linearity characteristics of the used model. As the availability of the large volume of data recorded in electronic health records (EHRs), deep learning models have achieved state-of-art predictive performance. However, deep learning models are hard to meet the requirement of explainability in clinical conditions. Hence, an explainable Knowledge Distillation method with XGBoost (XGB-KD) is proposed to improve the predictive performance of XGBoost while supporting better explainability. In this method, we first use outperformed deep learning teacher models to learn the complex patterns hidden in high-dimensional multivariate time series data. Then, we distill knowledge from soft labels generated by the ensemble of teacher models to guide the training of XGBoost student model, whose inputs are meaningful features obtained from feature engineering. Finally, we conduct model calibration to obtain predicted probabilities reflecting the true posterior probabilities and use SHapley Additive exPlanations (SHAP) to obtain insights about the trained model. We conduct comprehensive experiments on MIMIC-III dataset to evaluate our method. The results demonstrate that our method achieves better predictive performance than vanilla XGBoost, deep learning models and several state-of-art baselines from related works. Our method can also provide intuitive explanations. Our method is useful for improving the predictive performance of XGBoost by distilling knowledge from deep learning models and can provide meaningful explanations for predictions.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
谭玲慧完成签到 ,获得积分10
1秒前
phj完成签到 ,获得积分10
11秒前
南宫士晋完成签到 ,获得积分10
23秒前
Lxx完成签到 ,获得积分10
26秒前
林夕完成签到 ,获得积分10
27秒前
连难胜完成签到 ,获得积分10
32秒前
玩命的无春完成签到 ,获得积分10
33秒前
大可完成签到 ,获得积分10
36秒前
兴钬完成签到 ,获得积分10
39秒前
现实的大白完成签到 ,获得积分10
43秒前
卡卡罗特先森完成签到 ,获得积分10
46秒前
John完成签到 ,获得积分10
47秒前
十三完成签到 ,获得积分10
56秒前
权小夏完成签到 ,获得积分10
56秒前
数乱了梨花完成签到 ,获得积分10
1分钟前
dudu完成签到 ,获得积分10
1分钟前
whitepiece完成签到,获得积分10
1分钟前
ilk666完成签到,获得积分10
1分钟前
lielizabeth完成签到 ,获得积分0
1分钟前
芝诺的乌龟完成签到 ,获得积分0
1分钟前
SciGPT应助SL采纳,获得10
1分钟前
饱满烙完成签到 ,获得积分10
1分钟前
钟声完成签到,获得积分0
1分钟前
minino完成签到 ,获得积分10
1分钟前
wu完成签到,获得积分20
1分钟前
kyokyoro完成签到,获得积分10
1分钟前
沙里飞完成签到 ,获得积分10
1分钟前
开心夏旋完成签到 ,获得积分10
2分钟前
快乐的90后fjk完成签到 ,获得积分10
2分钟前
福娃哇完成签到 ,获得积分10
2分钟前
砳熠完成签到 ,获得积分10
2分钟前
赵子龙完成签到,获得积分20
2分钟前
Tong完成签到,获得积分0
2分钟前
Ding-Ding完成签到,获得积分10
2分钟前
秋半梦完成签到,获得积分10
2分钟前
胜胜糖完成签到 ,获得积分10
2分钟前
zhangsan完成签到,获得积分10
2分钟前
辛夷完成签到,获得积分10
2分钟前
victory_liu完成签到,获得积分10
2分钟前
青于完成签到 ,获得积分10
2分钟前
高分求助中
传播真理奋斗不息——中共中央编译局成立50周年纪念文集(1953—2003) 700
Technologies supporting mass customization of apparel: A pilot project 600
武汉作战 石川达三 500
Chinesen in Europa – Europäer in China: Journalisten, Spione, Studenten 500
Arthur Ewert: A Life for the Comintern 500
China's Relations With Japan 1945-83: The Role of Liao Chengzhi // Kurt Werner Radtke 500
Two Years in Peking 1965-1966: Book 1: Living and Teaching in Mao's China // Reginald Hunt 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3811747
求助须知:如何正确求助?哪些是违规求助? 3355995
关于积分的说明 10379115
捐赠科研通 3072963
什么是DOI,文献DOI怎么找? 1688145
邀请新用户注册赠送积分活动 811850
科研通“疑难数据库(出版商)”最低求助积分说明 766877