首页 期刊 计算机研究与发展 机器学习模型可解释性方法、应用与安全研究综述 【正文】

机器学习模型可解释性方法、应用与安全研究综述

作者:纪守领; 李进锋; 杜天宇; 李博 浙江大学计算机科学与技术学院网络空间安全研究中心; 杭州310027; 伊利诺伊大学香槟分校计算机科学学院; 美国伊利诸伊州厄巴纳香槟61822
机器学习   可解释性   解释方法   可解释机器学习   安全性  

摘要:尽管机器学习在许多领域取得了巨大的成功,但缺乏可解释性严重限制了其在现实任务尤其是安全敏感任务中的广泛应用.为了克服这一弱点,许多学者对如何提高机器学习模型可解释性进行了深入的研究,并提出了大量的解释方法以帮助用户理解模型内部的工作机制.然而,可解释性研究还处于初级阶段,依然还有大量的科学问题尚待解决.并且,不同的学者解决问题的角度不同,对可解释性赋予的含义也不同,所提出的解释方法也各有侧重.迄今为止,学术界对模型可解释性仍缺乏统一的认识,可解释性研究的体系结构尚不明确.在综述中,回顾了机器学习中的可解释性问题,并对现有的研究工作进行了系统的总结和科学的归类.同时,讨论了可解释性相关技术的潜在应用,分析了可解释性与可解释机器学习的安全性之间的关系,并且探讨了可解释性研究当前面临的挑战和未来潜在的研究方向,以期进一步推动可解释性研究的发展和应用.

注:因版权方要求,不能公开全文,如需全文,请咨询杂志社

学术咨询 免费咨询 杂志订阅