时间序列关于可解释性值得关注的论文汇总(未完待续)

2024-09-18 17:20:40 浏览数 (1)

前言

梳理了一些时间序列可解释性研究文章(后台回复:“论文合集”获取),深度学习的可解释性研究一直是热门,而时间序列的可解释性同样非常重要。这是因为时序模型被大量应用到特定领域:金融、医疗、交通等,这些应用场景对模型的可解释要求更高,需要提供可解释的预测。

1、论文标题:Explaining time series classifiers through meaningful perturbation and optimisation

基于显著性的方法旨在突出关键特征,是提高可解释性的方法之一。当前技术通常依赖于人为扰乱特征,例如使用随机噪声或“清零”这些特征。本文首先证明扰动会将数据推向了它们原始分布之外,可能导致关键特征的识别不佳,从而产生误导性的解释。然后,本文提出了一种通过有意义的扰动和优化的双重方法。首先,利用最初在图像分析中提出的一种机制,训练一个生成模型在输入的分布内创建扰动。然后使用这些扰动可靠地评估一组特征是否关键。其次,提出了一种基于贪婪策略的分割和识别策略,以寻找最小的关键特征集。实验表明,所提出的方法解决了分布外问题,并比现有方法识别出更少的关键特征,对于理解分类器也非常有用。框架可以应用于图像和语言类模型。

2、论文标题:Explainable AI for Time Series via Virtual Inspection Layers

本文提出了一种虚拟检查层(virtual inspection layer),它能够将时间序列数据转换为易于解释的表示形式,并通过局部可解释技术(XAI),例如逐层相关性传播(LRP),将相关性归因传递到这一表示。这使得一系列XAI方法能够应用于那些在数据转换后才变得可解释的领域,例如语音处理。将傅里叶变换与LRP结合,形成了本文的方法——DFT-LRP。通过在音频和电子健康记录等多种时间序列分类场景中应用DFT-LRP,展示了其有效性。DFT-LRP能够揭示在不同领域训练的模型(如时域与频域)之间的分类策略差异,或者帮助用户理解模型如何应对数据中的虚假相关性。

3、论文标题:LIMESegment: Meaningful, Realistic Time Series Explanations

LIME(Locally Interpretable Model-Agnostic Explanations)已经成为一种广泛使用的方法,用于为表格数据、图像和自然语言处理模型生成解释,帮助我们理解为何特定实例会被赋予特定的分类结果。本文尝试将LIME应用于时间序列分类领域,由于现有方法未能充分考虑时间序列数据的结构特性。所以本文提出了将LIME适应于时间序列分类所面临的三个关键问题:“如何定义时间序列的有意义的可解释表示?”,“如何以现实的方式对时间序列进行扰动?”以及“如何界定时间序列的局部邻域?”。作者为这些问题提供了解决方案,并将它们融合到一个创新的时间序列解释框架——LIMESegment中。在多种分类任务上,LIMESegment的性能超越了现有对时间序列的LIME适应方法。

4、论文标题:Shapelet-Based Counterfactual Explanations for Multivariate

尽管目前对于创建透明模型和事后解释的研究已经取得了一些进展,但专门针对时间序列数据,尤其是多变量数据集的方法仍然较少。在本项研究中,作者利用形状特征的内在可解释性,开发了一种适用于多变量时间序列(MTS)的模型无关的反事实解释算法。反事实解释通过指出需要对输入数据进行哪些改变以改变最终决策,对于使黑盒模型变得可解释具有重要作用。作者在实际的太阳耀斑预测数据集上验证了我们的方法,并证实了它能够生成高质量的反事实解释。此外,与现有的唯一的MTS反事实生成算法相比,本文方法不仅在视觉上易于理解,而且在其他方面也展现出了其优势。

5、论文标题:Understanding Any Time Series Classifier with a Subsequence-based Explainer

本文介绍了一个框架,旨在为单变量和多变量时间序列的黑盒分类器提供预测解释。该解释框架包含三个组成部分:首先,通过显著性图突显时间序列中对分类结果影响最大的部分;其次,基于实例的解释通过展示一组代表性和反事实性的时间序列,来具体说明黑盒模型的决策过程;最后,基于规则的事实性和反事实性解释,通过逻辑条件揭示分类的原因,这些条件基于时间序列中必须或不得包含的子序列。通过实验和基准测试,证明了所提出的方法能够提供准确、有意义、稳定且易于理解的解释。

0 人点赞