DBConformer: Dual-Branch Convolutional Transformer for EEG Decoding

作者:Ziwei Wang et.al.

论文链接:http://arxiv.org/abs/2506.21140

发布日期:2025-06-26

解读时间:2025-07-19 19:11:49

论文摘要

Electroencephalography (EEG)-based brain-computer interfaces (BCIs) transform spontaneous/evoked neural activity into control commands for external communication. While convolutional neural networks (CNNs) remain the mainstream backbone for EEG decoding, their inherently short receptive field makes it difficult to capture long-range temporal dependencies and global inter-channel relationships. Recent CNN-Transformer (Conformers) hybrids partially address this issue, but most adopt a serial design, resulting in suboptimal integration of local and global features, and often overlook explicit channel-wise modeling. To address these limitations, we propose DBConformer, a dual-branch convolutional Transformer network tailored for EEG decoding. It integrates a temporal Conformer to model long-range temporal dependencies and a spatial Conformer to extract inter-channel interactions, capturing both temporal dynamics and spatial patterns in EEG signals. A lightweight channel attention module further refines spatial representations by assigning data-driven importance to EEG channels. Extensive experiments on five motor imagery (MI) datasets and two seizure detection datasets under three evaluation settings demonstrate that DBConformer consistently outperforms 10 competitive baseline models, with over eight times fewer parameters than the high-capacity EEG Conformer baseline. Further, the visualization results confirm that the features extracted by DBConformer are physiologically interpretable and aligned with sensorimotor priors in MI. The superior performance and interpretability of DBConformer make it reliable for robust and explainable EEG decoding. Code is publicized at https://github.com/wzwvv/DBConformer.

AI解读

好的,下面我将按照您的要求,对论文"DBConformer: Dual-Branch Convolutional Transformer for EEG Decoding"进行详细分析,重点关注其方法和技术细节。

1. 核心方法与创新点

* 核心方法论: 论文提出了一种双分支卷积Transformer网络(DBConformer)用于脑电图(EEG)解码。该网络并行地利用两个分支:一个时间Conformer (T-Conformer)捕捉长时间依赖关系,一个空间Conformer (S-Conformer)提取通道间的空间关系。此外,还加入了一个轻量级的通道注意力模块来优化空间特征。

* 主要创新点:

* 双分支并行结构: 传统的CNN-Transformer混合模型通常采用串行结构,导致局部和全局特征的融合不够充分,而DBConformer采用并行双分支结构,能够同时捕捉EEG信号的时域动态和空间模式,实现更有效的局部-全局特征集成。
* 显式通道建模: 现有方法往往忽略对通道之间的显式建模。DBConformer的空间Conformer专门用于提取通道间的关系,轻量级的通道注意力模块进一步对不同通道赋予不同的权重,使得模型能够关注重要的脑电通道。
* 轻量级高效性: 论文提出的模型在性能优于现有方法的同时,参数量远小于一些大型的Conformer模型,例如,DBConformer的参数量是EEG Conformer的八分之一。这使得模型更易于训练,不易过拟合,且计算效率更高。
* 生理可解释性: 通过可视化通道注意力模块的权重,发现模型能够自动关注与运动想象相关的脑电通道(如C3、Cz、C4),这与已知的神经生理学知识相符,增强了模型的可信度。

2. 算法细节与流程

* 技术原理: DBConformer的设计灵感来源于CNN和Transformer的互补优势。CNN擅长提取局部特征,但感受野有限;Transformer擅长捕捉长距离依赖关系,但计算复杂度较高。DBConformer通过并行使用CNN和Transformer,并结合通道注意力机制,实现了高效且准确的脑电解码。

* 算法流程:

1. 数据预处理: 对原始脑电数据进行预处理,包括滤波、降采样等,并使用欧几里得对齐(Euclidean Alignment, EA)来减小不同被试之间的数据分布差异。
2. T-Conformer分支:

* 时间Patch嵌入: 使用深度可分离卷积和一维时间卷积提取时间局部特征,然后通过平均池化将时间序列划分为多个patch。
* Transformer编码: 将patch输入Transformer编码器,学习长时间依赖关系。
* 全局池化: 对Transformer的输出进行平均池化,得到最终的时间特征表示。
3. S-Conformer分支:

* 空间Patch嵌入: 使用一维卷积提取每个通道上的时间特征,然后通过平均池化将时间信息压缩到每个通道上。
* Transformer编码: 将通道作为token输入Transformer编码器,学习通道间的空间关系。
* 通道注意力: 使用一个轻量级的通道注意力模块,对不同通道的特征进行加权。
* 加权求和: 将加权后的通道特征进行求和,得到最终的空间特征表示。
4. 特征融合与分类: 将T-Conformer和S-Conformer的输出进行拼接,然后输入一个多层感知机(MLP)进行分类。

* 技术优势和创新之处:

* 并行结构: 避免了串行结构的信息瓶颈,允许时域和空域信息独立流动和交互。
* 通道注意力: 使得模型能够自适应地关注重要的通道,提高解码准确性和可解释性。
* 轻量化设计: 减少了模型参数量,降低了计算复杂度,更适合实际应用。

3. 详细解读论文第三部分(DBConformer)

这一部分是论文的核心技术细节,详细解释了DBConformer的各个组成部分。

* A. 概述 (Overview)

这部分简单介绍了DBConformer的核心思想,即利用双分支并行结构来同时捕捉脑电信号的时域和空域特征,并使用通道注意力模块来优化空间特征。

* B. 数据归一化 (Data Normalization)

* 欧几里得对齐 (Euclidean Alignment, EA): 论文使用欧几里得对齐方法来对脑电数据进行归一化,以减小不同被试之间的数据分布差异。EA的核心思想是将每个被试的脑电数据映射到一个共同的欧几里得空间中,从而消除个体差异。

* 公式(1):$\widetilde{X}_i = \overline{R}^{-1/2} X_i$
* $\widetilde{X}_i$:对齐后的第 $i$ 个trial的数据。
* $X_i$:原始的第 $i$ 个trial的数据。
* $\overline{R}$:所有trials的协方差矩阵的算术平均值。

* 公式(2):$\overline{R} = \frac{1}{n} \sum_{i=1}^{n} X_i X_i^T$
* $\overline{R}$:所有trials的协方差矩阵的算术平均值。
* $n$:一个被试的trials数量。
* $X_i$:原始的第 $i$ 个trial的数据。

* 物理意义: EA通过对每个被试的脑电数据进行线性变换,使得不同被试的数据具有相似的统计特性,从而提高模型的泛化能力。
* 实现细节: EA的关键在于计算协方差矩阵的均值 $\overline{R}$,这可以通过简单的矩阵运算实现。此外,需要计算 $\overline{R}$ 的逆平方根 $\overline{R}^{-1/2}$,这可以使用奇异值分解(SVD)或特征值分解(EVD)等方法实现。

* C. 网络架构 (Network Architecture)

这部分详细介绍了DBConformer的网络结构,包括T-Conformer、S-Conformer和分类模块。

* 1) T-Conformer: T-Conformer用于捕捉脑电信号的细粒度时域依赖关系。它由卷积patch嵌入模块和Transformer编码器组成。

* a) 时域Patch嵌入 (Temporal Patch Embedding):
* 灵感来源于先前脑电解码中的CNN主干网络。
* 包含一个深度可分离1D卷积,一个1D时域卷积,以及一个平均池化层。
* 首先,F个核的深度可分离卷积,步长(1,),后接批归一化。
* 其次,时域卷积,伴随批归一化,一个GELU激活,以及一个概率p=0.5的dropout。
* 最后,一个核大小为(1,W)的平均池化沿着时间维度被用于形成不重叠的时域patches $Z_t$。patch的数量F被设置为等于Transformer嵌入维度D。

* b) 时域Transformer编码器 (Temporal Transformer Encoder):
* 提取的patches $Z_t$ 通过一个Transformer编码器来建模时间依赖关系。
* 添加一个可学习的位置编码 $E_{pos}^t \in R^{1 \times P \times D}$ 来保持时域排序。

* 公式(3):$Z_{in}^t = Z_t + E_{pos}^t$
* $Z_{in}^t$:Transformer编码器的输入。
* $Z_t$:来自时域Patch嵌入的patches。
* $E_{pos}^t$:可学习的时域位置编码。

* 然后,使用一个带 $L_t$ 层和 $H_t$ 注意力头的轻量Transformer编码器。

* 公式(4):$Z_{out}^t = TransformerEncoder(Z_{in}^t) \in R^{B \times P \times D}$
* $Z_{out}^t$:Transformer编码器的输出。
* $Z_{in}^t$:Transformer编码器的输入。
* $TransformerEncoder(\cdot)$:Transformer编码器。

* 为了将时域patch特征聚合成一个全局表示,使用了在patch维度上的平均池化:

* 公式(5):$F_t = \frac{1}{P} \sum_{i=1}^{P} Z_{out}^t[:, i, :] \in R^{B \times D}$
* $F_t$:输入的EEG trials的最终时域表示。
* $P$:patches的数量。

* 2) S-Conformer: S-Conformer用于提取通道间的空间模式。它由卷积空间patch嵌入、Transformer编码器和通道注意力模块组成。

* a) 空间Patch嵌入 (Spatial Patch Embedding): 将每个EEG trial转换为空间token嵌入。使用了跨时间维度的深度1D卷积,提取每个通道的短程时域特征。

* b) 空间Transformer编码器 (Spatial Transformer Encoder):
* 为了捕获跨EEG通道的全局空间依赖关系,使用一个轻量Transformer编码器来处理嵌入的通道tokens $Z_s$。
* 添加一个可学习的位置编码 $E_{pos}^s \in R^{1 \times C \times D}$ 来保持通道排序:

* 公式(6):$Z_{in}^s = Z_s + E_{pos}^s$
* $Z_{in}^s$:Transformer编码器的输入。
* $Z_s$:来自空间Patch嵌入的通道tokens。
* $E_{pos}^s$:可学习的空间位置编码。

* 然后,应用一个带 $L_s$ 层和 $H_s$ 注意力头的Transformer编码器:

* 公式(7):$Z_{out}^s = TransformerEncoder(Z_{in}^s) \in R^{B \times C \times D}$
* $Z_{out}^s$:Transformer编码器的输出。
* $Z_{in}^s$:Transformer编码器的输入。
* $TransformerEncoder(\cdot)$:Transformer编码器。

* c) 通道注意力 (Channel Attention): 为了自适应地优化来自S-Conformer的特征的空间显著性,提出了一个轻量通道注意力模块。

* 每个token ${z_c^i}$ 来自 $Z_{out}^s$ 通过两个全连接层投影:

* 公式(8):$k_c^i = w_2^T tanh(W_1 z_c^i)$
* $k_c^i$:第 $i$ 个样本的第 $c$ 个通道的注意力分数。
* $W_1 \in R^{D \times D}$ 和 $w_2 \in R^D$ 是可学习的参数。
* $tanh(\cdot)$ 是非线性激活函数。

* 然后,通过Softmax归一化获得注意力权重:

* 公式(9):$\alpha_c^i = exp(k_c^i) / \sum_{j=1}^{C} exp(k_j^i), c = 1, ..., C$
* $\alpha_c^i$:第 $i$ 个样本的第 $c$ 个通道的注意力权重。
* $C$:通道总数。

* 每个token被转化为跨通道的注意力加权和:

* 公式(10):$f_{s, i} = \sum_{c=1}^{C} \alpha_c^i \cdot z_c^i$
* $f_{s, i}$:第 $i$ 个样本的空间表示。

* 3) 特征融合与分类 (Feature Fusion and Classification):
* 从时域和空间分支获得表示后,即来自T-Conformer的$F_t \in R^{B \times D}$和来自S-Conformer的$F_s \in R^{B \times D}$,将两个特征沿特征维度拼接形成融合的表示:

* 公式(11):$F_{fused} = [F_t; F_s] \in R^{B \times 2D}$
* $F_{fused}$:融合后的特征表示。

* 然后通过多层感知机分类器以生成最终预测 $\hat{y}_i$。

* 公式(12):$L_{CLS} = \frac{1}{B} \sum_{i=1}^{B} CE(\hat{y}_i, y_i)$
* $L_{CLS}$:分类损失。
* $CE(\cdot, \cdot)$:交叉熵损失函数。
* $B$:批大小。

* 关键定理和引理: 论文没有使用显式的定理和引理,而是基于已有的CNN和Transformer的理论基础进行模型设计。
* 实现细节和技术要点:

* 深度可分离卷积: 用于减少参数量,提高计算效率。
* GELU激活函数: 一种常用的激活函数,在Transformer模型中表现良好。
* 可学习的位置编码: 用于保留时域和空域信息的顺序。
* 通道注意力: 通过学习通道权重,使得模型能够关注重要的脑电通道。

4. 实现细节与注意事项

* 关键实现细节:

* 双分支结构的实现: 使用PyTorch等深度学习框架可以很容易地实现双分支结构,只需要定义两个独立的模型,然后将它们的输出进行拼接即可。
* 通道注意力的实现: 通道注意力模块可以使用几个全连接层和Softmax函数来实现。
* 欧几里得对齐的实现: 需要计算协方差矩阵的均值和逆平方根,可以使用NumPy或SciPy等库来实现。

* 可能遇到的实现难点和解决方案:

* 模型训练不稳定: 可以尝试调整学习率、batch size等超参数,并使用dropout、weight decay等正则化方法。
* 模型过拟合: 可以尝试增加数据量、减少模型参数量、使用数据增强等方法。
* 计算资源不足: 可以尝试使用GPU加速、减小模型大小、使用混合精度训练等方法。

* 优化建议和最佳实践:

* 数据预处理: 对脑电数据进行适当的预处理可以显著提高模型的性能。
* 超参数调整: 需要根据具体的数据集和任务调整模型的超参数。
* 模型集成: 可以尝试使用模型集成的方法来提高模型的泛化能力。

* 参数设置和调优方法:

* 学习率: 通常设置为1e-3或1e-4,可以使用学习率衰减策略。
* Batch size: 需要根据GPU的显存大小进行调整。
* Dropout: 通常设置为0.5。
* Weight decay: 通常设置为1e-4或1e-5。
* Transformer层数和注意力头数: 需要根据模型的复杂度和数据集的大小进行调整。

总而言之,DBConformer是一种有效的脑电解码模型,它通过并行使用CNN和Transformer,并结合通道注意力机制,实现了高效且准确的脑电解码。该模型具有轻量化、易于训练和生理可解释性等优点,具有广泛的应用前景。
返回论文列表