基于高效层次混合Transformer架构,融合卷积神经网络局部特征提取能力与Transformer全局长程依赖建模优势, 在五大医学影像分割基准上超越现有方法,参数量更小、精度更高。
整合CNN与Transformer的双重优势,专为医学影像低数据场景优化设计
层次化编解码器设计,在四个分辨率尺度上并行运行CNN与Transformer分支
上传医学影像或选择示例图像,实时查看H2Former分割效果
在五大公开数据集上验证,H2Former以更少参数量实现更高分割精度
ISIC 2016皮肤病变分割 · 与CNN、Transformer及Hybrid方法全面比较
| 方法 | 类型 | Acc (%) | Dice (%) | IoU (%) | 参数量 (M) |
|---|---|---|---|---|---|
| UNet | CNN | 93.5 | 85.8 | 77.1 | 31.0 |
| UNet++ | CNN | 94.1 | 87.1 | 78.9 | 36.6 |
| Att-UNet | CNN | 94.0 | 86.4 | 78.2 | 34.9 |
| TransUNet | Hybrid | 94.6 | 88.4 | 80.5 | 93.2 |
| Swin-UNet | Transformer | 94.3 | 88.0 | 80.0 | 41.4 |
| MISSFormer | Transformer | 94.5 | 88.6 | 80.8 | 42.5 |
| H2Former (Ours) | Hybrid | 95.1 | 91.2 | 84.0 | 28.5 |
覆盖眼底、皮肤、消化道、心脏、腹部多个医学影像分割领域