智能医疗有很多的发展方向,例如医学影像处理、诊断预测、疾病控制、 健康 管理、康复机器人、语音识别病历电子化等。当前人工智能技术新的发力点中的医学图像在疾病的预测和自动化诊断方面有非常大的意义,本篇即针对医学影像中的病例分析,降噪,分割,检索等领域来介绍一些常用的数据集。
1.1 病例分析数据集
1.1.1 ABIDE
发布于2013年,这是一个对自闭症内在大脑结构的大规模评估数据集,包括539名患有ASD和573名正常个体的功能MRI图像。
1.1.2 OASIS
OASIS,全称为Open Access Series of Imaging Studies,已经发布了第3代版本,第一次发布于2007年,是一项旨在使科学界免费提供大脑核磁共振数据集的项目。它有两个数据集可用,下面是第1版的主要内容。
(1) 横截面数据集:年轻,中老年,非痴呆和痴呆老年人的横断面MRI数据。该组由416名年龄在18岁至96岁的受试者组成的横截面数据库组成。对于每位受试者,单独获得3或4个单独的T1加权MRI扫描包括扫描会话。受试者都是右撇子,包括男性和女性。100名60岁以上的受试者已经临床诊断为轻度至中度阿尔茨海默病。
(2) 纵向集数据集:非痴呆和痴呆老年人的纵向磁共振成像数据。该集合包括150名年龄在60至96岁的受试者的纵向集合。每位受试者在两次或多次访视中进行扫描,间隔至少一年,总共进行373次成像。对于每个受试者,包括在单次扫描期间获得的3或4次单独的T1加权MRI扫描。受试者都是右撇子,包括男性和女性。在整个研究中,72名受试者被描述为未被证实。包括的受试者中有64人在初次就诊时表现为痴呆症,并在随后的扫描中仍然如此,其中包括51名轻度至中度阿尔茨海默病患者。另外14名受试者在初次就诊时表现为未衰退,随后在随后的访视中表现为痴呆症。
1.1.3 DDSM
发布于2000年,这是一个用于筛选乳腺摄影的数字数据库,是乳腺摄影图像分析研究社区使用的资源。该项目的主要支持来自美国陆军医学研究和装备司令部的乳腺癌研究计划。DDSM项目是由马萨诸塞州综合医院(D. Kopans,R. Moore),南佛罗里达大学(K. Bowyer)和桑迪亚国家实验室(P. Kegelmeyer)共同参与的合作项目。数据库的主要目的是促进计算机算法开发方面的良好研究,以帮助筛选。数据库的次要目的可能包括开发算法以帮助诊断和开发教学或培训辅助工具。该数据库包含约2,500项研究。每项研究包括每个乳房的两幅图像,以及一些相关的患者信息(研究时间,ACR乳房密度评分,异常微妙评级,异常ACR关键字描述)和图像信息(扫描仪,空间分辨率等)。包含可疑区域的图像具有关于可疑区域的位置和类型的像素级“地面真实”信息。
1.1.4 MIAS
MIAS全称为MiniMammographic Database,是乳腺图像数据库。
乳腺MG数据(Breast Mammography)有个专门的database,可以查看很多数据集,链接地址为:
1.1.5 MURA
发布于2018年2月,吴恩达团队开源了 MURA 数据库,MURA 是目前最大的 X 光片数据库之一。该数据库中包含了源自14982项病例的40895张肌肉骨骼X光片。1万多项病例里有9067例正常的上级肌肉骨骼和5915例上肢异常肌肉骨骼的X光片,部位包括肩部、肱骨、手肘、前臂、手腕、手掌和手指。每个病例包含一个或多个图像,均由放射科医师手动标记。全球有超过17亿人都有肌肉骨骼性的疾病,因此训练这个数据集,并基于深度学习检测骨骼疾病,进行自动异常定位,通过组织器官的X光片来确定机体的 健康 状况,进而对患者的病情进行诊断,可以帮助缓解放射科医生的疲劳。
参考2018年论文:MURA: Large Dataset for Abnormality Detection in Musculoskeletal Radiographs.
1.1.6 ChestX-ray14
参考论文:
CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning
ChestX-ray14 是由NIH研究院提供的,其中包含了30,805名患者的112,120个单独标注的14种不同肺部疾病(肺不张、变实、浸润、气胸、水肿、肺气肿、纤维变性、积液、肺炎、胸膜增厚、心脏肥大、结节、肿块和疝气)的正面胸部 X 光片。研究人员对数据采用NLP方法对图像进行标注。利用深度学习的技术早期发现并识别胸透照片中肺炎等疾病对增加患者恢复和生存的最佳机会至关重要。
1.1.7 LIDC-IDRI
LIDC-IDRI数据集是由美国国家癌症研究所(National Cancer Institute)发起收集的,目的是为了研究高危人群早期肺结节检测。该数据集中,共收录了1018个研究实例。对于每个实例中的图像,都由4位经验丰富的胸部放射科医师进行两阶段的诊断标注。该数据集由胸部医学图像文件(如CT、X光片)和对应的诊断结果病变标注组成。
1.1.8 LUNA16
发布于2016年,是肺部肿瘤检测最常用的数据集之一,它包含888个CT图像,1084个肿瘤,图像质量和肿瘤大小的范围比较理想。数据分为10个subsets,subset包含89/88个CT scan。
LUNA16的CT图像取自LIDC/IDRI数据集,选取了三个以上放射科医师意见一致的annotation,并且去掉了小于3mm的肿瘤,所以数据集里不含有小于3mm的肿瘤,便于训练。
1.1.9 NSCLC
发布于2018年,来自斯坦福大学。数据集来自211名受试者的非小细胞肺癌(NSCLC)队列的独特放射基因组数据集。该数据集包括计算机断层扫描(CT),正电子发射断层扫描(PET)/ CT图像。创建该数据集是为了便于发现基因组和医学图像特征之间的基础关系,以及预测医学图像生物标记的开发和评估。
1.1.10 DeepLesion
DeepLesion由美国国立卫生研究院临床中心(NIHCC)的团队开发,是迄今规模最大的多类别、病灶级别标注临床医疗CT图像开放数据集。在该数据库中图像包括多种病变类型,目前包括4427个患者的32,735 张CT图像及病变信息,同时也包括肾脏病变,骨病变,肺结节和淋巴结肿大。DeepLesion多类别病变数据集可以用来开发自动化放射诊断的CADx系统。
1.1.11 ADNI
ANDI涉及到的数据集包括如下几部分Clinical Data(临床数据)、MR Image Data(磁共振成像)、Standardized MRI Data Sets、PET Image Data(正电子发射计算机断层扫描)、Gennetic Data(遗传数据)、Biospecimen Data(生物样本数据)。
1.2 医学降噪数据集
1.2.1 BrainWeb数据集
发布于1997年,这是一个仿真数据集,用于医学图像降噪。研究者可以截取不同断层的正常脑部仿真图像,包括T1,T2,PD3种断层,设置断层的厚度,叠加高斯噪声或者医学图像中常见的莱斯噪声,最终会得到181×217大小的噪声图像。
1.3 医学分割数据集
1.3.1 DRIVE数据集
发布于2003年,这是一个用于血管分割的数字视网膜图像数据集,它由40张照片组成,其中7张显示出轻度早期糖尿病视网膜病变迹象。
1.3.2 SCR数据集
发布于2000年,胸部X光片的分割,胸部X光片中解剖结构的自动分割对于这些图像中的计算机辅助诊断非常重要。SCR数据库的建立是为了便于比较研究肺野,心脏和锁骨在标准的后胸前X线片上的分割。
本着合作科学进步的精神,我们可以自由共享SCR数据库,并致力于在这些分割任务上维护各种算法结果的公共存储库。在这些页面上,可以在下载数据库和上载结果时找到说明,并且可以检查各种方法的基准结果。
1.3.3 医学图像分析benchmark
在网址https://grand-challenge.org/challenges/提供了时间跨度超过10年的医学图像资料。
1.3.4 Ardiac MRI
ardiac MRI 是心脏病患者心房医疗影像数据,以及其左心室的心内膜和外膜的图像标注。包括33位患者案例,每个受试者的序列由沿着长的20帧和8-15个切片组成,共7980张图像。
1.3.5 NIH
发布于2017年,这是一个胸部X射线数据集,包含30,805个患者,14个疾病图像标签(其中每个图像可以具有多个标签),112,820个正面X射线图像,标签是使用自然语言处理从相关的放射学报告中自动提取。十四种常见的胸部病变包括肺不张,巩固,浸润,气胸,水肿,肺气肿,纤维化,积液,肺炎,胸膜增厚,心脏扩大,结节,肿块和疝。由于许多原因,原始放射学报告(与这些胸部X射线研究相关)并不是公开分享的。所以文本挖掘的疾病标签预计准确度 >90%,这个数据集适合做半监督的学习。
1.4 List of Open Access
在List of Open Access Medical Imaging Datasets网站上可以看到更多的相关方向的数据集。
2.1 VISCERAL
VISCERAL 是Visual Concept Extraction Challenge in Radiology的缩写,是放射学中的视觉概念提取挑战赛。他们提供几种不同成像模式(例如CT和MR)的几种解剖结构(例如肾,肺,膀胱等)的放射学数据以及一个云计算实例。
2.2 Grand Challenges
提供了医学图像分析领域内所有挑战的概述,下面举的例子是2019年的医学图像方面将要举办的竞赛。
2.3 Dream Challenges
这个挑战赛中包括有数字乳腺摄影梦想挑战;ICGC-TCGA DREAM体细胞突变称为RNA挑战(SMC-RNA)等等。
最后提供给对医学影像处理感兴趣的童鞋一个超级赞的github链接如下:
这是Github上哈佛 beamandrew机器学习和医学影像研究者贡献的数据集,包括了医学影像数据、竞赛数据、来自电子 健康 记录的数据、医疗数据、UCI数据集、生物医学文献等。
论文: Generative adversarial network in medical imaging: A review
这篇文章发表于顶刊Medical Imaging Analysis 2019上,文章细数了GAN应用于医学图像的七大领域——重建(图像去噪)、合成、分割、分类、检测、配准和其他工作,并介绍了包括医学图像数据集、度量指标等内容,并对未来工作做出展望。由于笔者研究方向之故,本博客暂时只关注重建、合成部分的应用。关于该论文中所有列出的文章,均可在 GitHub链接 中找到。
GAN在医学成像中通常有两种使用方式。第一个重点是生成方面,可以帮助探索和发现训练数据的基础结构以及学习生成新图像。此属性使GAN在应对数据短缺和患者隐私方面非常有前途。第二个重点是判别方面,其中辨别器D可以被视为正常图像的先验知识,因此在呈现异常图像时可以将其用作正则器或检测器。示例(a),(b),(c),(d),(e),(f)侧重于生成方面,而示例 (g) 利用了区分性方面。下面我们看一下应用到分割领域的文章。
(a)左侧显示被噪声污染的低剂量CT,右侧显示降噪的CT,该CT很好地保留了肝脏中的低对比度区域[1]。 (b)左侧显示MR图像,右侧显示合成的相应CT。在生成的CT图像中很好地描绘了骨骼结构[2]。 (c)生成的视网膜眼底图像具有如左血管图所示的确切血管结构[3]。(d)随机噪声(恶性和良性的混合物)随机产生的皮肤病变[4]。 (e)成人胸部X光片的器官(肺和心脏)分割实例。肺和心脏的形状受对抗性损失的调节[5]。 (f)第三列显示了在SWI序列上经过域调整的脑病变分割结果,无需经过相应的手动注释训练[6]。 (g) 视网膜光学相干断层扫描图像的异常检测[7]。
通常,研究人员使用像像素或逐像素损失(例如交叉熵)进行分割。尽管使用了U-net来组合低级和高级功能,但不能保证最终分割图的空间一致性。传统上,通常采用条件随机场(CRF)和图割方法通过结合空间相关性来进行细分。它们的局限性在于,它们仅考虑可能在低对比度区域中导致严重边界泄漏的 pair-wise potentials (二元势函数 -- CRF术语)。另一方面,鉴别器引入的对抗性损失可以考虑到高阶势能。在这种情况下,鉴别器可被视为形状调节器。当感兴趣的对象具有紧凑的形状时,例如物体,这种正则化效果更加显着。用于肺和心脏mask,但对诸如血管和导管等可变形物体的用处较小。这种调节效果还可以应用于分割器(生成器)的内部特征,以实现域(不同的扫描仪,成像协议,模态)的不变性[8、9]。对抗性损失也可以看作是f分割网络(生成器)的输出和 Ground Truth 之间的自适应学习相似性度量。因此,判别网络不是在像素域中测量相似度,而是将输入投影到低维流形并在那里测量相似度。这个想法类似于感知损失。不同之处在于,感知损失是根据自然图像上的预训练分类网络计算而来的,而对抗损失则是根据在生成器演变过程中经过自适应训练的网络计算的。
[10] 在鉴别器中使用了多尺度L1损失,其中比较了来自不同深度的特征。事实证明,这可以有效地对分割图执行多尺度的空间约束,并且系统在BRATS 13和15挑战中达到了最先进的性能。 [11] 建议在分割管道中同时使用带注释的图像和未带注释的图像。带注释的图像的使用方式与 [10] 中的相同。 [10] 和 [12] ,同时应用了基于元素的损失和对抗性损失。另一方面,未注释的图像仅用于计算分割图以混淆鉴别器。 [13] 将pix2pix与ACGAN结合使用以分割不同细胞类型的荧光显微镜图像。他们发现,辅助分类器分支的引入为区分器和细分器提供了调节。
这些前述的分割训练中采用对抗训练来确保最终分割图上更高阶结构的一致性,与之不同的是, [14] -- code 中的对抗训练方案,将网络不变性强加给训练样本的小扰动,以减少小数据集的过度拟合。表中总结了与医学图像分割有关的论文。
参考链接:
[1] X. Yi, P. Babyn. Sharpness-aware low-dose ct denoising using conditional generative adversarial network. J. Digit. Imaging (2018), pp. 1-15
[2] J.M. Wolterink, A.M. Dinkla, M.H. Savenije, P.R. Seevinck, C.A. van den Berg, I. Išgum. Deep MR to CT synthesis using unpaired data International Workshop on Simulation and Synthesis in Medical Imaging, Springer (2017), pp. 14-23
[3] P. Costa, A. Galdran, M.I. Meyer, M. Niemeijer, M. Abràmoff, A.M. Mendonça, A. Campilho. End-to-end adversarial retinal image synthesis IEEE Trans. Med. Imaging(2017)
[4] Yi, X., Walia, E., Babyn, P., 2018. Unsupervised and semi-supervised learning with categorical generative adversarial networks assisted by Wasserstein distance for dermoscopy image classification. arXiv:1804.03700 .
[5] Dai, W., Doyle, J., Liang, X., Zhang, H., Dong, N., Li, Y., Xing, E.P., 2017b. Scan: structure correcting adversarial network for chest x-rays organ segmentation. arXiv: 1703.08770 .
[6] K. Kamnitsas, C. Baumgartner, C. Ledig, V. Newcombe, J. Simpson, A. Kane, D. Menon, A. Nori, A. Criminisi, D. Rueckert, et al. Unsupervised domain adaptation in brain lesion segmentation with adversarial networks International Conference on Information Processing in Medical Imaging, Springer (2017), pp. 597-609
[7] T. Schlegl, P. Seeböck, S.M. Waldstein, U. Schmidt-Erfurth, G. Langs Unsupervised anomaly detection with generative adversarial networks to guide marker discovery International Conference on Information Processing in Medical Imaging, Springer (2017), pp. 146-157
[8] K. Kamnitsas, C. Baumgartner, C. Ledig, V. Newcombe, J. Simpson, A. Kane, D. Menon, A. Nori, A. Criminisi, D. Rueckert, et al. Unsupervised domain adaptation in brain lesion segmentation with adversarial networks International Conference on Information Processing in Medical Imaging, Springer (2017), pp. 597-609
[9] Dou, Q., Ouyang, C., Chen, C., Chen, H., Heng, P.-A., 2018. Unsupervised cross-modality domain adaptation of convnets for biomedical image segmentations with adversarial loss. arXiv: 1804.10916 .
[10] Y. Xue, T. Xu, H. Zhang, L.R. Long, X. Huang Segan: adversarial network with multi-scale l 1 loss for medical image segmentation Neuroinformatics, 16 (3–4) (2018), pp. 383-392
[11] Y. Zhang, L. Yang, J. Chen, M. Fredericksen, D.P. Hughes, D.Z. Chen. Deep adversarial networks for biomedical image segmentation utilizing unannotated images International Conference on Medical Image Computing and Computer-Assisted Intervention, Springer (2017), pp. 408-416
[12] Son, J., Park, S.J., Jung, K.-H., 2017. Retinal vessel segmentation in fundoscopic images with generative adversarial networks. arXiv: 1706.09318 .
[13] Y. Li, L. Shen. CC-GAN: a robust transfer-learning framework for hep-2 specimen image segmentation IEEE Access, 6 (2018), pp. 14048-14058
[14] W. Zhu, X. Xiang, T.D. Tran, G.D. Hager, X. Xie. Adversarial deep structured nets for mass segmentation from mammograms 2018 IEEE 15th International Symposium on Biomedical Imaging (ISBI 2018), IEEE (2018)
[15] D. Yang, D. Xu, S.K. Zhou, B. Georgescu, M. Chen, S. Grbic, D. Metaxas, D. Comaniciu. Automatic liver segmentation using an adversarial image-to-image network International Conference on Medical Image Computing and Computer-Assisted Intervention, Springer (2017), pp. 507-515
[16] Dou, Q., Ouyang, C., Chen, C., Chen, H., Heng, P.-A., 2018. Unsupervised cross-modality domain adaptation of convnets for biomedical image segmentations with adversarial loss. arXiv: 1804.10916 .
[17] Rezaei, M., Yang, H., Meinel, C., 2018a. Conditional generative refinement adversarial networks for unbalanced medical image semantic segmentation. arXiv: 1810.03871 .
[18] A. Sekuboyina, M. Rempfler, J. Kukačka, G. Tetteh, A. Valentinitsch, J.S. Kirschke, B.H. Menze. Btrfly net: Vertebrae labelling with energy-based adversarial learning of local spine prior International Conference on Medical Image Computing and Computer-Assisted Intervention, Springer, Cham (2018)
[19] M. Rezaei, K. Harmuth, W. Gierke, T. Kellermeier, M. Fischer, H. Yang, C. Meinel. A conditional adversarial network for semantic segmentation of brain tumor
International MICCAI Brainlesion Workshop, Springer (2017), pp. 241-252
[20] P. Moeskops, M. Veta, M.W. Lafarge, K.A. Eppenhof, J.P. Pluim. Adversarial training and dilated convolutions for brain MRI segmentation Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support, Springer (2017), pp. 56-64
[21] Kohl, S., Bonekamp, D., Schlemmer, H.-P., Yaqubi, K., Hohenfellner, M., Hadaschik, B., Radtke, J.-P., Maier-Hein, K., 2017. Adversarial networks for the detection of aggressive prostate cancer. arXiv: 1702.08014 .
[22]Y. Huo, Z. Xu, S. Bao, C. Bermudez, A.J. Plassard, J. Liu, Y. Yao, A. Assad, R.G. Abramson, B.A. Landman. Splenomegaly segmentation using global convolutional kernels and conditional generative adversarial networks Medical Imaging 2018: Image Processing, 10574, International Society for Optics and Photonics (2018), p. 1057409
[23]K. Kamnitsas, C. Baumgartner, C. Ledig, V. Newcombe, J. Simpson, A. Kane, D. Menon, A. Nori, A. Criminisi, D. Rueckert, et al. Unsupervised domain adaptation in brain lesion segmentation with adversarial networks International Conference on Information Processing in Medical Imaging, Springer (2017), pp. 597-609
[24]Z. Han, B. Wei, A. Mercado, S. Leung, S. Li. Spine-GAN: semantic segmentation of multiple spinal structures Med. Image Anal., 50 (2018), pp. 23-35
[25]M. Zhao, L. Wang, J. Chen, D. Nie, Y. Cong, S. Ahmad, A. Ho, P. Yuan, S.H. Fung, H.H. Deng, et al. Craniomaxillofacial bony structures segmentation from MRI with deep-supervision adversarial learning International Conference on Medical Image Computing and Computer-Assisted Intervention, Springer (2018), pp. 720-727
[26] Son, J., Park, S.J., Jung, K.-H., 2017. Retinal vessel segmentation in fundoscopic images with generative adversarial networks. arXiv: 1706.09318 .
[27]Y. Li, L. Shen. CC-GAN: a robust transfer-learning framework for hep-2 specimen image segmentation IEEE Access, 6 (2018), pp. 14048-14058
[28] S. Izadi, Z. Mirikharaji, J. Kawahara, G. Hamarneh. Generative adversarial networks to segment skin lesions Biomedical Imaging (ISBI 2018), 2018 IEEE 15th International Symposium on, IEEE (2018), pp. 881-884
Close
[29]W. Zhu, X. Xiang, T.D. Tran, G.D. Hager, X. Xie. Adversarial deep structured nets for mass segmentation from mammograms 2018 IEEE 15th International Symposium on Biomedical Imaging (ISBI 2018), IEEE (2018)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)