图片来源:VentureBeat 所有者:VentureBeat
作者 | 李帅飞
编辑 | 唐里
据VentureBeat报道,Google AI 利用人工智能系统,借助数千个带有高质量标签的数据库,精准解读胸部 X 射线图像。论文已发表在《自然》杂志。
近年来,Google AI 不断将目光投向医疗领域。去年,纽约大学利用 Google 的 Inception v3 机器学习模型检测出肺癌。今年 5 月,Google AI 和美国西北大学医学院的科学家们创建模型,通过筛查检测出肺癌,水平超过了有 8 年经验的放射科医生。
此外,Google AI 曾通过眼部扫描,诊断糖尿病视网膜病变的进展;Alphabet 子公司 DeepMind 的 AI 曾为 50 种眼部疾病推荐合适的治疗方案,准确率高达 94%。
那么,胸部 X 射线图像解读是否也可以与人工智能相结合?
实际上,用机器学习算法分析胸部 X 射线图像,说起来容易做起来难。这是由于在通常情况下,训练算法所需的临床标签,是通过基于规则的自然语言处理或人工注释获得的,两者往往不一致,且错误较多。同时,仅以图像为依据,很难收集包含大量病例的数据库,并建立一致的、具有临床意义的标签。
近日,为推进 X 射线图像分类的目标,Google 的研究人员发现,利用人工智能模型分析胸部 X 射线图像,可检测四项指标:气胸(肺萎陷)、结节和肿块、骨折和气腔模糊(树芽征)。在一篇发表在《自然》(Nature)杂志的论文中,研究小组称,经专家独立审查,这一模型已达到放射科医生的水平。
这项最新研究,利用了来自两个反识别数据库的 60 多万张图像。其一是与印度阿波罗医院合作开发的数据库,包含多年来从各地收集到的 X 射线。其二是由美国国立卫生研究院发布的 ChestX-ray14 公开图像库,该图像库曾为人工智能研究提供支持,但在准确性方面存在不足。
纵观整个研究,首先,研究人员开发了一个基于文本的系统,提取每张 X 光片的放射学报告并加以运用,为阿波罗医院数据库中超过 56 万幅图像提供标签。为了减少基于文本的标签提取过程中可能出现的错误,并为若干 ChestX-ray14 图像提供相关标签,他们专门招募放射科医生,检查这两个数据库中的约 3.7 万幅图像。
下一步是生成用于模型评估的高质量参考标签。三名放射科医生通过小组合作的形式,审查所有结果,测试数据库图像,并在线讨论解决相互之间的分歧。这项研究的合著者也表示,通过这种方式,原先只能通过放射科医生检测到的结果,也能被准确地识别并记录下来。
Google 指出,尽管这些模型的准确性总体上达到了专家水平,但各个数据库的结果却各不相同。例如,对于 ChestX-ray14 图像,同一放射科医生检测气胸的灵敏度约为 79%,但对于其他数据库,检测气胸的灵敏度仅有 52%。
Google 科学家 David Steiner 博士和 Google Health 技术负责人 Shravya Shetty 均为该论文做了贡献,两人在一篇博客中提到:
数据库之间的差异,证明了建立具有明确参考指标的标准化评估图像库的必要性,方便在不同研究之间进行比较。但同时,将人工智能和放射科医生各自的优势相结合,很可能是人工智能应用于医学图像解读的最佳方式。
研究小组已经在开源中创建了 ChestX-ray14 数据库,数据库包含 2412 个训练、验证集图像,1962 个测试集图像,总共 4374 个图像。David Steiner 和 Shravya Shetty 表示,他们希望通过 ChestX-ray14 数据库的判定标签,为以后的机器学习奠定基础,并推动机器学习模型之间的比较,从而更精准地解读胸部 X 射线图像。
领取专属 10元无门槛券
私享最新 技术干货