Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,679,512字

该文章投稿至Nemo社区   资讯  板块 复制链接


微软推出 LLaVA-Med AI 模型,可对医学病理案例进行分析

发布于 2023/06/14 13:34 230浏览 0回复 663

IT之家 6 月 14 日消息,日前微软研究人员展示了 LLaVA-Med 模型,该模型主要用于生物医学方面的研究,可根据 CT、X 光图片等推测出患者的病理状况

据悉,微软研究人员与一批医院合作,获得了使用生物医学图像文本对应大型数据集来训练多模态 AI 模型。该数据集包括胸部 X 光、MRI、组织学、病理学和 CT 图像等,覆盖范围相对全面

▲ 图源 微软

微软使用 GPT-4,基于 Vision Transformer 和 Vicuna 语言模型,在八个英伟达 A100 GPU 上对 LLaVA-Med 进行训练,其中包含“每个图像的所有预分析信息”,用于生成有关图像的问答,以满足“可自然语言回答有关生物医学图像问题”的助手愿景。

在学习过程中,模型主要围绕“描述此类图像的内容”以及“阐述生物医学概念(IT之家注:从图片中判断是什么样的)”而展开。据微软称,该模型最终具有“出色的多模式对话能力”、“在用于回答视觉问题的三个标准生物医学数据集上,LLaVA-Med 在部分指标上领先于业界其他先进模型”。

▲ 图源 微软

研究团队表示:“虽然我们认为 LLaVA-Med 模型代表了朝着构建有用的生物医学视觉助手迈出的重要一步,但当下 LLaVA-Med 模型还存在一定的不足之处,即大模型常见的虚假举例和准确度不佳的问题,研究团队未来将侧重于提高模型的质量和可靠性,以令模型有朝一日可以在商业生物医学中应用。”

IT之家注意到,目前该模型已经开源,大家可以在 GitHub 找到相关信息


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/699/718.htm]

本文标签
 {{tag}}
点了个评