ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
Glass Health正在开发一种AI工具,用于提出医疗诊断建议
2392点击    2023-09-09 11:38


在加州大学旧金山分校攻读医学专业时,德里克-保罗(Dereck Paul)开始担心医疗软件的创新落后于金融和航空航天等其他行业。他认为,只有为医生配备了使用尖端技术的软件,才能为患者提供最好的服务。他梦想创办一家优先考虑患者和医生的需求,而不是偏向医院管理者或保险公司的公司。


于是,保罗(Dereck Paul)与他的朋友、女性健康科技公司现代生育公司(Modern Fertility)的工程师格雷厄姆-拉姆齐(Graham Ramsey)合作,于2021年创办了Glass Health公司。Glass Health为医生提供了一个AI笔记本,用户可以用来存储、整理和分享他们在医疗职业生涯中的诊断和治疗疾病的方法;拉姆齐将其描述为学习和行医的 "个人知识管理系统"。



"保罗(Dereck Paul)说:"在新冠疫情期间,拉姆齐(Graham Ramsey)和我亲眼目睹了现有医疗系统所承受的巨大压力,医疗工作者对于这份职业本身厌恶情绪也在日益严重的危机。"我作为医学生在医院实习,后来又在布里格姆妇女医院担任内科住院医生,亲身经历了医护人员的困境。我们对一线医疗工作者的同情促使我们创建了一家公司,致力于充分利用技术改善医疗实践。


Glass Health 早期在各种社交媒体,尤其是 X(前 Twitter)上获得了医生、护士和实习医生的喜欢,这也该公司获得第一笔融资的重要原因。该公司在 2022 年获得了由 Breyer Capital 领投的 150 万美元种子轮融资。在今年年初,保罗(Dereck Paul)和拉姆齐(Graham Ramsey)决定将公司转向生成式人工智能,他们准备拥抱AI的大趋势。


Glass Health现在提供一种由大型语言模型(LLM)驱动的人工智能工具,该技术类似于OpenAI的ChatGPT,它可以生成诊断和 "基于证据 "的治疗方案,给患者做参考。医生可以输入类似 "71 岁男性,有心肌梗死病史,出现亚急性进行性劳力性呼吸困难 "或 "65 岁女性,有糖尿病和高脂血症病史,出现急性发作性胸痛和透湿 "这样的描述,Glass Health 的人工智能就会提供可能的后续临床方案。


"保罗(Dereck Paul)解释说:"临床医生输入患者摘要,也称为问题表述,描述相关的人口统计学特征、既往病史、体征和症状,以及与患者的相关化验结果(即相关的实验室和放射学检查结果)的描述。"然后 Glass Health 会分析患者的摘要,并推荐临床医生可能需要考虑后续的进一步调查的5到10项诊断建议。


Glass Health 还可以起草病例评估段落供临床医生审阅,其中包括对可能相关的诊断研究的解释。这些解释可以编辑并用于临床笔记和记录,或与更广泛的 Glass Health 社区里分享交流。


理论上,Glass Health 的工具应该是非常有用的,但实际情况是,即使是最新的 人工智能模型(LLM),在医疗健康方面给出的建议也是漏洞百出的。


巴比伦健康公司(Babylon Health)是一家由英国国民健康服务支持的AI初创企业,它声称自己的疾病诊断技术可以比医生做得更好,也因此经常受到质疑。


在一次实验中,英国国家饮食失调协会(NEDA)与人工智能初创公司Cass合作推出了一款聊天机器人,为饮食失调患者提供支持。由于人工智能系统升级,Cass 开始鹦鹉学舌地提出限制卡路里等有害的 "饮食文化 "建议,这直接导致了 NEDA 关闭了该工具。


媒体《健康新闻》最近招募了一位医学专家,来评估 ChatGPT 在医疗健康领域给出的建议是否合理。该专家发现,由于chatGPT的知识没有最新的研究信息,这导致它做出了误导性的陈述(例如“葡萄酒可能预防癌症”以及前列腺癌筛查应基于“个人价值观”),而且有些内容还抄袭了多个健康新闻。


在人工智能医疗领域的研究还不够多,但大家很想知道大语言模型是否会错误地诊断患者。类似Glass的医学LLM通常是在健康记录上训练的,这些记录是由医生和护士平时工作中会关注的内容组成的(只有那些能够看医生的患者有这些记录),但是它们可能存在一些不明显的危险盲区。因为医生可能在编写LLM训练的记录时,不知不觉地加入了自己的偏见,导致这些模型的推理出现偏差。


Glass Health的创始人保罗(Dereck Paul)非常清楚在医学领域中应用生成式人工智能的风险,他很自信Glass Health的AI是优于市场上许多已有的解决方案的。



"Glass Health将人工智能与我们的学术医疗团队创建和经过同行评审的临床指南连续在一起,"他说。 "我们的医疗团队成员来自全国各大学术医疗中心,并像为医学期刊工作一样兼职为Glass Health工作,我们一起创建属于我们的AI指南,并以此微调我们的AI。我们要求使用Glass Health的临床医生要时刻关注AI应用所给出的所有内容,要将这些内容视为可以提供有用建议和选项的助手,但是不可以作为替代他们自己做判断的临床工具。”


在我们的采访过程中,保罗(Dereck Paul)多次强调,Glass Health的AI专注于提供潜在的诊断,不应被解释为确定性或规范性的答案。


当然,,Glass Health并不是唯一一个这样做的公司。谷歌正在测试名为Med-PaLM 2的医疗专用语言模型,该模型在其营销材料中小心翼翼地避免建议该模型可以在临床环境中取代医疗专业人员的经验。Hippocratic也是如此,该初创公司正在构建专门用于医疗应用的LLM(但不是用于诊断)。


尽管如此,保罗(Dereck Paul)认为Glass Health的方法让AI输出的内容其实是具有“精细控制”的,并且可以让AI输出的结果“反映最新的医学知识和指南”。当然,要想实现这样的目的,就需要收集用户的数据,来不断的训练Glass背后的模型,当然可能不是所有患者都会喜欢这样的做法。


保罗(Dereck Paul)表示,用户是可以随时要求删除其存储的所有数据的。


“我们的LLM应用程序在生成输出时检索医生验证的临床指南作为AI上下文,”他说。 “Glass不同于像ChatGPT这样的LLM应用程序,后者仅依赖其预训练来生成输出,因此更容易生成不准确或过时的医学信息……我们对我们的AI用于创建输出的信息和指南拥有严格的控制权,并且有能力对我们的指南进行严格的编辑流程,以解决错误信息问题,并使我们的建议与实现健康公平目标保持一致。”


我们拭目以待后续的发展。


Glass Health的推广非常顺利。到目前为止,该应用已经吸引了超过59,000名用户,并且已经提供了“面向临床医生”的付费服务。今年,Glass将开始试点一款与HIPAA合规性的电子健康记录集成的企业服务;保罗(Dereck Paul)声称,有15家未透露姓名的卫生系统和公司在等待名单上。


Paul表示,Glass计划用总额为650万美元的资金用于创建、审查和更新平台使用的临床指南,用于AI微调和一般研发。


Glass Health官网地址:https://glass.health/


文章转载自techcrunch



关键词: AI医疗 , AI , 人工智能
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner