ai-offers-benefits

人工智能为医疗保健带来了现实世界的好处

机器学习研究峰会吸引了创纪录的参与者

一分钟读

特邀撰稿人2019年9月3日

与科幻小说中邪恶电脑密谋推翻人类的描述不同,人工智能(AI)实际上似乎可以在许多方面帮助改善人类健康,包括为皮肤科医生追踪可疑的痣,监测军事外勤人员的血量,以及通过Twitter跟踪流感疫情。

科罗拉多临床和转化科学研究所(CCTSI)最近举行了7th本次峰会主题为“生物医学研究中的人工智能和机器学习”,有150多名研究人员、临床医生和来自CU三个校区和CSU的学生参加。

CCTSI主任Ronald Sokol医学博士说:“CCTSI的目的是通过汇集我们所有合作伙伴的专业知识,加速和催化将发现转化为更好的患者护理和人口健康。”一年一度的峰会将临床医生、基础和临床研究人员、博士后研究员、数学家和其他人聚集在一起,突出正在进行的卓越研究,建立合作,增加四个校区的互联互通。

今年的人工智能大会达到了报名能力,包括比前六届更多的数学家参加,以及更多的海报提交。“人工智能研究的话题无处不在。没有人确切地知道会发生什么,”索科尔说,他提到了在研究中使用人工智能的许多隐私和道德问题。“我也是来学习的——我不确定我是否完全理解。”

不辜负“炒作”

加州大学安舒茨分校(CU Anschutz)计算生物科学项目主任劳伦斯·亨特(Lawrence Hunter)认为,人工智能有可能改变人们行医的方式。亨特说:“现在有很多炒作,所以我们需要小心谈论它。”

具体来说,人工智能在科罗拉多州的生物医学研究中做了什么?迈克尔·保罗博士是科罗拉多大学博尔德分校的信息科学助理教授,他通过Twitter和谷歌等网站使用社会监控来跟踪和预测公共卫生,包括每年的流感发病率和寨卡病毒爆发。疾病控制中心(CDC)通常被认为是公共卫生信息的黄金标准,但保罗指出,CDC的数据总是至少落后两周。相比之下,谷歌Trends提供了每日人口快照:作为一个虚构的例子,“科罗拉多州有100万人搜索‘2019年9月15日流感症状’。

来自CSU的史蒂文·拉金

科罗拉多州立大学兽医学专业的学生Steven Lakin在科罗拉多州立大学峰会上展示了他的超级计算机研究项目。

Twitter等社交媒体资源可以在特定地理区域或感兴趣的人口群体中挖掘包含“流感”等术语的推文。使用Twitter,研究人员可以区分“我得了流感”和“我希望我不要得流感”,而谷歌数据无法做到这一点。

史蒂夫·莫尔顿,医学博士,创伤外科医生,科罗拉多州儿童医院创伤和烧伤服务部主任中大医学院Flashback Technologies, Inc .的联合创始人使用了一种最初旨在帮助机器人在室外非结构化环境中导航的机器学习系统,创造了一种名为CipherOx的新型手持医疗设备专利,该设备于2018年获得了FDA的批准。

CipherOx该系统是与美国国防部的国防高级研究计划局(DARPA)合作开发的,通过一种名为代偿储备指数(CRI)的新的人工智能计算数字来监测心率和氧饱和度,并估计血容量,该指数表明患者因失血或脱水而休克的距离有多近。虽然设计用于军事实地行动,但CipherOx也可用于监测前往医院的病人和产后妇女。值得注意的是,莫尔顿的试点研究是由CCTSI资助的。

人工智能基础

人工智能在机器学习中的应用可以被打破三大类别:监督学习、非监督学习和强化学习。在监督学习中,人工智能系统通过训练来做出决定。例如,谷歌在2016年开发了一个基于ai工具帮助眼科医生识别可能导致失明的糖尿病并发症——糖尿病视网膜病变——的风险患者。谷歌算法从一组由委员会认证的眼科医生诊断的图像中学习,并建立了一套做出是或否决定的标准。

在无监督学习中,人工智能依赖概率来评估复杂的数据集;手机上的预测性文本就是一个例子。在生物医学研究中,无监督学习的一个例子是使用人工智能分析药物标签,以发现治疗类似疾病的药物的共同安全问题。

最后,强化学习,就像谷歌一样AlphaZero世界上最好的机器棋手,允许人工智能尝试许多选项来最大化奖励,同时最小化惩罚。在强化学习中,人工智能程序可以完全探索假设的空间而不会造成麻烦。在生物医学研究中,当人工智能的选择范围很窄时,强化学习可能会很有用,例如,在很窄的可能药物剂量范围内预测患者的最佳反应。

人为错误vs人工智能错误

根据CU Anschutz的Lawrence Hunter的说法,人工智能在医疗保健中的一个主要问题不是证明人工智能有多好,而是关注它在哪里失败。他说:“92%的人工智能是正确的,这让我们相信系统是准确的,但我们必须非常小心其他8%,因为人工智能所犯的错误类型与人类所犯的错误类型不同(而且可能更严重)。”

来自CU Anschutz的生物伦理和人文中心的副教授Matt DeCamp举了一个这种现象的例子:当AI被用来对图片进行分类时,蜻蜓的图片被交替识别为臭鼬、海狮、香蕉和手套。“有些错误很容易被发现(蜻蜓不等于海狮),”德坎普说,“但其他更接近合理范围的错误可能会挑战机构审查委员会(IRB)的风险评估方式。”IRB是由科学家和临床医生组成的小组,负责评估临床试验中的患者风险。

人工智能领域

来自CU Anschutz的生物伦理和人文中心的副教授Matt DeCamp概述了人工智能的前景:

  • 到2021年,人工智能对生物医学研究的投资预计将高达60亿美元
  • 在过去两年中,至少有14项与人工智能相关的FDA批准,主要是在成像、眼科和病理学领域
  • 55项使用“深度学习”一词的活跃或待定临床试验
  • 141家初创生物技术公司使用人工智能
  • 保险公司积极利用人工智能来审查记录并优化慢性病的护理

在谷歌帮助眼科医生发现有失明风险的患者的系统等例子中,人工智能被认为可以增加患者的就诊机会,特别是在农村地区和行动不便的患者,并降低提供者和医院的成本。虽然利用人工智能改善人类健康的潜力很大,但德坎普也赞同亨特的观点,并警告不要自动接受人工智能的优越性。“AI系统可能在平均水平上更好,但请记住,平均水平更好可能会掩盖不同亚群体的系统偏见。这是一个正义的问题。”

挑战和关注事项

在生物医学研究中使用人工智能的一些问题涉及患者隐私。例如,今年夏天,芝加哥大学的一名患者声称,由于大学和谷歌之间的数据共享,他的隐私受到了违反合同和消费者保护法的侵犯,这一诉讼成为了头条新闻。科罗拉多大学博尔德分校的迈克尔·保罗(Michael Paul)表示,最近关于娱乐性毒品使用的研究提出了如何平衡公共健康研究与隐私的明显担忧,因为Twitter存在于公共空间。

考虑到人工智能算法的“黑匣子”性质,真正的知情同意也是一个伦理问题。来自CU Anschutz的DeCamp澄清说:“黑箱,意味着算法的工作方式不仅是未知的,而且原则上可能是不可知的。”

只是因为我们可以,不是吗?

马特·迪坎普表示,作为一名伦理学家,人工智能提出了重大问题。“首先,人工智能的适当用途是什么?仅仅因为我们可以,就意味着我们应该这样做吗?例如,人们对开发机器人护理人员很感兴趣。我们应该吗?电脑生成的诗歌会是‘真正的’诗歌吗?”患者可能担心,在一个有时已经显得没有人格化的系统中,医疗保健会进一步去个性化。

人工智能的持久影响甚至更加不确定。人工智能会改变我们彼此思考或行动的方式吗?DeCamp强调了社会学家的研究雪莉·特克博士麻省理工学院的一项研究证实了这种可能性。在总结特克尔的研究时,德坎普说:“计算机不仅改变了我们的行为,还改变了我们的思维。”

特邀撰稿人:肖娜·马修斯,加州大学安舒茨博士后

主题:创新

Baidu
map