探索人工智能的伦理问题

第十二届CCTSI研究伦理会议

一分钟读

虽然人工智能(AI)在科学中并不是一个新概念,但在过去十年中,临床研究界在这一领域取得了巨大的发展。在第12届年度研究伦理会议上,研究人员、机构审查委员会(IRB)成员和伦理学家齐聚一堂,并通过Zoom讨论人工智能在研究中的日益扩大的作用。

11月10日的活动被命名为人工智能研究的现实世界伦理:管理问题,它是由生物伦理与人文中心科罗拉多临床与转化科学研究所(CCTSI).Matthew DeCamp,医学博士,CCTSI研究伦理主任,首次策划了今年的会议。

“会议的一个关键主题是,研究人员、IRB成员和其他人需要学会识别远远超出数据集的偏见和公平问题,”迪坎普博士说。“虽然数据集很重要,但我们需要明白,有偏见的数据集反映了医疗保健中围绕种族、信任和权力的更广泛的社会问题。”

斯坦福大学生物医学伦理学中心助理教授、法学博士妮可·马丁内斯-马丁发表了主题演讲,数据主体:公平与包容.观众们在随后的讨论中高度参与,探讨了如何将不同的人群纳入数据集,以及数据背后的人的道德义务。妮可·马丁内斯-马丁博士说:“有必要确保包括更多来自不同人群的人,这在这个领域非常重要,在数据集或招募和建立数据集中,确保有足够的不同人群。”

迪坎普说:“马丁内斯-马丁博士拥有法律和社会科学背景,致力于提高边缘人群的声音,是强调人工智能研究中隐私、同意和偏见(以及其他)问题的完美选择。”

与会者还听取了四个简短的报告,并参加了问答和讨论。Jaysharee kalpthy - cramer博士发言评估和管理医学影像中的公平性和偏倚,其中涵盖了人工智能如何提供人类无法完成的工具,例如在放射学等特定任务中。Antonio R. Porras博士讨论使用儿童颅面成像筛查遗传和发育异常.公共卫生硕士Matt Andazola介绍医疗保健中的会话代理(“聊天机器人”):它们应该走多远?最后,医学博士Michael Rosenberg做了一个关于机器学习中的可解释性与准确性

尽管FDA和其他机构有一天可能会在更大程度上监管人工智能,但研究人员和IRB成员有责任确保今天的人工智能研究符合道德标准。在整个会议中,讨论集中在人工智能的偏见和公平性,确保这一领域的安全和隐私。

“展望未来,有必要确保使用和共享数据的隐私得到保护。这并不意味着仅仅告诉人们风险——这就是同意的意义所在——还意味着积极采取措施保护隐私,”DeCamp说。

CCTSI有一个研究道德谘询服务科罗拉多大学安舒茨医学院及其临床分支机构的所有生物医学和行为研究人员都可以使用。如需更多信息,请联系ResearchEthics@ucdenver.edu

主题:研究

Baidu
map