Page 50 - 南京医科大学学报社科学版
P. 50
南京医科大学学报(社会科学版)京医科大学学报(社会科学版) 第5期 总第112期
南
· 468 · Journal of Nanjing Medical University(Social Sciences)of Nanjing Medical University(Social Sciences) 2022年10月
Journal
关伦理问题。临床医师选择通过“科普文章”了 (三)识别重点人群,开展人工智能医学应用伦
解人工智能医学应用伦理问题的比例(72.0%)显 理知识的系统化培训
著高于非临床医师(54.7%)。这表明自学是医务 调查中 33.0%的医务人员对人工智能医学应用
人员获取人工智能医学应用伦理问题的重要方 中的伦理问题完全不了解,表明人工智能医学应用
式,临床医师比非临床医师了解伦理问题的渠道 伦理问题在医务人员中知晓度一般。这与我国医
更多。推进人工智能医学应用的健康发展,要充 疗人工智能应用处于发展阶段、不同类别医疗机构
分利用互联网平台、继续教育机构、新闻媒体、科 间应用水平分布不均、医学伦理教育没有常规系统
普读物等渠道,科学普及人工智能医学应用的场 地开展以及人工智能医学应用的伦理知识宣传不
景和知识,加强对人工智能在医学领域应用的利 到位有关。其中,专业年限为 5 年以下或 15 年以
弊、风险及其伦理问题的宣教,提高患者、医务人 上,职称为初、中级和副高级,对人工智能医学应用
员以及社会公众对人工智能医学应用及其伦理 了解程度较低的医务人员,其对人工智能医学应用
问题的认知水平。 伦理问题的了解程度更低。
(二)医务人员伦理意识、素养和行为能力的提 在专业年限方面,专业年限为 5~10 年和>10~
升与人工智能医学应用中伦理问题与风险的防范 15 年的医务人员了解人工智能医学应用中伦理问题
密切相关 的可能性分别是专业年限5年以下医务人员的8.551
医疗人工智能有助于提高生产力,但也具有 倍和 13.136 倍,且差异具有统计学意义(P<0.05),而
隐患,从人工智能医学应用的发展现状看,安全性 专业年限 15 年以上的医务人员与专业年限 5 年以
风险概率高且后果严重 [8] 。本调查中 76.1%的医 下者的差异无统计学意义。这表明专业年限在 5~
务人员认为“安全风险”是人工智能医学应用中的 15 年的医务人员,是承担临床和创新工作的主力,
伦理问题。医疗人工智能的“安全风险”包括对生 有更多的需求和机会接触包括人工智能医疗应用
[9]
命健康的直接威胁、决策失误以及信息安全风险 , 在内的新技术新项目,而其对人工智能医疗应用
而生命健康是患者和医务人员最为重视的。此 的接受度、主动性相对较高,对人工智能医疗应用
外,近半数参与调查的医务人员认为“隐私保护” 的优点与不足更加了解,且对其应用存在的伦理问
“法律责任”和“价值冲突”是人工智能医学应用中 题具有一定识别、预警和防控能力。专业年限 5 年
的伦理问题。由此可知,医务人员认为人工智能 以下的医务人员更注重临床基本理论、基本知识、
在医学应用中的伦理问题种类繁多且存在广泛。 基本技能的学习,主要承担基础性工作,对人工智
值得注意的是,临床医师中认为“隐私保护”是医 能医疗应用前沿技术领域的了解和接触可能相对
疗人工智能在实际应用中存在伦理问题的比例 较少;而专业年限 15 年以上的医务人员倾向于保守
(73.1%)显著高于非临床医师(62.3%)。临床医师 和传统的临床医疗方式,对于人工智能医疗应用缺
应用人工智能诊疗机会更大,其直接面对患者,采 乏积极性且持谨慎态度。
集和使用患者信息,对患者隐私保护需求和隐私 在职称方面,职称为初级、中级、副高级和正高
暴露风险理解更为深刻。本调查中仅 24.8%的医 级的医务人员了解人工智能医学应用伦理问题的
务人员认为“算法歧视”是人工智能的伦理问题, 可 能 性 分 别 是 无 职 称 医 务 人 员 的 0.118、0.119、
表明医疗人工智能“算法歧视”问题在被调查人群 0.054、0.070 倍。这表明医务人员职称高低与人工
中关注不多,尽管公平性是国内外涉及人的医学 智能医学应用伦理问题的了解程度没有一致性,研
相关研究的重要伦理原则,如《贝尔蒙报告》提出 究中,高级职称的医务人员对人工智能医学应用的
公正原则是三大基本伦理学原则之一,要求研究 态度可能趋于保守,相比发展中的人工智能技术,
者应公平待人,研究设计方案要使每个参加者承 他们更相信自身的专业知识和临床经验,维护患者
受的风险和受益得以公平地分配。该结果也反映 安全的意识更强,对人工智能医学应用的接受度影
出医疗人工智能算法导致不公平的伦理问题较为 响他们对医疗人工智能在实际应用中存在伦理问
隐匿,容易被医务人员忽略,提示医疗人工智能早 题的认知。缺乏信任会限制医务人员应用医疗人
在算法研发阶段就应有伦理监管介入。医务人员 工智能,而建立公众(患者和医务人员等)对医疗人
应尽可能全面了解医疗人工智能伦理问题产生的 工智能的信任需要重视信任要素(透明度、问责制、
[10-11]
原因和表现形式,才能更好地应对与防范,维护患 利益共享以及明确的数据所有权和数据控制) ,
者权益。据此,医学伦理审查和医务人员伦理培 医务人员充分参与医疗人工智能的设计、开发、评
训应全面考虑医疗人工智能各种伦理问题,提升 估、使用全周期将有助于增进信任。
医务人员伦理意识、素养和行为能力,将伦理风险 在人工智能医学应用的了解程度方面,非常了
防范与化解工作前置。 解和比较了解人工智能医学应用的医务人员,其了