Page 50 - 南京医科大学学报社科学版
P. 50

南京医科大学学报(社会科学版)京医科大学学报(社会科学版)                  第5期 总第112期
                                                  南
             · 468  ·                       Journal of Nanjing Medical University(Social Sciences)of Nanjing Medical University(Social Sciences)  2022年10月
                                            Journal
             关伦理问题。临床医师选择通过“科普文章”了                                 (三)识别重点人群,开展人工智能医学应用伦
             解人工智能医学应用伦理问题的比例(72.0%)显                          理知识的系统化培训
             著高于非临床医师(54.7%)。这表明自学是医务                               调查中 33.0%的医务人员对人工智能医学应用
             人员获取人工智能医学应用伦理问题的重要方                              中的伦理问题完全不了解,表明人工智能医学应用
             式,临床医师比非临床医师了解伦理问题的渠道                             伦理问题在医务人员中知晓度一般。这与我国医
             更多。推进人工智能医学应用的健康发展,要充                             疗人工智能应用处于发展阶段、不同类别医疗机构
             分利用互联网平台、继续教育机构、新闻媒体、科                            间应用水平分布不均、医学伦理教育没有常规系统
             普读物等渠道,科学普及人工智能医学应用的场                             地开展以及人工智能医学应用的伦理知识宣传不
             景和知识,加强对人工智能在医学领域应用的利                             到位有关。其中,专业年限为 5 年以下或 15 年以
             弊、风险及其伦理问题的宣教,提高患者、医务人                            上,职称为初、中级和副高级,对人工智能医学应用
             员以及社会公众对人工智能医学应用及其伦理                              了解程度较低的医务人员,其对人工智能医学应用
             问题的认知水平。                                          伦理问题的了解程度更低。
                 (二)医务人员伦理意识、素养和行为能力的提                              在专业年限方面,专业年限为 5~10 年和>10~
             升与人工智能医学应用中伦理问题与风险的防范                             15 年的医务人员了解人工智能医学应用中伦理问题
             密切相关                                              的可能性分别是专业年限5年以下医务人员的8.551
                 医疗人工智能有助于提高生产力,但也具有                           倍和 13.136 倍,且差异具有统计学意义(P<0.05),而
             隐患,从人工智能医学应用的发展现状看,安全性                            专业年限 15 年以上的医务人员与专业年限 5 年以
             风险概率高且后果严重            [8] 。本调查中 76.1%的医           下者的差异无统计学意义。这表明专业年限在 5~
             务人员认为“安全风险”是人工智能医学应用中的                            15 年的医务人员,是承担临床和创新工作的主力,
             伦理问题。医疗人工智能的“安全风险”包括对生                            有更多的需求和机会接触包括人工智能医疗应用
                                                        [9]
             命健康的直接威胁、决策失误以及信息安全风险 ,                           在内的新技术新项目,而其对人工智能医疗应用
             而生命健康是患者和医务人员最为重视的。此                              的接受度、主动性相对较高,对人工智能医疗应用
             外,近半数参与调查的医务人员认为“隐私保护”                            的优点与不足更加了解,且对其应用存在的伦理问
            “法律责任”和“价值冲突”是人工智能医学应用中                            题具有一定识别、预警和防控能力。专业年限 5 年
             的伦理问题。由此可知,医务人员认为人工智能                             以下的医务人员更注重临床基本理论、基本知识、
             在医学应用中的伦理问题种类繁多且存在广泛。                             基本技能的学习,主要承担基础性工作,对人工智
             值得注意的是,临床医师中认为“隐私保护”是医                            能医疗应用前沿技术领域的了解和接触可能相对
             疗人工智能在实际应用中存在伦理问题的比例                              较少;而专业年限 15 年以上的医务人员倾向于保守
            (73.1%)显著高于非临床医师(62.3%)。临床医师                       和传统的临床医疗方式,对于人工智能医疗应用缺
             应用人工智能诊疗机会更大,其直接面对患者,采                            乏积极性且持谨慎态度。
             集和使用患者信息,对患者隐私保护需求和隐私                                  在职称方面,职称为初级、中级、副高级和正高
             暴露风险理解更为深刻。本调查中仅 24.8%的医                          级的医务人员了解人工智能医学应用伦理问题的
             务人员认为“算法歧视”是人工智能的伦理问题,                            可 能 性 分 别 是 无 职 称 医 务 人 员 的 0.118、0.119、
             表明医疗人工智能“算法歧视”问题在被调查人群                            0.054、0.070 倍。这表明医务人员职称高低与人工
             中关注不多,尽管公平性是国内外涉及人的医学                             智能医学应用伦理问题的了解程度没有一致性,研
             相关研究的重要伦理原则,如《贝尔蒙报告》提出                            究中,高级职称的医务人员对人工智能医学应用的
             公正原则是三大基本伦理学原则之一,要求研究                             态度可能趋于保守,相比发展中的人工智能技术,
             者应公平待人,研究设计方案要使每个参加者承                             他们更相信自身的专业知识和临床经验,维护患者
             受的风险和受益得以公平地分配。该结果也反映                             安全的意识更强,对人工智能医学应用的接受度影
             出医疗人工智能算法导致不公平的伦理问题较为                             响他们对医疗人工智能在实际应用中存在伦理问
             隐匿,容易被医务人员忽略,提示医疗人工智能早                            题的认知。缺乏信任会限制医务人员应用医疗人
             在算法研发阶段就应有伦理监管介入。医务人员                             工智能,而建立公众(患者和医务人员等)对医疗人
             应尽可能全面了解医疗人工智能伦理问题产生的                             工智能的信任需要重视信任要素(透明度、问责制、
                                                                                                        [10-11]
             原因和表现形式,才能更好地应对与防范,维护患                            利益共享以及明确的数据所有权和数据控制)                          ,
             者权益。据此,医学伦理审查和医务人员伦理培                             医务人员充分参与医疗人工智能的设计、开发、评
             训应全面考虑医疗人工智能各种伦理问题,提升                             估、使用全周期将有助于增进信任。
             医务人员伦理意识、素养和行为能力,将伦理风险                                 在人工智能医学应用的了解程度方面,非常了
             防范与化解工作前置。                                        解和比较了解人工智能医学应用的医务人员,其了
   45   46   47   48   49   50   51   52   53   54   55