en
×

分享给微信好友或者朋友圈

使用微信“扫一扫”功能。
作者简介:

赵丹娜(1980—),女,安徽合肥人,硕士研究生在读,副研究员,研究方向为医院管理;

鲁超(1969—),男,安徽颍上人,研究员,副教授,研究方向为医院管理,通信作者,765385306@qq.com。

中图分类号:R192

文献标识码:A

文章编号:1671-0479(2022)05-465-006

DOI:10.7655/NYDXBSS20220507

参考文献 1
王卓群,赵文华.我国慢性病防控工作回顾与展望[J].中华疾病控制杂志,2019,23(9):1025-1028,1036
参考文献 2
国务院.国务院关于印发新一代人工智能发展规划的通知[EB/OL].[2022-4-23].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm
参考文献 3
周琬琳.人工智能医学应用的分类与伦理问题反思 [J].中国医学伦理学,2020,33(7):826-830
参考文献 4
余艳琴,徐慧芳,郝金奇,等.医学人工智能引发的相关伦理问题分析[J].中国医学科学院学报,2020,42(1):128-131
参考文献 5
肖志敏,沈兴蓉,刘荣,等.我国医学人工智能的应用现状及伦理问题反思[J].卫生软科学,2021,35(7):87-89
参考文献 6
中国电子信息产业发展研究院人工智能产业创新联盟.《人工智能创新发展道德伦理宣言》全文[J].人工智能,2019(4):130-132
参考文献 7
张青,杨卫敏,徐一峰.医学人工智能应用若干问题的哲学思考[J].医学与哲学,2020,41(5):1-4,30
参考文献 8
王姗姗,翟晓梅.人工智能医学应用的伦理问题[J].中国医学伦理学,2019,32(8):972-976
参考文献 9
王玥,戴海洋.医疗AI安全风险的伦理与法律保障机制研究[J].工程研究(跨学科视野中的工程),2020,12(3):241-251
参考文献 10
MORLEY J,MURPHY L,MISHRA A,et al.Governing data and artificial intelligence for health care:develop⁃ ing an international understanding[J].JMIR Form Res,2022,6(1):e31623
参考文献 11
VAYENA E,HAEUSERMANN T,ADJEKUM A,et al.Digital health:meeting the ethical and policy challenges [J].Swiss Med Wkly,2018,148:w14571
参考文献 12
WHO.Ethics and governance of artificial intelligence for health[R].Geneva:WHO,2021
目录contents

    摘要

    为了解公立医院医务人员对人工智能医学应用中伦理问题的认知差异及其影响因素,提升医务人员的伦理认知和伦理决策能力,文章采用方便抽样方法,用自行设计的问卷对安徽省某三级公立医院813名医务人员进行问卷调查。结果显示,医务人员了解人工智能医学应用中伦理问题的渠道分散,主要通过新闻资讯和科普文章;医务人员认为安全风险和隐私保护是人工智能医学应用中最主要的伦理问题,分别占76.1%和64.9%;医务人员的专业年限、职称和对人工智能医学应用的了解程度与其对人工智能医疗应用中伦理问题的认知有关(P <0.05)。大多数医务人员对人工智能医学应用及其带来的伦理问题了解程度不高,认知缺乏系统性。应加强医务人员对人工智能医学应用中伦理知识的教育和培训,采取有效措施提升医务人员人工智能医学应用的伦理认知水平,规范开发医疗人工智能技术的算法,健全医疗人工智能的伦理监管体系,推动相关立法,保障医疗人工智能健康发展。

    Abstract

    To understand the difference in the perceptions of ethical issues in the medical application of artificial intelligence(AI)among medical personnel in public hospitals as well as its influencing factors and provide suggestions for improving the medical personnel’s ethical cognition and ethical decision-making ability in the application of artificial intelligence in the medical field in public hospitals,a total of 813 medical personnel participated with a self - designed questionnaire by convenient sampling method in a tertiary public hospital in Anhui Province. The channels for medical personnel to understand the ethical problems in the medical application of AI were diversified,mainly through news and popular scientific articles. Medical personnel believed that security risk and privacy protection were the most critical ethical issues in the medical applications of AI, accounting for a high proportion of 76.1% and 64.9%,respectively. Their length of medical service,professional titles,and knowledge of AI medical applications were related to their perception of ethical problems in AI medical application(P <0.05). Most medical personnel have a low level of understanding of the application of AI in medicine and its ethical problems,with a lack of systematic cognition. We suggest strengthening the education and training of medical personnel on the ethical knowledge in AI medical application;taking effective measures to improve the ethical awareness and the ability of medical personnel in the medical application of AI; standardizing the development of the algorithm of medical AI technology;improving the ethical supervision system of medical AI,and promoting relevant legislation to promote the reliable development of medical artificial intelligence.

  • 随着工业化、城镇化、人口老龄化进程加快,居民生产生活方式和疾病谱不断变化,公众对于精准高效的医疗卫生和健康服务的需求更加迫切[1]。在我国推进健康中国建设进程中,人工智能技术因能有效提升医疗服务能力、效率和质量,在医学领域的应用得到快速发展,也为改善医疗供给带来新的契机。2017年国务院印发《新一代人工智能发展规划》,将医疗列为首批人工智能应用的重点领域,要求推广应用人工智能治疗的新模式新手段,建立快速精准的智能医疗体系[2]。然而医疗人工智能技术与生态发展的不成熟衍生出一系列伦理问题与风险,如隐私保护、数据安全性风险、人工智能滥用以及偏倚与歧视等[3-5]。医疗人工智能获取的用户信息可能未经授权擅自用于他途,侵犯用户知情权与隐私权;医疗人工智能的数据安全漏洞带来用户信息外泄和网络攻击风险;医疗人工智能滥用,既包括医务人员的不规范使用,也包括公众的盲目使用,例如医疗人工智能程序在网络广泛出现,其服务条款包含免责声明,但公众未必阅读和理解,依赖其提供的不成熟技术服务,可能会对健康决策产生负面影响;医疗人工智能引发偏见的风险,表现为在不均衡的大数据集上训练的人工智能机器学习模型可能嵌入甚至放大造成医疗不平等的系统性偏差;人工智能算法复杂且缺乏透明度也将影响医疗人工智能开发和应用的可控性和可信度。 2018年机器人和人工智能大会发布《人工智能创新发展道德伦理宣言》,对人工智能研发和使用提出伦理道德要求,同时指出人工智能发展在深度与广度上难以预测[6]。这种困难不仅是技术层面上发展的不确定性,更是生命支持及医疗应用场景中的不确定性[7]。鉴于此,医疗人工智能伦理问题与风险的研究和治理策略已经成为保护患者安全,提升医疗人工智能应用信任水平乃至推动其发展的重要保障和支持。

  • 目前,我国人工智能的伦理研究和治理尚处于起步阶段,基础理论相对薄弱,完备的医疗人工智能伦理治理体系亟待构建。在人工智能医学应用领域,医务人员是非常关键的角色,医务人员过度依赖或排斥医疗人工智能都不利于其良性发展,医务人员对医疗人工智能潜在风险和伦理问题的认知水平,以及识别、评估、应对、防范能力将极大影响人工智能医学应用的成效。因此,在医疗人工智能伦理治理和规范伦理审查的过程中,开展医务人员对医疗人工智能伦理认知方面的研究是首要任务。本研究针对安徽省某三级公立医院医务人员对人工智能伦理问题的认知现状开展调查,并对影响其认知程度的因素进行分析,为系统化提升医务人员对人工智能医学应用的伦理认知和伦理决策能力提出针对性建议,为促进医疗人工智能健康发展提供一定的循证依据。

  • 一、 对象和方法

  • (一) 对象

  • 本研究以安徽省宿州市某三级公立医院医务人员为调查对象,采用方便抽样法,于2021年5月通过网络问卷对医务人员进行现况调查。调查员将网络问卷以两种形式(问卷星的网页链接和二维码)发放给医院的医务人员进行作答,共回收问卷813份,其中有效问卷813份,问卷有效率为100%。问卷坚持匿名和自愿原则,相同的IP地址仅能提交一次。

  • (二) 研究方法

  • 本研究在梳理文献和咨询专家的基础上,结合研究目的初步设计出调查问卷,在专家指导下对调查内容进行调整和完善,并邀请专家对问卷内容进行效度论证,最终确定调查问卷。问卷内容包括: ①医务人员的个人信息,包含性别、专业年限、学历、职称以及岗位等;②对人工智能医学应用的了解程度;③对人工智能医学应用中伦理问题的了解渠道和认知情况。

  • (三) 统计学方法

  • 将问卷星收集的原始数据导入SPSS22.0软件进行数据分析。①描述性分析:医务人员一般人口学特征,医务人员对人工智能医学应用的了解程度,医务人员对人工智能医学应用伦理问题的了解程度;分类资料采用例数(构成比)表示。②卡方检验分析:医务人员了解人工智能医学应用伦理问题渠道的差异分析;医务人员对人工智能医学应用中伦理问题认知的差异分析。③二元Logistic回归分析:医务人员对人工智能医学应用中“伦理问题”认知层面差异的影响因素分析。P<0.05为差异有统计学意义。

  • 二、 结果

  • (一) 基本特征和主要研究变量分布

  • 在813名调查对象中,女性占82.5%,男性占17.5%;本科学历占比为78.6%,专科占15.2%,硕士及以上占6.2%;职称为无、初级、中级、副高级和正高级占比分别为6.5%、41.2%、43.3%、7.0%及2.0%;临床人员占24.7%,非临床人员占75.3%(表1)。

  • 表1 医务人员的基本特征及主要研究变量分布情况

  • (二) 知识了解渠道

  • 调查显示,医务人员了解人工智能医学应用中伦理问题的渠道较为分散,73.8%的人选择“新闻资讯”,59.3%的人选择“科普文章”,40.9%的人选择“身边同事告知”,10.1%的人选择“亲身经历”。医务人员中临床医师选择“科普文章”的比例显著高于非临床医师(72.0%vs.54.7%,P< 0.001)。除此以外,临床医师和非临床医师了解人工智能医学应用中伦理问题的渠道差异没有统计学意义(表2)。

  • 表2 医务人员了解人工智能医学应用中伦理问题的渠道

  • (三) 人工智能医学应用中的伦理问题

  • 调查显示,医务人员认为人工智能医学应用中的伦理问题有“安全风险”(76.1%)、“隐私保护” (64.9%)、“法律责任”(58.5%)、“价值冲突”(47.8%)、 “人工智能权利”(38.5%)、“算法歧视”(24.8%)、“其他”(6.0%)。医务人员中临床医师认为“隐私保护” 是人工智能医学应用中伦理问题的比例显著高于非临床医师(73.1%vs.62.3%,P=0.005,表3)。

  • 表3 医务人员对于人工智能医学应用中伦理问题的认知

  • (四) 医务人员了解人工智能医学应用伦理问题的影响因素

  • 采用二元Logistic回归分析医务人员对人工智能医学应用伦理问题的认知层面差异。以医务人员对人工智能医学应用中“伦理问题”的了解程度为因变量,根据医务人员对题目“您对人工智能医学应用中伦理问题的了解程度”的作答情况,将选项分为“了解”(合并选项“非常了解”和“比较了解”,取值为1)和“不了解”(合并选项“完全不了解” 和“不太了解”,取值为0)。自变量为医务人员的基本信息及医务人员对人工智能医学应用的了解程度。回归结果显示,医务人员专业年限、职称、对人工智能医学应用的了解程度3个因素与医务人员对人工智能医学应用伦理问题的了解程度差异具有统计学意义(P<0.05,表4)。

  • 三、 讨论与建议

  • (一) 医务人员了解人工智能医学应用伦理问题渠道分散

  • 调查显示,医务人员了解人工智能医学应用伦理问题的途径较为分散,73.8%的医务人员通过“新闻资讯”、59.3%通过“科普文章”来了解相关伦理问题。临床医师选择通过“科普文章”了解人工智能医学应用伦理问题的比例(72.0%)显著高于非临床医师(54.7%)。这表明自学是医务人员获取人工智能医学应用伦理问题的重要方式,临床医师比非临床医师了解伦理问题的渠道更多。推进人工智能医学应用的健康发展,要充分利用互联网平台、继续教育机构、新闻媒体、科普读物等渠道,科学普及人工智能医学应用的场景和知识,加强对人工智能在医学领域应用的利弊、风险及其伦理问题的宣教,提高患者、医务人员以及社会公众对人工智能医学应用及其伦理问题的认知水平。

  • 表4 医务人员了解人工智能医学应用伦理问题的影响因素

  • (二) 医务人员伦理意识、素养和行为能力的提升与人工智能医学应用中伦理问题与风险的防范密切相关

  • 医疗人工智能有助于提高生产力,但也具有隐患,从人工智能医学应用的发展现状看,安全性风险概率高且后果严重[8]。本调查中76.1%的医务人员认为“安全风险”是人工智能医学应用中的伦理问题。医疗人工智能的“安全风险”包括对生命健康的直接威胁、决策失误以及信息安全风险[9],而生命健康是患者和医务人员最为重视的。此外,近半数参与调查的医务人员认为“隐私保护” “法律责任”和“价值冲突”是人工智能医学应用中的伦理问题。由此可知,医务人员认为人工智能在医学应用中的伦理问题种类繁多且存在广泛。值得注意的是,临床医师中认为“隐私保护”是医疗人工智能在实际应用中存在伦理问题的比例 (73.1%)显著高于非临床医师(62.3%)。临床医师应用人工智能诊疗机会更大,其直接面对患者,采集和使用患者信息,对患者隐私保护需求和隐私暴露风险理解更为深刻。本调查中仅24.8%的医务人员认为“算法歧视”是人工智能的伦理问题,表明医疗人工智能“算法歧视”问题在被调查人群中关注不多,尽管公平性是国内外涉及人的医学相关研究的重要伦理原则,如《贝尔蒙报告》提出公正原则是三大基本伦理学原则之一,要求研究者应公平待人,研究设计方案要使每个参加者承受的风险和受益得以公平地分配。该结果也反映出医疗人工智能算法导致不公平的伦理问题较为隐匿,容易被医务人员忽略,提示医疗人工智能早在算法研发阶段就应有伦理监管介入。医务人员应尽可能全面了解医疗人工智能伦理问题产生的原因和表现形式,才能更好地应对与防范,维护患者权益。据此,医学伦理审查和医务人员伦理培训应全面考虑医疗人工智能各种伦理问题,提升医务人员伦理意识、素养和行为能力,将伦理风险防范与化解工作前置。

  • (三) 识别重点人群,开展人工智能医学应用伦理知识的系统化培训

  • 调查中33.0%的医务人员对人工智能医学应用中的伦理问题完全不了解,表明人工智能医学应用伦理问题在医务人员中知晓度一般。这与我国医疗人工智能应用处于发展阶段、不同类别医疗机构间应用水平分布不均、医学伦理教育没有常规系统地开展以及人工智能医学应用的伦理知识宣传不到位有关。其中,专业年限为5年以下或15年以上,职称为初、中级和副高级,对人工智能医学应用了解程度较低的医务人员,其对人工智能医学应用伦理问题的了解程度更低。

  • 在专业年限方面,专业年限为5~10年和>10~15年的医务人员了解人工智能医学应用中伦理问题的可能性分别是专业年限5年以下医务人员的8.551倍和13.136倍,且差异具有统计学意义(P<0.05),而专业年限15年以上的医务人员与专业年限5年以下者的差异无统计学意义。这表明专业年限在5~15年的医务人员,是承担临床和创新工作的主力,有更多的需求和机会接触包括人工智能医疗应用在内的新技术新项目,而其对人工智能医疗应用的接受度、主动性相对较高,对人工智能医疗应用的优点与不足更加了解,且对其应用存在的伦理问题具有一定识别、预警和防控能力。专业年限5年以下的医务人员更注重临床基本理论、基本知识、基本技能的学习,主要承担基础性工作,对人工智能医疗应用前沿技术领域的了解和接触可能相对较少;而专业年限15年以上的医务人员倾向于保守和传统的临床医疗方式,对于人工智能医疗应用缺乏积极性且持谨慎态度。

  • 在职称方面,职称为初级、中级、副高级和正高级的医务人员了解人工智能医学应用伦理问题的可能性分别是无职称医务人员的0.118、0.119、 0.054、0.070倍。这表明医务人员职称高低与人工智能医学应用伦理问题的了解程度没有一致性,研究中,高级职称的医务人员对人工智能医学应用的态度可能趋于保守,相比发展中的人工智能技术,他们更相信自身的专业知识和临床经验,维护患者安全的意识更强,对人工智能医学应用的接受度影响他们对医疗人工智能在实际应用中存在伦理问题的认知。缺乏信任会限制医务人员应用医疗人工智能,而建立公众(患者和医务人员等)对医疗人工智能的信任需要重视信任要素(透明度、问责制、利益共享以及明确的数据所有权和数据控制)[10-11],医务人员充分参与医疗人工智能的设计、开发、评估、使用全周期将有助于增进信任。

  • 在人工智能医学应用的了解程度方面,非常了解和比较了解人工智能医学应用的医务人员,其了解人工智能医学应用中伦理问题的可能性分别是不了解者的719.658倍、74.805倍。医务人员对人工智能医学应用的了解程度越高,会越了解人工智能医学应用中的伦理问题,说明在医务人员适应使用人工智能之前,丰富其人工智能医学应用的基础知识,提升其数字素养,有助于提升医务人员人工智能医学应用的伦理认知。正如世界卫生组织 (WHO)2021年发布的《卫生健康领域人工智能伦理与治理指南》中提到的,医疗领域的工作人员在适应使用人工智能之前需要有一定的数字素养,医务人员应用医疗人工智能需要更好地理解人工智能基础、健康数据和数学科学等[12]

  • (四) 人工智能医学应用伦理风险管理需要利益相关方形成合力

  • 医疗人工智能应用中的复杂伦理风险管理,有赖利益相关方共同努力。医院要加强对患者隐私信息的保护,提高医务人员保护患者隐私信息的意识;医务人员要规范诊疗行为,在合理使用医疗人工智能的同时,不断增强自身的医学知识技能,不过度依赖或滥用医疗人工智能;医院伦理审查机构要将医疗人工智能应用纳入专门的伦理审查范围,加大伦理审查力度,规范伦理审查流程;医疗人工智能企业要提升系统安全性能,规范商业行为,防止数据泄露或遭受网络攻击而损坏;医疗人工智能研发的设计和试用阶段要征集医务人员、患者、公众、卫生机构、信息部门等多方参与,听取各方需求,重点降低安全风险;医疗人工智能算法开发科学透明,训练数据充足而均衡,公平覆盖不同特征人群;国家对于人工智能的投入应该有助于建立有效的医疗保健系统,避免医疗资源不公平提供和获得医疗服务保健服务偏见;立法机构加快健全医疗人工智能法律规章制度,明晰相关责任归属。上述各方形成合力,共同构建强大的伦理监管体系,解决医务人员、患者、管理者的后顾之忧,推动医疗人工智能健康发展。

  • 在人工智能飞速发展且高度切入医学领域的当下,伴随而来的伦理问题日益复杂和突出,但针对医疗人工智能实际应用中医务人员开展的伦理认知研究仍显不足。本研究发现安徽省某三级公立医院医务人员对人工智能医学应用的了解程度和对伦理问题的认知水平仍然偏低,且受到职称、专业、工作年限等因素的影响,同时发现医务人员关切的具体伦理问题,以及面向医务人员的人工智能伦理培训相对薄弱。本研究针对医务人员在人工智能医学应用中伦理问题方面的认知及其影响因素的探讨,为相关研究提供了借鉴,但由于本研究通过线上问卷调查,结果受到调查对象实践经验和主观意愿等因素的影响,同时也与医疗人工智能的应用水平有关,可能仅部分代表安徽省三级公立医院医务人员对人工智能医学应用及其伦理问题的认知现状。

  • 建议各医院加强对医务人员人工智能医学应用及其伦理知识层面的伦理教育和专项培训,系统而持续的教育和培训有助于增强医务人员的伦理意识,启发医务人员对医疗人工智能衍生伦理问题的思考,在应用环节主动收集、防范、识别,应对医疗人工智能伦理问题带来的次生风险和危害,提升其伦理决策能力。伦理培训课程要注意随着医疗人工智能的发展而及时更新,医学教育需要注重培育医学生的沟通能力、熟练使用计算机的能力以及解决伦理困境的能力[12]

  • 参考文献

    • [1] 王卓群,赵文华.我国慢性病防控工作回顾与展望[J].中华疾病控制杂志,2019,23(9):1025-1028,1036

    • [2] 国务院.国务院关于印发新一代人工智能发展规划的通知[EB/OL].[2022-4-23].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm

    • [3] 周琬琳.人工智能医学应用的分类与伦理问题反思 [J].中国医学伦理学,2020,33(7):826-830

    • [4] 余艳琴,徐慧芳,郝金奇,等.医学人工智能引发的相关伦理问题分析[J].中国医学科学院学报,2020,42(1):128-131

    • [5] 肖志敏,沈兴蓉,刘荣,等.我国医学人工智能的应用现状及伦理问题反思[J].卫生软科学,2021,35(7):87-89

    • [6] 中国电子信息产业发展研究院人工智能产业创新联盟.《人工智能创新发展道德伦理宣言》全文[J].人工智能,2019(4):130-132

    • [7] 张青,杨卫敏,徐一峰.医学人工智能应用若干问题的哲学思考[J].医学与哲学,2020,41(5):1-4,30

    • [8] 王姗姗,翟晓梅.人工智能医学应用的伦理问题[J].中国医学伦理学,2019,32(8):972-976

    • [9] 王玥,戴海洋.医疗AI安全风险的伦理与法律保障机制研究[J].工程研究(跨学科视野中的工程),2020,12(3):241-251

    • [10] MORLEY J,MURPHY L,MISHRA A,et al.Governing data and artificial intelligence for health care:develop⁃ ing an international understanding[J].JMIR Form Res,2022,6(1):e31623

    • [11] VAYENA E,HAEUSERMANN T,ADJEKUM A,et al.Digital health:meeting the ethical and policy challenges [J].Swiss Med Wkly,2018,148:w14571

    • [12] WHO.Ethics and governance of artificial intelligence for health[R].Geneva:WHO,2021

  • 参考文献

    • [1] 王卓群,赵文华.我国慢性病防控工作回顾与展望[J].中华疾病控制杂志,2019,23(9):1025-1028,1036

    • [2] 国务院.国务院关于印发新一代人工智能发展规划的通知[EB/OL].[2022-4-23].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm

    • [3] 周琬琳.人工智能医学应用的分类与伦理问题反思 [J].中国医学伦理学,2020,33(7):826-830

    • [4] 余艳琴,徐慧芳,郝金奇,等.医学人工智能引发的相关伦理问题分析[J].中国医学科学院学报,2020,42(1):128-131

    • [5] 肖志敏,沈兴蓉,刘荣,等.我国医学人工智能的应用现状及伦理问题反思[J].卫生软科学,2021,35(7):87-89

    • [6] 中国电子信息产业发展研究院人工智能产业创新联盟.《人工智能创新发展道德伦理宣言》全文[J].人工智能,2019(4):130-132

    • [7] 张青,杨卫敏,徐一峰.医学人工智能应用若干问题的哲学思考[J].医学与哲学,2020,41(5):1-4,30

    • [8] 王姗姗,翟晓梅.人工智能医学应用的伦理问题[J].中国医学伦理学,2019,32(8):972-976

    • [9] 王玥,戴海洋.医疗AI安全风险的伦理与法律保障机制研究[J].工程研究(跨学科视野中的工程),2020,12(3):241-251

    • [10] MORLEY J,MURPHY L,MISHRA A,et al.Governing data and artificial intelligence for health care:develop⁃ ing an international understanding[J].JMIR Form Res,2022,6(1):e31623

    • [11] VAYENA E,HAEUSERMANN T,ADJEKUM A,et al.Digital health:meeting the ethical and policy challenges [J].Swiss Med Wkly,2018,148:w14571

    • [12] WHO.Ethics and governance of artificial intelligence for health[R].Geneva:WHO,2021