人工智能(Artificial Intelligence,简称AI)作为新一轮产业变革的核心驱动力,已上升为国家战略,并在医疗、工业机器人及教育、金融、互联网服务等领域得到越来越多的应用。AI 在医疗领域的应用主要包括辅助诊断、辅助手术、临床辅助决策、患者信息管理等,对应的AI 医疗器械产品主要包括独立的医疗软件、AI 赋能医疗设备、医疗信息化系统等。
随着以深度学习为代表的AI 技术的不断发展,我们需要思考AI 医疗器械在发展与使用中面临的伦理问题,充分认识AI 医疗器械在数据获取、隐私保护等方面给人们带来的影响。
AI 领域伦理准则现状
目前,国内外主要达成了两个影响较广泛的AI 伦理共识——“阿西洛马人工智能原则”(Asilomar AI Principles)、电气和电子工程师协会(IEEE)倡议的AI 设计的伦理准则。
“阿西洛马人工智能原则”是在2017 年于美国加州阿西洛马举行的Beneficial AI 会议上被提出的,它是阿西莫夫机器人学三定律的扩展版本,可被理解为:AI 不能单纯地为了利益而创造,而应在确保人类不被替代的前提下,为通过自动化实现人类繁荣而创造。保持一种尊重隐私但开放、合作的AI 研究文化也是需要考虑的问题之一,需确保研究人员和政策制定者在交换信息的同时,不会用危害人类的手段与对手竞争。
IEEE 于2016 年提出“关于自主与智能系统伦理的全球倡议”,并于当年12 月和2017 年12 月先后发布了第一版和第二版《人工智能设计的伦理准则》白皮书(Ethically AlignedDesign)。该白皮书提出5 个核心原则:人权——确保AI 不侵犯国际公认的人权;福祉——在AI的设计和使用中优先考虑人类福祉的相关指标;问责——确保AI 的设计者和操作者负责任且可问责;透明——确保AI 以透明的方式运行;慎用——将滥用的风险降至最低。该准则的发布旨在为IEEE 正在推动的11 个与AI 伦理相关的标准的制定提供建议。
我国已将AI 上升为国家战略,并在法律和政策层面进行深入布局。2017 年7 月,国务院印发《新一代人工智能发展规划》,在“战略目标”部分对法律政策体系建设提出三步走的要求:第一步,到2020 年,部分领域的人工智能伦理规范和政策法规初步建立;第二步,到2025 年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;第三步,到2030 年,建成更加完善的人工智能法律法规、伦理规范和政策体系。2018 年1 月,国家人工智能标准化总体组成立,同时,《人工智能标准化白皮书(2018 版)》发布。今年4 月,国家人工智能标准化总体组第二次全体会议召开,会上发布了《人工智能伦理风险分析报告》。
医疗领域AI 的伦理风险
当前,AI 在医疗器械领域的应用主要体现在医学影像AI 技术、AI 技术赋能硬件上,如目前大量涌现的“智能读片”类AI 医疗软件。这种软件能够通过深度学习,在具有代表性的医学影像数据库中进行模型训练,并利用模型来解析图像、文本、声音,从而实现对病症的早期筛查。AI 技术赋能硬件通常内嵌于各类医学影像设备中,在设备前期拍摄及后期图像处理过程中实现图像分割、分类、映射、配准等功能。
对于医疗领域AI 存在的伦理风险所带来的影响,应从社会、个人数据保护、AI 算法和医学伦理四方面进行考虑。
对社会的影响
现阶段,医疗AI 伦理的标准化工作仍处于起步阶段,行业内尚未对医疗AI 的内涵、应用模式等达成共识,行业竞争可能造成AI 技术在医疗领域中的滥用。这会造成资源的浪费,目前,绝大多数AI 辅助诊疗结果仍需医生确认,此种AI 产品是否具有临床意义有待商榷。另外,随着科技发展,传统诊疗方法逐步向高科技辅助诊疗转变,此类辅助诊疗产品往往集中在科技发达、经济水平较高的国家和地区,这将进一步加剧不同国家和地区间医疗资源和水平的不平衡。如何让每个国家和地区都能受益于AI 带来的“福祉”,是需要思考的问题。
个人数据保护风险
以“深度学习+ 大数据”为框架的医学AI系统需要大量数据来训练、学习算法。目前,AI产品的训练样本主要来自医院患者的各类医学影像数据,少部分来自人类行为信息的数字化记录。医学影像数据、患者行为信息涉及患者隐私保护问题。信息使用者在获取相应数据时,必须抹去患者个人敏感信息,只保留相关的医学信息。关于敏感信息的定义、识别和处理,目前国内尚无明确的标准,主要依赖于企业自觉。当前可供企业参考的数据隐私保护准则有欧盟于2018 年5 月发布的《通用数据保护条例》(GDPR)、美国国会于1996 年颁布的《健康保险可携性与责任法案》(HIPAA)。
算法风险
对深度学习算法来说,在其应用阶段也存在诸多风险。一是安全性风险,算法存在泄漏、参数被非预期修改的风险。现阶段的深度学习算法是典型的“黑箱”算法,当其被修改时,算法性能的降低或错误的发生很难被察觉。医疗领域与人身安全息息相关,这一风险的发生会直接侵害患者的人身权益。二是算法偏见风险,鉴于算法的复杂性和专业性,关于AI 算法输入的某些特性如何引起某个特定输出结果的发生,很难解释清楚。算法偏见可能是由程序员的主观认知偏差造成,也可能是因输入数据的分布本身即不具有整体代表性所导致。并且,如果算法在临床应用中通过本地数据进行无监督学习,则有加重偏见的风险。
医学伦理风险
对医学AI 产品的伦理思考应纳入医学伦理范畴,考虑如何进行患者隐私及数据的保护,这也是医疗类AI 产品与一般AI 产品在伦理问题方面的最大区别。
在我国,获取医学临床数据、进行临床试验须获得医学伦理审批,负责伦理审查的组织——伦理委员会肩负医学研究伦理审查、受试者权益保护、人的尊严维护等重要职责。2017 年10 月,中办、国办印发《关于深化审评审批制度改革鼓励药品医疗器械创新的意见》,提出完善伦理委员会机制,各地可根据需要设立区域伦理委员会,指导临床试验机构伦理审查工作。
AI 医疗器械应遵循的伦理方向
推动医学AI 伦理标准化
从促进行业发展的角度看,开放、共享的高质量医学数据集是未来的发展趋势,但数据获取的来源、数据标注的规范格式等尚无统一标准,这使得高质量的数据集难以在各个AI 产品开发者间实现互通。只有在相应规则确定后,AI 医疗器械产业才能获得高速发展。
数据完整性与医学伦理的平衡
在满足医学伦理保护隐私及数据这一要求的同时,医疗类AI 产品为获得高质量数据集,应尽可能保留更多的信息(如患者既往病史等),以便用于分析、处理,并避免在进行数据收集时纳入偏见、非典型甚至错误的信息。同时,医疗类AI 产品在数据收集、标注过程中必须保证数据的完整性,以使AI 产品是可解释、可信任的。如何最大限度地保留信息,并避免通过信息追溯到个人,是医疗类AI 产品开发中应遵循的伦理方向之一。
在AI 与伦理准则领域进行深入探索,并围绕其建立相关标准,形成医疗健康AI 的标准生态,关系到医疗AI 的未来发展动向。AI 产业能否取得公众信任并获得持续性发展,关键在于能否建立共识性的伦理准则。我们需在保持数据较高完整度的同时,做好患者隐私保护,并在符合现有伦理准则的前提下,将来自于不同渠道的数据用于机器学习,促进AI 医疗器械产业的进一步发展。
声明:本网站所收集的部分公开资料来源于互联网,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。如果您发现网站上所用视频、图片、文字如涉及作品版权问题,请第一时间告知,我们将根据您提供的证明材料确认版权并按国家标准支付稿酬或立即删除内容,以保证您的权益!联系电话:010-58612588 或 Email:editor@mmsonline.com.cn。
- 暂无反馈