清华医院院长:人工智能不可能代替医生-资讯-知识分子

清华医院院长:人工智能不可能代替医生

2020/01/15
导读
技术首先是服务于人的

中国工程院院士、清华大学临床医学院院长董家鸿。图片:李磊/知识分子


- 编者按 -


人工智能能否代替医生?人工智能发展到今天,这是一个不得不触及的问题。2019年11月22日,在“知识分子”与北京大学健康医疗大数据国家研究院联合主办的“智慧医疗:潜力与挑战”论坛上,中国工程院院士、清华大学临床医学院院长董家鸿指出,“机器人应该是医生的AI,而不是AI医生。”


董家鸿还认为,人工智能的黑箱效应和框架效应是当前医疗人工智能的重要挑战,“如果是个别医生犯错误,受损害的可能只是一个病人。如果人工智能机器人出了错,有可能会损害一批、一类病人。”在没有弄清楚作用机制之前,临床应用需严格限制其使用边界。


关于未来人工智能在医疗领域的图景,董家鸿表示,“人机协同是未来的必然选择”,应对可能的风险和红线,离不开跨领域、跨学科专家的共同合作探讨。


撰文 | 汤佩兰

责编 | 陈晓雪


    


中国工程院院士董家鸿有着三十多年临床经验的肝胆胰外科专家。他也是清华大学临床医学院院长。2019年11月22日,董家鸿在“智慧医疗:潜力与挑战”论坛上,从中国目前的医疗供需现状和技术水平差异出发,对于智慧医疗的应用场景、发展潜力和风险挑战等方面阐述。


以下是《知识分子》根据董家鸿在本次论坛上的访谈整理,已经本人审阅。


01
智慧医疗能解决什么问题?



《知识分子》: 智慧医疗的话题经常被提及和讨论,而且往往与国家“健康中国2030”战略相联系,但智慧医疗的内涵众说纷纭,你是怎么理解的?


董家鸿:智慧医疗的本质和内涵,直到现在应该说还没有一个明晰明确的定义。但只有认识智慧医疗的本质,理解智慧医疗的核心理念,才能更好更快的推动智慧医疗发展。


我的理解,智慧医疗是以信息科技为核心的现代科技赋能于传统健康医疗服务体系,形成最优化的大健康医疗生态体系。同时认为,智慧医疗要以人为本,集成现代智慧科技手段,深度融合健康医疗实践。这个全新的健康照护体系通过全要素、全流程、全链条的系统优化,完成覆盖全人群、全生涯、全维度的全域照护,最终实现优质、高效、经济、可及的价值医疗。


《知识分子》:为什么要提倡发展智慧医疗?它可以解决什么问题?


董家鸿相对于不断增加的社会健康医疗服务需求,中国的医疗资源远远不足。尤其边远和基层地区,医疗资源十分匮乏。医疗资源的配置不均衡及结构不合理,致使医疗供需矛盾仍然十分突出。


智慧医疗有望成为解决当前医疗供需矛盾和资源配置不均衡问题、提高成本效益的一个新的策略。智慧医疗体系分为核心层、主体层和应用层,其核心层提供无处不在的健康医疗服务。主体层包括健康医疗的服务方、药品及医疗器械的提供方和医疗支付和监管方的高效服务和协同运营。而在应用层,结合健康医疗生态体系的价值点,可以演化出丰富多彩的智慧医疗应用场景。三层通过智慧手段来进行系统整合,从而形成闭环式、多方共赢的大健康医疗生态体系。


《知识分子》:智慧医疗的应用场景有哪些?对医疗领域会产生什么样的影响? 


董家鸿从目前出现的应用场景来看,至少包括精准药学(Precision Medicine)、影像诊断、辅助决策、疾病预测、药物挖掘、健康管理、临床研究、医院管理等。相信随着智慧医疗技术进一步的深入,将会持续地激发创新潜能,产生更为丰富的应用场景。


智慧医疗技术融入医疗实践,可以产生显著的 “4E” 效应。第一个E是增强(Enhancement),即增强健康医疗服务能力。第二个E是增效(Efficiency),提升医疗服务的效率和效益。第三个E是体验(Experience),优化医疗服务的体验,增强医疗服务的获得感,这个体验不仅是病人,也包括医生和其他医务工作者的体验。第四个E是延展(Extension),拓展医疗服务的时域、空域和领域。可以通过智慧医疗手段把优质医疗资源无边界地辐射到广大区域,特别是边远地区和基层医疗机构。


《知识分子》:现在中国在智慧医疗方面的发展状况如何?


董家鸿随着近年来中国经济和科技的高速发展,科技转化潜能已十分巨大;同时国家近年来高度重视健康中国以及前沿科技的发展,尤其在智能技术、智慧技术的发展和应用上出台的一系列政策,都为未来中国智慧医疗产业发展提供了重大机遇。这些政策的内容越来越具体,越来越具有可操作性,有助于实现我国与全球智慧医疗同步高速发展。可喜的看到,我国智慧医疗在快速的发展中已经形成了一定的体系,产生了跨越诊前、诊中和诊后,贯穿健康管理、疾病筛查、辅助诊断、精准药学、慢病照护的应用服务和支撑平台。另一方面,我们也不得不看到,当前智慧医疗蓬勃发展的背后也存在着一定程度上盲目跟风的行业乱象。我们应该静下心来,理性地思考智慧医疗发展的方向和发展策略,让智慧医疗的发展回归到医疗的本质,维护、恢复和促进民众健康。以智慧的技术直击健康医疗服务的痛点,助力健康医疗产业的提质增效,并构建全局最优化的健康照护体系。


《知识分子》:你理想中的智慧医疗是什么样的?


董家鸿我认为智慧医疗最好的样子,或者说最优化模式,应该是以大数据、人工智能、物联网、互联网、云计算等核心技术为支撑的并融入真实世界丰富的医疗应用场景,通过 “4E” 的医疗服务效应,构筑精准医疗、精益管理、精诚服务这样一个标准化的医疗体系,最终为全民提供最优化的健康照护。


02
AI的不可解释性是巨大挑战



《知识分子》:智慧医疗发展中有没有出现什么问题或者挑战?


董家鸿当前的医疗人工智能发展确实也面临着诸多的挑战。首当其冲应该是它的不可解释性,也就是黑箱效应。为什么人工智能能够作出准确的判断,很多道理还不清楚。如果没有明晰的原理可解释,那么医生使用起来心里是不踏实的,病人接受起来也有疑虑。所以,破解黑箱效应成为当前人工智能医疗的一个重要挑战。如果一个医生犯了错,受损害的是一个病人。如果人工智能机器人或者算法出了错,将会损害一批、一类病人。因此,医疗人工智能是有一定风险的。


其次,在人工智能研究应用上存在哲学上的悖论,也就是不可再分性。过去的研究是把人体分解为器官、组织、细胞、基因、分子。但反过来,其实从生物大分子到细胞到组织到器官到人体,每一个步骤都是一个从量变到质变的过程,而不能用简单的还原论方法来研究人体结构机能和疾病本质。从复杂的分子网络里认知生命机制和破解疾病本质是有一定的难度的,必须在算法上有所突破,从人体生理和病理状态下的多维全息数据集的系统分析中揭示疾病本质和因果关系,从而更加科学地指导健康医疗实践。


《知识分子》:本次论坛上也有专家认为AI的不可解释性被夸大了,如果把AI比作药物,限定在具体场景下应用,而且证明是安全有效的就可以。你怎么看?


董家鸿的确,医学是经验科学。很多背后的原理机制还没有搞清楚,不能也不必等待原理机制都搞清楚了再去应用。在当前科学条件下,对于不能完全解释的医疗干预方法,包括药品、器材和技术应该是允许使用的,但使用前提是有充分的证据证明它是有效的、有益的和安全的。如果可解释,懂得它的机制则可以举一反三,就可以让它发挥更大的作用。


《知识分子》:你怎么看待人工智能存在的现实风险和不确定性?


董家鸿医学是研究不确定性的科学和可能性的艺术。医学和理工科的思维出发点不同,工科研究的是确定性的事件,研究事物因果关系确定性的规律。


医学和工科的合作,就要从人体这一复杂系统中的不确定性事件当中寻求确定性。某一类人群、某一类疾病里面有共有的确定性东西,但是疾病及疾病的载体,即病人之间有很大的个体差异,这就是不确定性。


所以,我认为人机协同是未来的必然选择。因为健康医疗实践中不确定性总是存在的,机器寻找的是确定性,帮助医生能够更准确地把握其中确定性的东西。但是不确定性是永远存在的,这种不确定性就要靠医生的经验研判和掌握。所以医学是科学,也是艺术。我们需要人工智能,但是我们又不可能完全依赖人工智能。


03
最终还是医生说了算



《知识分子》:在健康中国战略背景下,如何理解AI能够发挥的作用?人工智能将来有没有可能替代医生?


董家鸿AI技术对于提升基层的医疗服务能力是非常重要的。我们应该有这样一个概念,人机是协同的,应该评价人机协同之后的效果。比如基层医生,给他提供AI辅助诊断,进而我们来研究人机协同之后的诊断率会不会超过他原来的水平。这种人机协同也很难做到100%的正确,所以应该有一个允许的出错概率,在这样的条件下去评价AI提升医生服务效能的价值。


人工智能在某些方面能够超越人的生理和智力的极限,提升健康医疗服务的精准度和效率,但是人工智能永远不可能代替人。前面提到过,因为人工智能所能做的是处理确定性事件。


而在我们医疗实践中,不确定性是常态,每个健康人、每个患者都不一样, 即使患有同一种疾病,疾病的病程、病理特征以及疾病载体即病人的生物学特征、心理学特征和社会学特性,都有很大差异,这个时候人工智能就 “瞎” 了。所以,人工智能能够有效处理的是确定性事件,不确定性事件只有留给人来处理。


医疗是有爱的科学和有温度艺术,机器人是冷冰冰的,它不能提供人性化的关怀照护,在这方面,人工智能更无法代替医者。机器人应该是医生的AI,而不是AI医生。机器人来医疗辅助,理论上来讲,法律责任应该还是由医生承担。


《知识分子》:在论坛对话环节中谈到的一个话题是,在中国医疗资源供需失衡的情况下,医生要面对大量病人,人工智能辅助决策可望显著提升医生工作的效率。这时医生的自主权容易被侵蚀,这对医生、患者以及整个中国的医疗意味着什么?

    

董家鸿这个问题应该从科学和伦理两个层面来思考。从科学的层面来讲,首先人体是非常复杂的,疾病是极其复杂的。人类永远不可能不犯错,用现代科技的手段可以帮助人类更精准地感知、认知、决策和干预,但是仍然不可能完全避免不出错。科技有可能会走弯路,人工智能也不可避免。因为医生做决策和干预,很多时候是要依赖科技手段,人工智能赋能健康医疗体系能够提升实践的精准度和效率,但医生还是有可能被人工智能误导。这是人类发展和科技发展不可避免的问题,但最终的主导仍然是医生。


其次,随着科技的发展,医生也应该加强培训和学习,更好的理解人工智能给我们带来的益助和它的局限性,让人类站在更高的智慧水平上更好地利用人工智能。


《知识分子》:如果要在医疗领域防范人工智能的风险,应该制定什么样的规则?


董家鸿首先技术是服务于人的,为人类创造更美好的生活,人工智能应该是为人类提供更好的健康服务。我认为AI应该是医生的助手。医疗服务流程主要涉及四个方面,一是感知,二是认知,三是决策,四是干预。


当前,在感知和认知方面,我觉得人工智能有非常大的发展空间。比如人的感官察觉不出来的现象和问题,人工智能可以超越人的感知极限。在认知领域,机器人工智能在某种程度上可以超越人,比如面对多维的数据,人的思维是没有办法分析的,而人工智能在一定程度上能超越人类的思维和能力的极限,进行科学分析。


举例来说,那么多关联基因、蛋白质和小分子在网络之间是怎么来决定肿瘤的发生发展的呢?如在算法上没有突破的话,对肿瘤本质的认知难以有质的跃升,只能是积累更多跟肿瘤相关联的分子和基因。而对肿瘤本质的认识,以及基于本质认识的肿瘤防治新策略是不会有突破的。我在这方面对人工智能有很大的期待。


在决策方面,我认为人工智能可以为医生提供辅助决策支持,这是有必要的。比如人工智能在短时间内可以把相关主题的海量文献进行阅读分析,提供给医生做决策支持。还有对边缘数据集、多元数据集进行分析,给医生提供辅助决策的意见。但是机器要做确定的事情,不确定的事情一定要靠医生的智慧。个体疾病复杂的变异性,常态的个体差异,一定还需要医生。如果要求医生遵从机器的决策,那会出很多问题。在干预方面,机器人在某些环节可以提高手术作业的精准度和可控性,但是必须要医生来控制机器人,否则也要出问题。


《知识分子》:如果有一天实现了强人工智能,是否应该给AI画一条伦理的红线?科学家、伦理学家、IT专家和法律专家,可能各有各的看法,到底应该听谁的?


董家鸿我觉得医学、工程、伦理、法律专家要共同探讨,最终还是在人类的健康福祉准则下考虑伦理法规的制定。通过跨领域、跨学科专家的紧密合作,更好的造福人类的健康。


参考资料

[1] http://www.xinhuanet.com/politics/2016-10/01/c_129308912.htm


制版编辑 斯嘉丽

参与讨论
0 条评论
评论
暂无评论内容
订阅Newsletter

我们会定期将电子期刊发送到您的邮箱

GO