查看原文
其他

胡万亨:我们对技术的要求,总是比人高得多|FusionX 2022 科技人类学导师专访

XA 2022 TechXAcademy 2022-10-19



随着人工智能的发展,特别是深度学习方法的应用,人们使用计算机技术辅助医疗的现象也越来越普遍。且相对而言,AI 在医学影像诊断的应用也更为广泛。那么,在越来越精细、准确率也越来越⾼的 AI 诊断结果⾯前,我们原来依赖医⽣进⾏的、⼈⼯层⾯的诊断⽅式将受到怎样的影响?AI 仅仅只是⼀种“⼯具”吗?在未来的医疗中,传统的专家判断又存在多少可供技术介入的空间?


康奈尔⼤学 STS 专业博⼠候选⼈胡万亨是今年 X ACADEMY FusionX 科技⼈类学的课程导师,⽬前他的研究课题以医学图像诊断为切⼊点,探讨技术变迁中的⼈⽂议题。



深度学习算法是否能获取人类专家的知识经验?人机共生的时代,算法又如何影响了人类专家的工作方式?在现代化的发展面前,以 STS 的问题视角出发,也能帮助我们打破技术决定论的思维方式,关注真正的科学,并找到在其中的“人”的位置。


(以下内容预估字数:4300 字,阅读需要:8 分钟)



Q:想了解老师为什么会选择 STS 这一领域?


A:其实在一开始,我在高中是理科生,也打过化学竞赛。本科时我在北大医学部,读的专业是生物医学英语。我当时所在的学院现在叫医学人文学院,这个学科本身也有一点文理兼修或者说交叉学科的性质,开设了不少像医学史、医学哲学、医学伦理学这样的课程。


我本科时对社会科学就很感兴趣,修了一个社会学的双学位。其实我是很喜欢社会学的,到了读硕士的时候,我也认真考虑过要不要去读社会学或者人类学。但是当时我也有一个小小的念想,觉得如果我真的去了社会学专业,尤其是北大的社会学和人类学,那我基本上就成了纯粹的人文社科领域的学生了,可我并不想放弃对理科的爱好和背景。


北京⼤学医学⼈⽂学院所在的教学办公楼

图源:bkzs.bjmu.edu.cn


后来有一天,我在我们班公邮里突然看到哲学系招收科学社会学方向研究生的信息。我一看,这不就是跟我的背景非常契合、也是我最想做的事情吗?在跟老师进一步了解之后,我选择了保研去哲学系就读。我的专业是科学技术哲学,其中有一个方向是科学社会学。这个专业的学习中包括科学技术史、科学哲学、科学社会学、科学与公众等不少关于科技的社会研究的内容。


总的来说,我是在哲学系这边才接触到了 STS(Science and Technology Studies)这个领域 ,以及相关的 STS 课程和概念。当时的我尤其对科学知识社会学感兴趣,因为它同时满足了我对社会学的热爱和关于“理科生”的念想。


后来我决定往 STS 方向申请国外的博士项目,最后很幸运地到了康奈尔大学。康奈尔大学的博士项目也属于国际 STS 领域的旗舰项目之一,有不少 STS 领域的创始人都在康奈尔任教。


科学知识社会学的创始⼈之⼀⼤卫·布鲁尔的《知识和社会意象》,科学知识社会学开⼭之作,提出了著名的“强纲领”。

图源:豆瓣



Q:可以向我们介绍一下康奈尔大学的 STS 吗?


A:如果你去看我们系的介绍的话,它会说 STS 关⼼的是科学技术的伦理、社会和政治维度,也就是把科技作为⼀种社会⽂化现象来解读。科学知识的发展、技术的研发都离不开⼈,⽽⼈作为⼀种社会性的动物,在从事科技活动的时候也不可避免地会带⼊我们的社会惯例、⽂化和价值观念。


所以,科学知识在一定程度上也是人的一种集体共识所塑造的结果,技术物往往也带有我们的价值观,是有“政治性”的。比如,一个科学假定是如何成为公认的科学“事实”的呢?从 STS 的角度来讲,这不纯粹是一个它是否符合“自然规律”、“对不对”的问题,它同时也是科学共同体以及相关的社会力量、知识传统等博弈的结果。


康奈尔大学 STS 系官网的图片介绍

图源:sts.cornell.edu


所以 STS 的基本关切就是将科学技术本身作为一种社会文化现象去解读,去讨论科学、技术与社会如何相互影响、相互渗透。那我们如何去研究它呢?STS 是一个跨学科的交叉领域,每个研究者的方法都不大一样,你可以用历史学、人类学、社会学或者传播学的方法,从不同的角度去讨论感兴趣的主题和案例。


像我们系的老师的专业背景也非常多元,他们的 PhD 大多分布在历史学、人类学和社会学这些传统学科。但是他们研究的共同点在于如何看待知识、科学和技术的方式,既关心社会中的科学技术,也关心科学技术中的“社会”。



Q:对准备学习 STS 的人来说,什么样的前置条件更具备优势?


A:这个没有特别明确的要求,但假如你原来就拥有理工科的背景,对你所要研究的科技主题本身就掌握有一定的知识,这就会是一个比较有优势的地方。STS 强调打开科学技术的“黑箱”, 关注“实践中的科学”。


所以大体上,你要对研究主题的技术细节和思路有所把握。我们主要的研究对象就是科学家、工程师,你需要对这些技术背景有一定的掌握,才能够去真正理解他们在做什么,以及他们是怎么做的,才能具有成为科学共同体的“本地人”的能力(native competence)。


再有一点就是方法上的,这取决你自己的 STS 研究路径是什么。比如,如果你主要的兴趣是科学史、技术史的案例,那么显然历史学的背景就是很有优势的。你可以借鉴历史学的研究方法去找文献,掌握如何去从文献中梳理出各种历史细节的方法。


不论如何,STS 是一个很开放多元的领域。学习 STS 最重要的是学习一种不同的提问方式和思考角度 ,要学会暂时放下我们对科学和技术根深蒂固、习以为常的看法,这样我们读 STS 文献的时候才不会那么“别扭”。


Q:想了解老师您在做研究时是如何寻找着眼点的?比如您在 STS 领域研究的兴趣,或者研究的方向都是来自哪些事物?


A:我有时候是一个有些“怀旧”的人,对于文化传统的多样性,以及它在现代化过程当中的流失、生存状况这些问题都比较感兴趣,也一直是我的关切。而这些问题体现在什么地方呢?体现在现代社会中科技的发展与现代化的进程,对传统的思想和生活方式、传统器物的生存空间的挤压。


这是我一直以来很感兴趣的现象,也让我思考技术变迁和科学的发展如何改变我们的生活、工作和思考方式。STS 给我提供了一种很有启发性的视角,去重新认识科学、重新认识技术、重新认识它们如何渗入到我们的日常生活当中,并影响我们的种种决策。


就是循着这样一种大的问题关切,最后我逐渐找到与这个学科的共鸣。至于更具体的研究主题和方向的选择,除了要回应这种关切之后,我还会考虑自己的知识背景和积累是否能胜任这个题目,以及除了你自己关心这个问题,是不是也会有很多其他人也关心这个问题。也就是你感不感兴趣、做不做得了和做出来有多大用这三个方面。


我现在的研究关注的是,们如何让深度学习算法去“获取”人类专家的知识经验,以及这些算法又如何影响和改变他们的工作方式。我自己有一定的医学背景,而深度学习在医学上的应用也是现在的一个大热门,所以我最后聚焦在了基于医学图像的诊断这个小领域,尤其是放射科和病理科。我们知道,像医学诊断、司法审判这样的事情是非常专业的,而且专家之间可能往往会存在不同的意见。相对来说,辨认汽车这样的任务就没那么困难了。


那我们如何去训练一个 AI 算法去学习做这么“专业”的事情呢?你使用 AI 的时候,又会如何影响这些专家的判断呢?这些都是我很感兴趣的问题,而且以后如果 AI 真的普及了,尤其是应用在一些很“专业”的事情上,我们也更需要理解它到底是怎么一回事、AI 给出的“专业判断”到底是怎么来的。现在的 AI 在医学图像领域也还处在发展的过程当中,这为 STS 提供了一个很好的机会,便于我们去研究“行动中的科学”(science in action)。


STS 领域的经典之作:《科学在⾏动》,本书作者布鲁诺·拉图尔是 STS 的领军⼈物之⼀、巴黎学派的代表者。

图源:豆瓣


Q:现在利用 AI 算法进行医疗诊断的准确率已经提高了很多,但即便技术再发达再完善,我们也还是会认为医生具有一些不可以被算法取代的部分,还是更愿意去医院看医生。我们该怎样用 STS 去分析这个现象背后的影响因素呢?


A:最开始的时候,大家都会担忧 AI 有可能取代医生,尤其是放射科医生。但是现在基本上没有什么人再提这个了——这个话语的转变本身也很有意思。目前我们的共识是,AI 是用来辅助医生的,而不是取代医生,最终的结论还是要医生来下。同时,现在基本上也没有直接面向患者的 AI 诊断产品,所以在相当长的一段时间里,我们可能不会面临生病时是去“看医生”还是“看 AI ”的抉择。


那么,更直接的问题在于:果 AI 在某一项诊断任务上的准确率已经很高了,我们是不是仍然会更加相信医生的判断?如果 AI 给出了和医生不一样的判断,医生自己会如何选择?


如果我们去看一些研究论文的话,经常会看到一些“突破性”的进展:在实验中,算法的准确率不输医生,甚至还更高,速度还更快。但这是不是也意味着我们可以用算法替代医生?比如说基层医院的放射科医生,他在看片子时候,在某个病变上可能诊断的准确率只有 80%。但如果我们用算法来做同样的事情,在测试的时候准确率甚至能达到 90% 甚至 95%。那么这种情况是不是意味着医生听算法的就可以了?


对于这个问题,我主要想说两点。第一点,我也会经常问访谈的医生这个问题,发现很少会有医生说“我就听算法的”,他们自己一定要再看一遍。而且,我们对于技术的要求,会比对人的要求高得多。这其中就有一个责任归属的问题。我们能接受人出错,这是不可避免的,因为我们知道出现错误时该去找谁。


在上海参加 2021 年中国国际医疗器械展(CMEF)与医疗 AI 企业参展⼈员交流

图源:受访者提供


但我们不希望 AI 在做原本是人来做的事情时轻易犯错。即便算法能达到 95% 的准确度,但它也总是有可能是会犯错的。如果都听算法的,那犯错的责任谁来承担呢?是开发算法的公司,还是推行这个算法的医院呢?还是相关的政府管理部门呢?没有人会说这个算法本身可以成为一个责任主体,这个也是对我们现行法律的挑战,这是一种全新的情况,以后会怎么样还不⼀定。


第二点就在于这个技术本身。我们刚刚假定这个算法能有稳定的、高于人类的表现时会如何,但这种表现在现实生活当中、在实际的临床场景当中,它不一定总能稳定地延续下去,需要很多的条件。这就涉及到我们对于“能力”的认识,或是对于“能力的表现”的认识。


医生都要经过执业医师资格考试以及很多其他的职业测试。这些考试可能就几个小时、十几道题目、某几项操作,总之,这些测试的内容是有局限的。但是一旦他通过这个测试之后,我们就会认为医生有一种稳定的、内在的能力去做这个事情。我们会认为测试的结果是他能力的体现,我们也不会再去怀疑这个能力本身了。如果后面出问题,我们更多地会怀疑说他可能只是疲惫了、粗心大意了等等。


那么,假如算法也通过了类似的测试,是不是意味着它在临床的实际情形当中也稳定地拥有这种能力呢?从 STS 的角度来说,我们对于测试结果的认可来自关于测试环境与使用环境之间的相似性的假定,测试实际上是一种“预测”或“投射”(projection)的过程,我们认为测试结果可以“投射”到实际使用中。


之前谷歌医疗有一款医学图像识别的 AI 产品,我们把眼底图像输入进去之后,软件就会开始判断这个患者有没有糖尿病性视网膜病变。这是一项尚在测试中的技术,在美国测试的时候它的表现又快又准,但后来开发者把它拿到泰国的诊所去试用,表现得就很糟糕——图片的质量不行、网速不行等等原先不成问题的问题都出现了。


越来越多的 AI 产品用于糖尿病眼底病变的诊断

图源:www.blog.google


因此我们会看到这种技术的适应能力,对它的使用环境和输入的信息都有很高的要求。所以我们通过测试得出的算法的“能力”,是不是能够稳定地延续下去,也是有条件的,这种情况跟人的能力是否被稳定地发挥出来是很不一样的。我们将一款 AI 软件部署到一个新地方,它输出的结果到底有没有受到环境的影响,它的表现到底是不是跟测试中一样,理论上来说我们也是不知道的。

但医生在工作的时候,就算到一个条件差一点的环境,医生的判断可能也不会有那么大的问题。因为我们会认为医生的能力是已经内化的、存在于大脑当中的东西。但算法就不太一样,它是一整个系统的结果,它的表现始终只是在特定条件下的表现。


以上两点,一方面涉及到伦理法规的问题,另一方面涉及到我们对能力的认识和假定。我们通常会觉得一个技术得到推广应用,那肯定是因为它“效果好”、“先进”,但到底什么是“效果好”呢?是不是仅仅因为“效果好”它就可以被社会所接纳?这样的观点常常是一种“事后诸葛亮”的解释,把结果当做原因。


一项新技术在真正得到应用之前,需要经过各种社会性的考量、很多方面的力量博弈,也依赖于一些社会文化假定,才能真正成为社会的一部分。但在它成为社会的一部分之后,我们往往会反过来说,这只是因为技术本身很好很厉害,这就有一种技术决定论的思维在里面。而 STS 研究,就是要去打破这种思维,去关注实际运作中的科学技术,关注它的现实情况是怎么样的,而不是事后对它进行美化和简化。




采写:兵书

编辑:兵书

排版:灵〇


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存