移动互联网

AI与医学的碰撞:是什么阻碍了人工智能的发展?

2021/1/6 15:18:00

在一些医疗应用场景中,机器可以比人类医生更快地对病症做出诊断。以糖料病性视网膜病变(Diabetic Retinopathy)检查为例,如今已有一种人工智能机器,通过扫描患者的视网膜,就能得出有关该疾病的准确的诊断结果,而整个过程不需要任何专业的训练。

这证实了海量数据的可利用性,即通过给机器喂养大量经过人工标注的数据,使机器拥有诊断病变的能力。但这并不是人工智能发展的终点,制造真正的人工智能还需要克服重重阻碍。

自我意识与人工智能的算法偏见

道格拉斯·霍夫施塔特(Douglas Hofstadter)的非虚构小说《哥德尔、艾舍尔、巴赫书:集异璧之大成》(Godel, Escher, Bach: An Eternal Golden Braid),讲述了智能从何而来的问题。书中写道,人类的单个神经元是没有自我意识的,但结合在一起,就会产生自我意识,也就是智能。

人工智能的发展有一个绕不开的话题,那就是“自我意识的产生”。人们对此有很多担心,其中包括担心机器不具备伦理观念。

有专家认为,人工智能若想应用于医学领域,首先需要建立一个伦理框架。据以往的经验,人们很少在问题出现之前,评估某一项技术对研究人员本身,对数据库、数据集的性质等各个层面所产生的伦理影响。

在医学博士埃里克·J.托波尔(Eric J. Topol)看来,解决机器和伦理冲突最大的困难,在于如何确保机器已完全剔除人类社会本身的偏见。

以糖尿病性视网膜病变为例,用机器来识别病变确实非常方便,但机器识别的依据还是经由人工标记的数据,而人类意识中的偏见已经通过数据收集、标记的过程,深深植入机器之中。

医学博士亚伯拉罕·韦尔盖斯(Abraham Verghese)则认为,机器诊断的最大问题是结果不透明,使得临床医生无法像对CT扫描报告或活检报告一样,对结果提出质疑。

梅兰妮·米切尔(Melanie Mitchell)是一位人工智能领域的专家,著有《人工智能:人类思维学习指南》(Artificial Intelligence: A Guide for Thinking Humans),现任职于美国圣塔菲研究所(Santa Fe Institute,SFI)和波特兰州立大学(Portland State University)。她表示,训练机器产生人类的伦理观念或许是一种解决方案。

但是,实施这个方案的前提是,全体人类已经有一个标准的道德价值观。显然,人类社会还不存在具有普世价值的道德体系。

图片来源:图虫创意

对此,一些医学和人工智能方面的专家给出了以下3种解决方案。

1. 人类参与和监督

纵观人工智能和人类的相处历史,你会发现,两者经常被置于对抗的境地,如IBM“深蓝”计算机和当时的世界棋王加里·卡斯帕罗夫(Garry Kasparov)之间的比赛。

然而米切尔·卡普尔(Mitch Kapor)(编者注:美国莲花公司创始人,推出了个人电脑“杀手级应用”软件Lotus1-2-3。)曾说过,“人脑是一个神奇、微妙、尚不为人所知的领域,科技在短时间内无法复制人脑的功能”。

米切尔表示,至少在医学领域,人工智能还不足以和人类形成对立的态势,还需要接受人类的监督和指导。

举一个典型的例子。Optum公司曾在《科学》杂志上发表研究,称美国黑人患慢性病的风险更低,这显然是带有偏见的结论。因为Optum的算法在很大程度上是以医疗账单和医疗保险索赔数据为依托,但黑人获得的医疗资源本身就不如白人多。

托波尔表示,这个例子很好地说明了人类监督的重要性。人类应该从最开始就介入研究,而不是放任机器算法自行完成全过程。他甚至建议,监督人工智能的运作甚至可以作为一门专业课,纳入医学生的本科教育。

2. 消除人类社会自身的偏见

《纽约时报》的一篇文章,《我们真的能让机器比人类更客观吗?》(Can We Make Our Robots Less Biased Than We Are?)中指出了一个现象:每一个人工智能相关的问题,最后都被简单地归咎于人工智能本身。

托波尔认为,人工智能产生问题的原因,和根植于人类社会的偏见有关。因此,改善科技并不能真正使机器的客观性优于人类。以人工智能的自我意识为例,若想依靠剖析深度神经网络来解决这个问题,是不可能的。

米切尔表示,深度神经网络的一个特点是不透明。剖析深度神经网络,就好比直接掀开头皮,观察大脑的神经元。显然,这样做是无法学习大脑是如何思考,如何做决定的。

因此,有观点认为,只有消除人类社会的偏见,才能让机器变得更客观。如今,全球出现了各种各样的非营利组织,它们给医学专家、人工智能专家、人类学家和社会科学家提供了讨论的平台和机会,或许能够真正实现脱离人类监督的人工智能“自由”。

3. 赋予人工智能以人类的常识

米切尔表示,人工智能要想脱离人类的监督,就必须拥有人类社会的常识。

如今,“常识”已经成为人工智能领域的一个热词,引起了广泛讨论。Optum的例子很好地说明了,机器可以在统计学领域表现出色,但它仍然缺乏人类社会如何运转的基本概念,所以会犯连孩子都不会犯的常识性错误。

这就是人工智能目前面临的挑战。

但是,定义“常识”十分困难,毕竟人类自己也只是知道了这个词的意思而已。

事实上,美国国防部高级研究计划局(DARPA)正在开展相关项目。DARPA计划让人工智能模拟婴儿的成长轨迹,从而获得人类社会的常识。

米切尔认为,虽然这确实是一个办法,但模拟婴儿的成长轨迹有一个隐患,那就是常识中隐藏着人类的认知偏差,而这会将人类卷入巨大的麻烦之中。

图片来源:图虫创意

人工智能面临的其他阻碍

除发展自我意识外,人工智能在医学上的应用还面临着其他阻碍。

一,机器和人类的差距,导致人类对机器的不信任。20世纪初,德国有一匹会做算术题的马,叫聪明的汉斯(Clever Hans)。驯马师给聪明的汉斯出一道算术题,它会用马蹄敲出正确答案。人们后来发现,聪明的汉斯并不会算数,它只是能够接收驯马师偷偷给出的身体信号而已。

如今,人工智能专家用“聪明的汉斯”来比喻人工智能系统,这一系统其实只是感知到了一些微小信号,但给人一种“它在解决问题”的错觉。

米切尔解释道,在医疗领域,类似的例子有很多。比如,你想用人工智能系统来区分有病理特征和无病理特征的X光片,但结果发现,有病理的那部分统计数据有些异常。导致异常的可能原因有很多,包括拍摄X光片的X光机不同;同一台X光机上设置了不同程序等。人类无法察觉到这些影响,但人工智能会根据这些差别做出判断,导致结果有很大偶然性。

韦尔盖塞则认为,从另一方面来讲,人工智能更擅长预测死亡率,有时甚至优于医生的判断。从某种意义上来说,机器是没有情感的,而医生的判断会受到各方面的影响,包括医生内心对患者的祝愿、对治疗手段的期待,以及延长患者生命的盼望等。

米切尔表示,人类有偏见,机器也有偏见。如果机器给医学带来的贡献和人类的作用能够结合在一起,就能实现“1+1>2”的效果。当然前提是,人类必须对机器的偏见,或者说对人类自身的偏见有一个全面的认识。

二,对人工智能的过度吹捧。现代社会,科技的地位越来越高,有人对科技的过度吹嘘,已经超出了科技本身的价值。这导致人们高估了科技的自主性,最后只能以失望告终,并抱怨道,“好吧……科技根本不值得信任!”、“这台机器犯了这么多错误,我要怎么信任它?我当初买它,就是因为它可以比现在做得更好!”……

米切尔表示,科技在正式应用之前,人工智能专家应该首先明确机器真正的能力、局限性和作用,并将其如实地传达给使用者。

韦尔盖塞表示,不管人工智能给出的结果如何,它都只能作为一种参考,真正做决定的还应该是我们自己。

三,“人工智能威胁人类生存”论。雷·库兹韦尔(Ray Kurzweil)是人工智能威胁人类这一观点的拥趸者。

早在至少30年前,库兹韦尔在其出版的《奇点临近》(The Singularity Is Near)一书中写道,人工智能将在未来某一天达到人脑的智慧水平。此外,库兹韦尔预测,到2045年,人工智能将比人脑聪明数十亿倍。当人工智能和人脑融合的那一天,其发展也就到了“奇点”。

机器能够自我进化,慢慢变得比人类更聪明,最终比人类聪明数十亿倍;人工智能的存在早晚会成为人类的威胁,成为人类文化、社会和文明的威胁……这些观点都被库兹韦尔写进了他的书中,并随着书籍的畅销而深入人心。

但是,现实生活中没有一个人工智能方面的专家相信库兹韦尔的预言。人工智能领域著名的先行者吴恩达表示,现在担心奇点的到来,就跟担心火星上人口超负荷一样遥远。

韦尔盖塞也表示,与其担心人工智能会毁灭人类,不如想想它未来的发展方向。如今,人工智能在医学领域的发展正处于瓶颈期。要想突破瓶颈,人类必须开发出更多人工智能的潜力。


版权声明
本文仅代表作者观点,不代表艾瑞立场。本文系作者授权艾瑞专栏发表,未经许可,不得转载。
  • 合作伙伴

  • 官方微信
    官方微信

    新浪微博
    邮件订阅
    第一时间获取最新行业数据、研究成果、产业报告、活动峰会等信息。
     关于艾瑞| 业务体系| 加入艾瑞| 服务声明| 信息反馈| 联系我们| 广告赞助| 友情链接

Copyright© 沪公网安备 31010402000581号沪ICP备15021772号-10

扫一扫,或长按识别二维码

关注艾瑞网官方微信公众号