当前位置:经济频道首页 > 经济要闻 > 正文

专访国家卫健委专家卢清君:人工智能在医疗领域的应用风险很大(2)

专访国家卫健委专家卢清君:人工智能在医疗领域的应用风险很大(2)
2019-06-12 09:30:51 第一财经

第一,目前AI还处在非常初级的阶段,有很多不成熟的地方,包括数据模型的建立、数据的来源以及知识模型和知识标准等,这些方面都很初级。而且,目前都是工程师在建立模型,很少有临床医学的专家参与这个过程。所以在这个阶段,AI还存在很多缺陷和风险,如果大规模临床应用的话是很危险的,因为医疗是不能出错的。IT界有个行话叫开着飞机修飞机,但医疗是不行的,一定得把飞机修好了才能开上去,这是由行业的特点决定的,医疗和电商等领域都不太一样。

第二,现在的AI是基于国际开源的一些公用的模型和算法,所以它局限在我们的语音识别、图像识别,对于很多其他逻辑数据的建立,目前还很难建造一个非常符合临床医学规律的数据模型。所以,这就需要更多的数学家参与到医学AI的开发中来。我们的医学数据模型没有建立的话,将来AI的应用场景就会非常受限,会很肤浅。

所以在目前这个状态下,AI用在基层医疗上是不行的,是一个风险所在。或许很多大专家有判断能力,但是基层医生是没有判断能力的,你把这样一个机器给他,他无法判定是采取机器的建议还是拒绝机器的建议,这对诊断疾病来说就会有潜在风险。

在AI不太成熟的时候,我们不主张大规模在医疗领域推广,但是我们需要实验,需要一个局限性的、小范围的、特定环境下的实验,目的是为了帮助AI工程师们去建立更好的数学模型。

第一财经:也就是说,在医疗领域大面积铺开使用AI,除了风险很大之外,还存在很多制约?

卢清君:确实是这样,现在AI的整个设计逻辑还存在短板。它是基于一种完全可控的、可知的、可预测的数学逻辑去建立的模型,换句话说,它是符合现代简单数学逻辑的,比如“1+1=2”的这种。但我们的临床疾病很多情况下不是如此清楚的数学逻辑,它是因果关系,其中会涉及很多潜在的干扰因素,还有未知因素,所以目前建立起来的AI模型还无法模拟临床上的这种因果关系。简单一句话就是,目前的AI不具备逻辑推理能力,因为人还不知道自己的逻辑推理是怎么算出来的。

相关报道:

    404 提示信息
    404

    您访问的页面找不回来了!

    返回首页
      您感兴趣的信息加载中...

    相关新闻