查看原文
其他

因果发现与归纳问题

杨仁杰 自然辩证法通讯 2022-04-24
点击上方蓝字,关注我们


因果关系与归纳问题


归纳问题是科学哲学与认识论中的核心问题之一。它的目的是寻找从已知预测未知、从有限经验推广到一般规律的归纳推断的合理性的基础。是否能够在尚未完全确定因果性的定义的情况下做出关于因果关系的判断?如何在没有完整的形而上学基础的前提下论证某个具体的因果判断是否合理?休谟认为所有从观察经验到因果关系的推断都没有合理的基础。休谟的归纳怀疑论或许是对所有建立因果判断的努力的最致命的攻击。它所针对的不是某个具体的自然世界中的因果关系,而是人类是否能够进行合理的因果判断的可能性。

 

图为休谟画像


在科学哲学领域,对休谟的归纳怀疑论的回应有很多种,本文讨论一种与这些传统科学哲学理论不同的另外一种回应方法。在机器学习领域,因果发现问题探讨的是如何根据有限个变量的观察数据推断出这些变量之间的因果关联。近年来,机器学习研究者们提出了很多能够解决某些特殊的因果发现问题的算法。他们对这些算法是否正确的验证方式提供了一种回应归纳怀疑论的特殊方法。


本文分析和总结机器学习领域验证因果推断算法的推理模式,指出它所蕴含的与以往不同的另外一种关于归纳推断的理论,以及这种理论如何回应归纳怀疑论。这种方法不但具有与传统的科学哲学确证理论不同的特征,并且还能够揭示出归纳推断的更为精细的结构。

 

归纳推断的计算理论


因果发现的机器学习算法要解决的问题本质上是归纳推断问题。按照休谟的观点,对因果发现问题的任何回答都没有理性基础,我们用来辩护因果判断的根据无非是心理习惯或习俗。但因果发现算法并非如此。对于人工智能的一个常见的误解是,人工智能算法只是人类的某些心理过程在机器上的实现,所以可以将机器学习的算法看成是人类在学习时的心理过程的某种复制。这种想法是错误的。大多数机器学习算法如果想要成功发表,都需要在数学上严格证明它们能够给出正确的结果。而人类心理在进行判断和决策时常常发生误判。同心理过程相比,人工智能算法有更高的规范性。



所有因果发现算法,机器学习研究者都在演绎推断的严格意义上证明了它们在正确的输入下能够输出正确的结果。这些证明的最终实现需要三个主要的组成部分:因果性的概念,因果发现算法的正确性所需要假设的条件,以及在何种意义上这些算法是正确的。下面详细分析这三个方面如何与归纳怀疑论相关。


科学家们所理解的因果性的概念要求我们估计同一个个体的不同的潜在结果之间的差别。然而通常的实验设定只能观察到对象个体的一个潜在结果,因此其它的潜在结果就需要通过其它个体进行估计。这是一个从已观察量到未观察量的归纳推断问题。这些归纳推断问题都受到归纳怀疑论的威胁,但科学并不能因此停止发展。如果不假定任何先在知识,就无法学到任何新知识。


在证明因果发现算法的正确性时所做的桥接假设和模型假设也是一致性原则的组成部分。它假定观察到的对象和未观察到的对象都满足例如因果马尔科夫假设,因果充分条件等。怀疑论者会询问科学家们是如何知道这些假定是正确的。实际上在很多情况下,科学家们不但不假定它们是正确的,而且会明确表明它们是错误的,但即使在错误的假定下用机器学习算法来分析数据仍然是有帮助的。


例如如果在运用PC算法来寻找因果结构时发现,某两个变量之间存在两个不同方向的因果关联,那么这一结果可能暗示在这两个变量之间有隐藏的共同原因,因此需要用不假设因果充分的算法来分析。这也是机器学习研究者不断努力弱化假设并寻找有效算法的原因。设计并验证这些算法的正确性并不是为了彻底解决归纳怀疑论,而是为科学研究中的归纳推断提供越来越丰富的有效的数据分析工具。这些工具可以帮助科学家们找到更多的自然界中可能存在的因果关系。



一个常见的误解是,归纳怀疑论只关涉那些与一致性原则相关的桥接假设和模型假设,于是只把注意力集中在如何论证如因果马尔科夫假设、因果忠实性假设是否合理。实际情况远非如此。即使是在这些假设都成立的前提下,在归纳推断中仍然存在更为丰富的与归纳怀疑论相关的精细结构。这些假设本身是不足以证明因果发现算法的正确性的,还需要一种对于算法如何趋近正确结果的收敛标准。


以PC算法为例,在包括因果马尔科夫假设等一系列假设都成立的条件下,如果输入所有正确的关于V的条件独立关系,可以证明PC算法能够输出包含V的真实因果结构的马尔科夫等价类。这里受到归纳怀疑论影响的是,联合分布中的条件独立关系并不是可以直接观察的对象,而必须通过统计假设检验的方式进行估计。由于假设检验只能观察有限个样本,从有限样本的性质到总体性质的推断是一个典型的归纳推断。条件独立假设检验通常在大样本极限下收敛到正确结果,因此PC算法也只能在大样本极限下收敛到正确的因果信息,而不能保证在有限步骤内得到正确的结果。


这意味着,证明PC算法的正确性不仅需要桥接假设和模型假设,还需要一种适当的收敛标准。如果换一种更强的收敛标准,例如要求算法在某个有限的样本量N之内就达到正确结果,那么就无法证明PC算法是正确的。



总结


总结以上的介绍和分析,可以看到机器学习研究者对因果发现算法是否正确的验证过程遵循如下推理模式:从一些背景知识出发,假定某些桥接原则和模型假设,设立一个如何趋近正确结果的收敛模式,根据要解决的因果发现问题设计适当的算法,最后判断算法是否能够按照设定的收敛模式收敛到正确的结果并给出数学证明。


不仅因果机器学习遵循这种模式,统计机器学习也是如此。这是由于机器学习领域的核心对象是算法,因此对于归纳推断的计算方法的要求与对一般算法的要求是一致的。我们可以在可计算性的数学理论中找到同样的理论结构。


这种基于算法的归纳推断理论在历史上由哲学家赖辛巴哈、普特南等人建立并发展起来,它常常被称作逻辑可靠性理论(logicalre liability theory)。这一归纳推断理论隐含在大量科学研究背后。每次我们在经验研究的报告中看到t统计量、p值、或者卡方检验等统计结果时,其内在的理论基础都是逻辑可靠性理论。正如葛莱默(C.Glymour)所评价,机器学习实质上是另外一种做科学哲学研究的方式。因此应该得到科学哲学家们更多的重视。



机器学习领域的研究需要不断弱化已有的桥接原则和模型假设,并设计更有效的因果发现算法。哲学领域的研究则需要进一步澄清机器学习算法背后的逻辑可靠性理论与其它确证理论之间的精确关系,以及逻辑可靠性理论如何回应科学哲学中的经典论题如相对主义、新归纳之谜以及亚决定性等问题。本文揭示出了另外一种做哲学的方法,即通过当代的计算方法来回应古老的哲学问题。哲学的任务不仅仅是提出问题,更为重要的是对这些问题的解决。通过人工智能与机器学习的科学研究发展出来的计算方法为重要的哲学问题的解决提供了新的思路与研究方向。

 

END

本文选自《自然辩证法通讯》2020年第42卷第8期





扫码关注我们jdn-1978

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存