机器学习中的忒修斯之船:那些“愚弄”专家的著名悖论

全文共3269字,预计学习时长11分钟

悖论是人类认知的奇迹之一,它难以用数学和统计学来求解。理论上来说,悖论是一种基于问题的原始前提得出明显自相矛盾结论的陈述。即便是最著名的且有案可稽的悖论,也会经常愚弄住相关专家,因为悖论从根本上违背了常识。

图源:unsplash

那么,当人工智能遇见悖论会发生什么?用AI重建人类认知需处理许多数据无法解释的现象,而悖论则一直被视为违背逻辑和数据规则的异常情况。对于机器学习模型来说,通过悖论进行推理是一个难以置信的挑战。

当AI试图重建人类认知时,机器学习模型在训练数据中遇到自相矛盾的模式,并且返回似乎矛盾的结论是很常见的。数据科学家在训练新模型时应该意识到这些场景。

本文笔者就将介绍一些“臭名昭著”的悖论。

悖论通常是在数学和哲学的交叉点上形成的。忒修斯之船(Ship of Theseus)就是最为著名的悖论之一,它质疑一个所有组成部分都被替换的物体是否仍然是同一物体。

图源:medium

假设英雄忒修斯在一次伟大的战斗中所驾驶的著名的船只被保存在一个港口中作为博物馆文物,岁月流逝,木制零件开始腐烂,以新零件取而代之。大约在一百年后,所有的部件都被更换。“修复后”的船还是原来的船吗?

或者说,假设每一个换下来的部件都被储存起来,一百年之后,技术已经可以扭转腐烂的局面,重新组合起来打造出一艘船。那么这艘被“重建”的船是原来的船吗?如果是,那么在港口被“修复”的船还是原来的船吗?

事实上,悖论充斥了数学和统计学领域。为了使用几个著名的例子,传奇数学家和哲学家罗素提出了一个悖论,突出了集合论中一些最强大想法的矛盾,该理论由有史以来最伟大的数学家之一格奥尔格·康托尔提出。

本质上,罗素悖论质疑的是“所有不包含自己的列表的列表”。这个悖论是在自然集合论中产生的,因为它考虑到了所有不属于自己集合的集合。当且仅当集合不是自身的成员时,该集合才似乎是其自身的成员。

这就是悖论。有一些集合,比如所有茶杯的集合,不是其自己的一部分。其他的集合,比如所有非茶杯的集合,都是自己的一部分。将所有不是自身成员的集合称为“R”。如果R是自身的成员,那么根据定义,它不能是自身的成员。同样,如果R不是自身的成员,那么根据定义,它必须是自身的成员。诶?这是怎么回事???

机器学习模型中的著名悖论

作为基于数据的任何知识构建形式,机器学习模型都不能排除认知悖论。恰恰相反,当机器学习试图推断隐藏在训练数据集中的模式,并根据特定环境验证其知识时,它们总是容易受到自相矛盾的结论的影响。

布雷斯悖论()TheBraess’s Paradox

这一悖论由德国数学家迪特里希·布雷斯(DietrichBraes)于1968年提出。布雷斯解释说,使用拥挤的交通网络的例子,与直觉相反,在道路网络中添加道路可能会阻碍其流动(例如每个司机的行驶时间),同理,关闭道路也有可能改善出行时间。

布雷斯推理的基础是,在纳什均衡博弈中,司机没有改变路线的动机。从博弈论的角度来看,如果其他人坚持使用相同的策略,那么个体在使用新策略时就不会有任何收益。对司机来说,策略是采取的路线。根据布雷斯悖论,尽管整体性能下降,驾驶员仍将继续切换,直到达到纳什均衡。

因此,与直觉相反,关闭道路可能会缓解拥堵。

布雷斯悖论在自主的多智能体强化学习场景中很常见,其中的模型需要基于未知环境中的特定决策来奖励代理。

辛普森悖论(TheSimpson’s Paradox)

辛普森悖论以英国数学家爱德华·辛普森的名字命名,它描述了这样一种现象:将趋势明显的几个组组合到一起时,几组数据的趋势消失了。

该悖论的现实案例出现于1973年。伯克利大学的研究生院对入学率进行了调查。这所大学因入学时存在性别差异而被女性起诉。调查结果是:对每一所院系(法律、医学、工程等)单独调查时,女性的入学率都高于男性!然而,平均数显示男性的入院率远高于女性。怎么可能呢?

对以上实例的解释是,单一的平均值不能解释整个数据集中特定组的相关性。在这个具体实例中,女性大量申请入学率低的院系,如法律和医学。这些院系录取的学生不到10%。因而招收的女性比例很低。另一方面,男性更多倾向于申请入学率高的院系:如工程学,其入学率约为50%。因此,录取的男性比例非常高。

在机器学习的背景下,许多无监督学习算法会从不同的训练数据集中进行推算,但是结果综合起来会产生矛盾。

图源:unsplash

准确性悖论

与机器学习直接相关,准确性悖论指出准确性并不总是对分类预测模型有效性的良好指标,这令人困惑。其根源在于不平衡的训练数据集。例如,在A类发生率占主导地位的数据集中,99%的案例中都能被发现,然后就预测每个案例都是A类的准确率为99%,这完全是误导。

理解准确性悖论的更简单方法是,在机器学习模型中找到准确率和召回率之间的平衡。在机器学习算法中,准确率常被定义为测量正类的预测的哪个部分是有效的,它由(真阳性/真阳性+假阳性)确定。此外,召回率指标衡量预测实际捕获正类的频率,它由(真阳性/真阳性+假阴性)表示。

图源:unsplash

莫拉韦克悖论(TheMoravec’s Paradox)

汉斯·莫拉维克被认为是过去几十年来最伟大的人工智能思想家之一。20世纪80年代,莫拉维克对人工智能模型获取知识的方式提出了一个反直觉命题。莫拉维克悖论指出,与直觉相反,高级推理需要的计算量低于低级无意识认知。这是一种经验观察,与更大的计算能力会使系统更智能这一概念背道而驰。

一种更简单的构建莫拉维克悖论的方法是,人工智能模型可以完成非常复杂的统计和数据推理任务,而人类不可能完成这些任务。

然而,许多对人类来说微不足道的任务,例如抓住物体,却需要昂贵的人工智能模型。让计算机在智力测试或玩跳棋时出现成人水平的表现相对容易,但是在感知和行动方面,甚至无法让其达到儿童的技能水平。

从机器学习的角度来看,莫拉维克的悖论在转移学习方面非常适用,它可以在不同的机器学习模型中推广知识。此外,莫拉维克悖论表明了,机器智能的一些最佳应用将是人类和算法的结合。

在许多机器学习模型中,平衡准确率和召回率是对精确度的更好度量。例如,用于欺诈检测的算法,召回率是重要的度量。检测出每种可能的欺诈行为显然很重要,即使这意味着可能需要经历一些误报。另一方面,如果为情绪分析创建算法,并且只需在推文中指出高级情感概念,则目标为获得准确率。

可学习性-哥德尔悖论(TheLearnability-Godel Paradox)

这一悖论最近才被提出,于今年早些时候发表在一篇研究论文中。它将机器学习模型的能力与最有争议的数学理论之一联系起来:哥德尔的不完备性定理。

作为有史以来最聪明的数学家之一,其前辈库尔特·哥德尔突破了哲学、物理学和数学的界限。1931年,哥德尔发表了他的两个不完备性定理,本质上来讲,使用标准数学语言无法证明某些陈述的真假。换句话说,数学是一种不足以理解宇宙某些方面的语言。这些定理被称为哥德尔连续统假设。

在最近的一项研究中,以色列理工学院的人工智能研究人员将哥德尔的连续统假设与机器学习模型的可学习性联系起来。在一个挑战所有常识的自相矛盾的声明中,研究人员定义了可学习性极限的概念。

图源:unsplash

本质上来讲,研究人员继续证明,如果连续统的假设是真的,那么一个小样本就足以外推。但如果是假的,那么任何有限的样本都是不足的。这种方式证明了,可学习性等同于连续统假设。因此,可学习性问题也处于一种无法通过选择公理宇宙来解决的状态。

简单来说,人工智能问题受到哥德尔连续统假设的影响,这意味着人工智能可能无法解决许多问题。虽然目前这一悖论在现实中人工智能问题的应用还非常少,但对于该领域在将来的发展将是至关重要的。

虽然有人认为算法没有常识概念,可不受统计悖论的影响。但由于大多数机器学习问题需要人工分析和干预,人们将在很长一段时间内生活在一个充满悖论的世界中。我们看到的现实是,悖论在现实世界的机器学习问题中无处不在。

留言 点赞 关注

我们一起分享AI学习与发展的干货

如需转载,请后台留言,遵守转载规范

打开APP阅读更多精彩内容