登录

科学网—从DeepSeek的最新进展看智力结构——兼论如何构建AI“提问者”与“解题者”


速读:在文中,我提出了这样一个观点:智力,或者说“聪明程度”,并非一个单一、混沌的概念,而是可以由四个关键要素来解析:记忆力、理解力、反思能力和好奇心; 然而,我想进一步提出的一个问题是:该如何在AI系统中真正实现对于“好奇心”这一智力催化剂的模拟和全面应用。 早期的AI更像一个被动的“知识库”,等待用户查询。 这些缺陷中极为关键的一个环节是:有许多的科学问题,如果没有和物质世界直接联系的话,是很难彻底解决的,因为有许多问题都必须要有充分的查证和实践检验的过程。 第一个陷阱是“信息的不可靠性”。
从DeepSeek的最新进展看智力结构——兼论如何构建AI“提问者”与“解题者”

精选

已有 232 次阅读

2025-11-30 16:37

| 个人分类: 人工智能 | 系统分类: 科研笔记

近日人工智能模型 DeepSeek 在反思领域取得了令人振奋的进展(参见: https://mp.weixin.qq.com/s/6yEYlx0jKmDQQGPXn2KV2A 及 https://view.inews.qq.com/a/20251128A029K400?no-redirect=1&scene=pc )。反思能力的训练和提升,不仅决定着 AI 在技术层面能否再次飞跃,更触及了一个更深层、更根本的议题:我们究竟如何理解“智力”?近几年人工智能领域的诸多进展,也为反思何为‘智力’这一问题提供了绝佳的契机。

这让我不禁回想起自己曾提出的一个关于智力结构的框架( https://mp.weixin.qq.com/s/1OnmAouWNF--LVF7JDX5DQ ; https://blog.sciencenet.cn/blog-3234816-1013671.html )。在文中,我提出了这样一个观点:智力,或者说“聪明程度”,并非一个单一、混沌的概念,而是可以由四个关键要素来解析:记忆力、理解力、反思能力和好奇心;前三者——记忆力、理解力和反思能力——构成了智力的核心支柱,是认知能力的基本盘;而好奇心,则是驱动整个智力系统高效运转的催化剂;这便是智力的“ 3+1 ”结构。

DeepSeek 等新一代 AI 模型所展现的进步,正是对这一“ 3+1 ”结构的生动诠释。它们拥有海量的记忆力,能够存储和调用远超人类极限的知识;它们具备强大的理解力,能够解析复杂句法、把握语义关联,甚至理解一定的上下文和隐喻;它们也初具了反思能力,能够在与用户的交互中进行一定程度的自我修正和逻辑链回溯。

然而,我想进一步提出的一个问题是:该如何在 AI 系统中真正实现对于“好奇心”这一智力催化剂的模拟和全面应用。这是因为,好奇心的问题不仅与当事者(不论是人类还是人工智能)是否具备提出问题和解决问题的能力与习惯有关,好奇心更与人工智能是否能够自我进化有必然关联。反思往往只是一次性的或者是局部性的,然而好奇心则指的是对自己所有的尚没有完全把握和尚不够完美的认知体系进行充分的探索和自我完善。

早期的 AI 更像一个被动的“知识库”,等待用户查询。而现在,我们看到 AI 开始具备初步的“提问”能力。它能在一个对话的过程中或是对话的结尾,主动提出一些新的、相关的问题,将探索的边界向前推进一步。这些现象标志着 AI 已经开始从被动的“应答机”,向更具主动性的“探索者”转变。但这仅仅是事情的开始,因为提出问题是智力的火花,而解决问题才是智力水平和智力价值的最终体现。

在提出问题方面现在的人工智能的确已经有了巨大的进步,但是在如何去解决问题方面还存在许多的缺陷。这些缺陷中极为关键的一个环节是:有许多的科学问题,如果没有和物质世界直接联系的话,是很难彻底解决的,因为有许多问题都必须要有充分的查证和实践检验的过程。更为准确地来说,有许多科学问题,尤其是那些根植于实证的科学问题,如果脱离了与直接物质世界的联系,是根本无法彻底解决的。理论可以提出一千种假说,但最终的裁决者永远是实验和实践。解决问题的过程,远不止于逻辑推演和文献检索,它包含了一个至关重要的环节——充分的查证与实践检验。

一个形象化的比喻是,目前的 AI 可以调用所有关于“水的沸点”的论文,但它无法亲手点燃酒精灯,观察水在海拔数千米的高原是否真的在不到 100 摄氏度就沸腾;目前的 AI 可以提出各种试验方案,但无法真实地去感知试管的色彩和温度,也无法体会实验失败后不得不调整试验方案的必要性与挫败感,更无法从这种挫败中获得涅槃重生式的顿悟与智慧升华。这种与物理现实的直接互动,以及由此产生的、刻骨铭心的经验性知识与主动的自我修正,可能是当前 AI 最为缺失甚至完全缺失的一环。它的“认知”悬浮在由符号和数据构成的云端,而非扎根于我们赖以生存的、充满偶然性与不确定性的物质土壤。

此外,必须补充的是,即便是在看似纯粹的、可以依赖逻辑和网络搜索的理论性问题和知识类问题上, AI 也面临着巨大的、潜在的认知陷阱。

第一个陷阱是“信息的不可靠性”。 AI 的训练数据来源于互联网和现有文献库,而这是一个良莠不齐、充满噪音的领域。过时的理论、未经证实的谣言、充满偏见的主张,甚至是蓄意的虚假信息,都混杂其中。人类的智慧之一便在于,我们从小被教育要“批判性地吸收知识”,我们要懂得去追溯信息的源头,交叉验证,并依赖学术共同体建立的信任链条。而 AI ,尽管在技术上可以通过“溯源”来标注信息来源,但它内在是否真正建立起了对信息可靠性的“怀疑精神”和“审慎判断”,仍是未知数。与某些不够睿智的或存在严重思维定势的人类大脑一样,目前再聪明的人工智能,依然可能会以一种平铺直叙的、看似权威的口吻,复述一个来自非理性(或非睿智者)博客的错误观点。

这就引向了第二个,也是更哲学化的陷阱:将现有理论视为“绝对真理”的倾向。从认识论的角度看,对真理的探索本身就是一个不断证伪、不断逼近的过程。科学的可贵精神在于“可证伪性”。任何理论,无论它看起来多么坚实,在更精确的观测或更深刻的逻辑面前,都可能被修正甚至推翻。然而,当前 AI 的学习模式,在某种程度上是在“固化”现有知识体系。它倾向于将学到的内容当作既定事实来使用,缺乏一种根本性的、苏格拉底式的追问:“我真的正确吗?在什么前提下正确?”

这一点,即使是在数学和逻辑这类看似绝对正确的领域,也表现得尤为明显和有趣。

例如,一个经典的问题是:“ 1+1 等于几?”一个未经充分训练的 AI 可能会不假思索地回答“ 2 ”。这个答案在常识范围内是正确的,但从绝对严谨的逻辑角度看,它是不完整的。 1+1=2 这个等式百分之百正确的前提,是其中的“ 1 ”、“ 2 ”、“ + ”和“ = ”被严格限制在十进制之类的(或更学术地说,皮亚诺公理体系或集合论)对自然数的定义之下。如果我们改变这个隐含的前提,结论将截然不同。在二进制中,“ 1+1 ”不等于“ 2 ”,而等于“ 10 ”;在其他更加专业的数学运算中(比如布尔代数或模运算等),其结果就更五花八门了。

另一个生动的例子是:“ 9.2 和 9.11 哪个更大?”如果它们被定义为十进制小数,那么 9.2 显然更大。但如果它们被理解为版本号或章节编号(如软件版本 9.2 与 9.11 ),那么按照序列比较的规则, 9.11 会被视为比 9.2 更高的版本,因为“ 11 ”大于“ 2 ”。早期的一些 AI 在此类问题上“翻车”,其根源就在于,它没有理解到数字背后的“物理意义”或“语境定义”(或者说在训练中这类训练不足),而是机械地套用了数学比较规则。

这些看似简单的例子,背后隐藏着深刻的认知原理:真正的理解,意味着对“前提”和“定义域”的敏锐洞察。人类在成长过程中(尤其是聪明的大脑在智力发育过程中),通过无数次的实践和纠错,内化了一种能力——在面对任何问题时,会本能地去追问和确认其背景与定义。而 AI ,之所以会犯下这些错误,正是因为它在训练中尚未被“充分教会”这种对语境和前提保持高度警觉的思维习惯。它缺少了那种将抽象符号与丰富、多变的现实世界进行灵活映射的“常识”。

那么,解决上述诸多问题,走向更完整的 AI 智力的路径究竟何在?怀疑精神与好奇心的‘注入’和结构性缺陷的解决也许是根本。

DeepSeek 等模型的进步令人鼓舞,但它们所存在的共同缺陷也为我们指明了下一步努力的方向。要构建真正拥有深度智力的 AI ,我们不能满足于它们在海量信息占有和海量计算能力上的杰出表现,还要提升其在“提问”上所展现的怀疑精神及‘好奇心’,更要着力弥补它在“解决问题”上的结构性缺陷。具体而言,可行的方法至少包括以下几个:

1. 可能需要强化“批判性思维”训练。在模型训练中,不仅要灌输知识,更要植入对知识本身的怀疑、验证和溯源的机制。让它学会说“我不知道”“我还没有绝对的把握”,或者说“这个结论基于 X 来源,但 Y 来源提出了不同观点”。

2. 从提高思维效率和训练效率的角度来说,对现有训练数据的标注进行重新审视和适当地进行更为准确的重新标注,以及添加关于‘哪些知识和哪些具体例子是错误的,其错误的根源是什么”之类的(即不仅要让人工智能知道什么是可能正确的,还要让其知道什么可能是错误的,因为从正反两个角度进行学习和思考才是完整的认知结构和完整的学习方法),也许也是一个极为重要的方面。

3. 需要深化对“语境与前提”的理解。通过更精细的算法设计和数据标注,教会 AI 识别问题的隐含前提和定义域。让它明白,任何一个命题的真值,都严格依赖于其所在的框架。

4. 推动“具身 AI ”发展。让 AI 通过机器人等载体与物理世界互动,在“实践 - 反馈”的循环中学习,建立对因果关系的直接理解。

结语:对人工智能的探索,归根结底也是一场对人类自身智力的深度剖析。 DeepSeek 等人工智能的最新进展说明,智力的“ 3+1 ”结构正在被验证和拓展,同时,人工智能的这把火炬要想照亮更远的前路,必须植根于我们所在的这个复杂、生动且充满前提的真实世界。当 AI 不仅善于回应和发问,更能像一个具有严谨的怀疑精神的科学家一样,懂得如何通过严密的逻辑推理和科学的实践去验证一个个答案时,我们才真正迈向了一个全新的且可靠的智能时代。

转载本文请联系原作者获取授权,同时请注明本文来自钟定胜科学网博客。 链接地址: https://blog.sciencenet.cn/blog-3234816-1512341.html

上一篇: 病毒化的人工智能是比“人工智能意识的幻觉”更迫切的现实风险

主题:智力|反思能力|人工智能