2025AI发展
回顾 2025 年 AI 的发展,我逐渐形成一个明确的判断:在大模型能力持续增强的背景下,方向性的把控与人类理解能力本身,正在变得前所未有的重要。
这一判断并不是抽象的直觉,而是来自对 2025 年大模型技术路线与应用形态变化的整体观察。正如 Andrej Karpathy 在其《2025 LLM Year in Review》中所总结的那样,大模型的发展路径正在发生结构性变化。
在 2025 年之前,主流的大模型训练范式主要由预训练、SFT(监督微调)以及 RLHF(从人类反馈中强化学习)构成。而在 2025 年,一个新的、极度消耗算力的核心阶段开始显现出来:基于可验证奖励的强化学习(RLVR, Reinforcement Learning from Verifiable Rewards)。 与依赖主观人类偏好的 RLHF 不同,RLVR 使用的是可程序化、可验证的奖励信号,这类信号天然来源于数学、代码等高度形式化的领域。结果是:大模型在这些局部、可验证领域中的能力被持续放大,并呈现出明显的“加速效应”。
在应用层面,变化同样深刻。大模型正在从“网页中的服务”迁移为驻留在本地计算环境中的新计算层。无论是代码智能体,还是面向终端设备的本地AI,这一趋势都表明:AI 正在接入越来越底层的计算接口,并开始参与真实系统的运行与演化。
如果说这类工具标志着 AI 开始“住进”计算环境,那么 Vibe Coding 的兴起,则进一步改变了人与系统协作的方式。Vibe Coding 的关键不在于“把编程交给 AI”,而在于承认: 代码已经从一个完全可控的静态产物,变成了一个需要被持续引导、校准和评估的动态过程。
在这一过程中,一个耐人寻味的现象是:Vibe Coding 对经验丰富的工程师与初学者产生的效果几乎相反。随着 AI 逐渐承担具体实现细节,真正决定结果质量的,不再是局部代码技巧,而是方向性判断、系统架构理解以及整体约束的把控能力。开发者的角色也随之发生转变——从实现者转向调节者,从逐行控制转向整体判断。
2025 年应用层的另一个重要信号,来自新一代“原生图像能力”模型的出现。它们的核心价值并不只是“能画图”,而是体现在两点:第一,对图像中细粒度结构、文字与语义关系的精确理解;第二,在多轮交互中保持高度一致、可控的编辑能力,能够稳定地“只改该改的地方”。这实际上再次强调了一个主题:理解结构、保持一致性、进行精细约束,比单次生成能力本身更重要。
时代要求
基于以上观察,我逐渐形成这样一个方向性的判断: 在 AI 能力不断增强的时代,人类不仅需要“使用 AI”,更需要提升自身对复杂系统性知识的理解水平,才能真正驾驭 AI。
这意味着,AI 的价值不应只体现在“替人完成任务”,而应体现在帮助人类更高效、更可靠地理解复杂知识结构上。为此,我们需要重点发展两类能力:
对复杂资料进行逻辑与结构抽取的能力;
以符合人类理解路径的方式,对这些结构进行讲授、重组与呈现的能力。
这种能力的应用场景并不局限于教育,而是广泛存在于所有需要掌握和理解复杂知识体系的领域之中,包括但不限于:科研、教育、工业规范与运维手册、企业级技术文档、法律与合规、金融分析等。
归根结底,这不是一个“让 AI 更聪明”的问题,而是一个如何在 AI 时代持续放大人类理解能力与判断能力的问题。只有当人类能够更清晰地理解结构、把握逻辑、掌控方向,AI 才能真正成为可被驾驭的力量,而不是一个需要被被动应对的黑箱。
对复杂资料进行逻辑与结构抽取
在实际领域中谈“对复杂资料进行逻辑与结构抽取”,一个常见误区是:试图寻找一种放之四海而皆准的统一结构,用同一套模板去解释所有文本。但真实世界的复杂知识并不以“同一种讲法”存在,而是以不同问题压力、风险形态和理解难点存在于不同领域中。
因此,一个更可行、也更符合人类理解方式的做法是:承认结构在不同领域中的“表层差异”,同时抽取其背后稳定的“深层逻辑骨架”。
在实践中,这往往体现为几类高频、稳定的结构模板。
在法律、规范、政策和制度类文本中,最常见、也最关键的结构是:
问题 → 核心结论 → 条件 → 例外 → 反例
例如一条法规,本质上是在回答:“在什么问题背景下,主体被要求或被禁止做什么?”真正的理解难点并不在于“结论本身”,而在于适用条件、例外条款以及反例情形。因此,逻辑抽取的重点自然落在条件依赖和边界刻画上。结构清晰与否,直接关系到风险判断是否可靠。
而在科研、工程、数学和算法领域,结构往往以另一种形式出现:
直觉 → 失败例子 → 修正 → 正确模型
这里的复杂性并不来自条款密度,而来自错误直觉的迷惑性。如果直接给出“正确结论”,读者往往会产生“似懂非懂”的错觉。因此,高质量的逻辑结构抽取,必须显式识别:哪些是常见但错误的直觉,哪些例子会导致失败,以及模型是如何一步步被修正出来的。这类结构的核心价值在于帮助读者建立区分能力。
在复杂系统、企业文档、工业规范和运维手册中,结构又呈现出第三种高频模式:
整体 → 模块 → 依赖 → 风险点
此类文本的理解难点不在于“单条陈述是否正确”,而在于系统级的组合效应。一个模块在局部看似合理,但在依赖关系中可能引入风险。逻辑与结构抽取的关键,是识别系统的分层、模块之间的依赖路径,以及哪些节点是高风险或高敏感的。
乍看之下,这三类模板差异很大,似乎分别属于不同领域、不同写作传统。但如果从更抽象的层面看,它们其实共享同一套核心逻辑:都试图回答一个动机或问题背景;都明确一个核心主张或结论;都刻画成立的前提与边界;都暴露失败模式、反例或风险点;都隐含着“如何检验自己是否真的理解”的路径。
它们之所以呈现为不同结构,并不是因为“逻辑不同”,而是因为不同领域的关注点、风险形态和理解难点不同:法律关心适用与责任,科研关心区分与修正,系统工程关心依赖与失效。
因此,在实际领域中发展“逻辑与结构抽取能力”,并不是强行统一表达形式,而是: 在尊重领域差异的前提下,抽取稳定的逻辑骨架,并用最符合该领域理解压力的方式将其显性化。
这正是结构化理解的真正价值所在:不是简化复杂性,而是让复杂性以可被人类理解和驾驭的方式显现出来。
实现结构抽取的技术路线
目前没有完善的成型的架构。
检索增强 + 结构化证据链(RAG→Structure-RAG)
“信息抽取”路线:命题/关系抽取 → 逻辑图/概念图
篇章结构(RST/QUD)驱动的结构化理解
优:特别擅长“让人读懂”和“把主线讲清楚”
缺:RST 解析跨域鲁棒性、树/图表达力与成本仍是瓶颈
层级表示学习:段落/章节“摘要 token” + 结构路由
结构注入到 Transformer:不仅调注意力,还改表示与目标
强验证路线:形式化/可验证奖励(Verifiable/Programmatic Checks)
