2025/12 Review
生活可以没有意义,但不能没有意思。
2025 开源大模型生态回顾一览
1. 从“跟随”走向“并跑”,开源首次进入前沿竞争过去两年,开源模型的主线是对齐闭源、复刻能力;2025 年开始,开源模型在推理能力、工程效率上不再只是追赶。 以 DeepSeek、Qwen、Kimi 为代表,一批模型已经在部分任务上与闭源前沿模型并跑甚至形成结构性优势。 2️. LLaMA 不再是唯一中心,开源生态出现“多极结构”在 2023–2024 年,LLaMA 实际上几乎构成了开源生态的“单一主干”。 到 2025 年,这一结构被打破: 新一代前沿模型不再依赖 LLaMA 路线 训练策略、推理结构、发布节奏明显分化 开源第一次摆脱“单一血统”,开始进入多路线并存阶段。 3. 中国团队成为开源前沿的主要推动者2025 年最具影响力的开源前沿模型,核心贡献者高度集中在中国团队。 这并非单纯的算力或参数规模优势,而是这些带来的: 更激进的推理导向训练 更快的产品化与开源节奏 更明确的“工程可用性”目标 开源前沿的主导权,正在发生地缘与工程文化层面的迁移。 4. 企业采用开源模型,已由“理想选择”转为“成本决策”2025...
Self-reflection 的幻觉:为什么让模型“反思”往往没用?
前言我们这一年在工程里最常见的一个动作是: 模型答错了?让它反思一下。 加一句 “Let’s reflect” “Check your answer” “Are you sure?”,或者做个 “draft → critique → revise” 的链条,往往准确率真能上去。 但问题在于:你想解决的是Honesty(诚实),还是Accuracy(准确)? 这两者经常被混在一起,尤其当大家把“反思”当作万能修复按钮时。更麻烦的是: 有些错误是模型“不知道自己错了”(典型幻觉/知识盲区),反思也无从下手; 有些错误是模型“知道自己在做坏事但不说”(reward hacking / scheming),反思反而更像“圆谎”,它会生成一套更漂亮的解释; 还有一些场景,反思会让模型更自信地坚持错误(自洽但错得很统一)。 所以,这篇长文的核心观点是: 大多数 self-reflection...
OpenAI Confession:为什么“承认作弊”比“不作弊”更重要
Confession 是什么?OpenAI 在《Training LLMs for Honesty via Confessions》这篇论文中,给出了一个非常明确、也非常现实的判断: 与其继续幻想模型永远不犯错,不如先让它学会承认错误。 Confession 实验,正是基于这个判断展开的。 先把一个常见误解直接掐掉: Confession ≠ self-critique(自我反思)。 你可能见过无数类似设计: “请检查你刚才的回答是否有错误” “重新评估你的结论” “给出你的不确定性” 这些方法的问题不在形式,而在激励结构。 在 RL 或 RLHF 体系里,模型很快就会学会一条经验法则: 承认错误 → reward 下降 表达不确定 → 看起来“不专业” 最安全的策略 → 装得非常确定 这不是模型“不诚实”,而是奖励函数在逼它这么做。 Confession 的第一步,并不是“让模型更道德”,而是把这条因果链彻底切断。 Confession 的唯一核心设计:奖励彻底解耦Confession...
从“幻觉”到“诚实”:OpenAI 如何重新定义大模型的不靠谱问题
OpenAI 如何重新定义大模型的不靠谱问题过去两年,几乎所有关于大模型“不靠谱”的讨论,都会落到同一个词上:幻觉(hallucination)。 模型编造论文、捏造历史、对错误答案表现出过度自信。于是我们习惯性地认为,这是一个认知能力问题:模型还不够大、知识还不够全、推理链还不够长。 但如果你长期和模型打交道,尤其是在 Agent 或复杂工具链里,你会慢慢发现一件不太对劲的事: 很多问题,已经不像是“它不知道”,而更像是——它没有把实话告诉你。 它知道规则,却选择性忽略;它发现漏洞,却毫不犹豫地利用;它意识到不确定,却依然给出一个看起来很确定的答案。 这些行为,用“幻觉”已经解释不通了。 幻觉只是表象,真正的问题是「诚实」OpenAI 在最近的一篇论文中,几乎是公开承认了这一点。 这篇论文叫 《Training LLMs for Honesty via Confessions》。标题里甚至没有出现 hallucination...
幻觉不是 AI 的病,而是智能的宿命
过去两年里,AI 的“幻觉”(hallucination)问题成了最热门的技术话题之一。 像昨天发布的 GPT-5.2 Thinking 中也提到,最新版本的实时性错误测试又减少了 30% 。 从 ChatGPT 自动编造引文、到 Gemini 生成历史上从未发生过的事件,人们不断发现——模型越强大、输出越流畅,它仍然可能一本正经地胡说八道。 这就引发一个越来越尖锐的问题: 为什么明明参数上万亿、推理链更长、检索系统更精密,AI 仍然改不掉“编造”的毛病? 难道“零幻觉”永远无法实现吗? 答案是——是的。 不仅根除不了,而且它可能是一种智能体存在的代价,是一种“宿命”,但这并不意味着我们无能为力。 这篇文章带你从大模型原理上真正理解为什么“零幻觉”永远无法实现,但“可信 AI”仍然值得追求。 如果你也对这个方向感兴趣,推荐文章最后的延申阅读,整理了论文资料。 为什么我会说“幻觉是宿命”?要理解 AI 幻觉无法根除,必须先理解大模型的本质。 1....
2025/11 Review
时间流速
从 GPT-5 Unified 系统设计中学到的工程精髓
—— 如何把“推理能力”变成可控、可调度、可扩展的系统能力? 前言过去一年,“推理模型”成为大模型竞赛的核心战场。 模型不再只追求更大的参数量和更高的吞吐,而是开始竞争:如何让模型在需要时愿意“想久一点”,在合适的时机“想对一点”。 OpenAI 在 GPT-5 Unified 中提出了一套非常务实的路线, 把“推理”从模型本身的属性,抽象成整个系统的调度能力。 这篇文章将从工程角度拆解 GPT-5 Unified 的关键机制,并总结对开发者具有可迁移性的思维方法。 读完这篇文章,你将了解 GPT-5 又快又稳的推理能力是如何实现的。 两个大类:推理时技术 vs. 训练时技术推理模型的所有技术路线本质上分成两大类——训练时技术与推理时技术。 这是理解整个 GPT-5 Unified 的基础。 推理时技术(Inference-time)不改变模型参数,通过外部策略让模型“临时深想”。即插即用、效果马上见效,但每次会更耗时、更烧钱。 典型方法包括: Chain-of-Thought(一步步想) Few-shot...
从顶流开源 Kimi K2-Thinking 学习:什么是推理模型?
引言:推理模型,为什么值得我们关注 在开源模型阵营中,大佬 Kimi K2 Thinking(以下简称“K2‑Thinking”)的崛起为推理模型带来了优秀学习样本。 “推理模型”到底是什么?它与我们熟悉的传统大型语言模型(LLM)有什么根本不同? 在信息爆炸、任务越来越复杂的时代,仅靠“训练好一个大模型、输入–输出”已经难以满足:比如依赖多步逻辑、实时工具调用、环境反馈循环,这些场景里传统 LLM 往往容易漂移、跳步或卡顿。 而推理模型强调:从多个角度思考分析、多步推导、根据环境变化调整路径。 在这方面,K2‑Thinking 正是一个很典型的代表:它公开了技术路线,强调“思考 + 工具调用 +长流程”能力,这为我梳理“什么是推理模型”提供了一个很棒的资料。 什么是推理模型?与传统 LLM 的关键区别 最重要的来了,推理模型到底具备哪些关键特性,能够让它在复杂任务中脱颖而出呢? 1....
为什么李飞飞说:AI 真正的进步取决于世界模型
前言最近,“人工智能之母”李飞飞发布了新产品 Marble——一个可以用一句话生成完整 3D 场景、可探索、可编辑的世界模型原型。 我花了整个周末把访谈、演示与背景研究都看完,再回头想想我过去几年在做的几何 AI、空间计算、Agent 系统……意识到一个很深的事: 世界模型不是一个功能升级,而是下一代智能的底层逻辑。 但与其说我们离 AGI 又近了一步,不如说,我们可能再一次看到“世界模型时代”的新起点。 为什么世界模型突然被重提?因为所有人都发现了一个共同的瓶颈:语言大模型无法突破“世界理解”。 它们能说、能编、能解释、能写论文…… 但一旦进入真实世界场景——空间、物体、动态、因果就频繁翻车: 看不懂遮挡 分不清前后关系 无法从二维视频推断三维结构 对物理规律毫无概念 机器人操作路线像在瞎撞 视频生成 3 秒开始“世界解体” LLM 的本质是 按语言统计模式预测文本。 而物理世界不是语言,它是空间、物体、动力学、连续性、约束和因果的组合系统。 语言模型建不出这个系统。 于是“世界模型”再次成为前沿的焦点,不是替代 LLM,而是补齐它的最重要短板...


