来源:钛媒体
图片由AI生成凭借成功预测Polymarket筛选题目,连续登顶FutureX全球榜首的MiroMind团队,正式发布了其自研旗舰搜索智能体模型MiroThinker 1.5。
MiroMind由全球知名创新企业家、慈善家陈天桥,与清华大学知名AI青年学者代季峰教授联合发起。
去年,陈天桥提出,发现式智能才是真正意义上的通用人工智能这一重磅创新理念,引发全球业内人士关注。他同时提出,建设发现式智能的5种关键能力,其中一项能力,是在未知条件下重建对世界的理解,这正是MiroMind的使命。
在过去7个月里,MiroMind在思考一个更本质的问题:智能的奇点究竟在哪里?
他们给出的答案不是把世界背进参数里,而是押注“发现式智能”:真正的智能不靠全知,而靠会研究、会查证、会修正——像顶级情报官一样对外极速取证、对内严苛去伪存真;像严谨研究员一样在不确定性里逼近真相,最终把预测未来从特权变成能力。
MiroThinker 1.5:30B参数,闯入全球搜索智能第一梯队
MiroMind团队在AGI竞技场上,不信奉“大力出奇迹”,而是追求以高智效比为核心的巧劲。
MiroThinker-v1.5-30B仅用1/30的参数规模跑出了比肩众多1T模型的性能表现,其235B的版本在多个搜索智能体基准测试中跻身全球第一梯队。
BrowseComp性能对比
面对参数量高达30倍的万亿参数巨兽Kimi-K2-Thinking,MiroThinker-v1.5-30B用极低的成本展示了旗鼓相当的表现:
MiroThinker团队指出,以扩大模型内部参数量(Internal Parameters)为核心的传统Scaling Law已明显触及边际瓶颈;要继续提升模型性能,必须从内部参数扩张转向以外部信息交互(External Interaction)为核心的Interactive Scaling,将智能的增长空间从内部参数扩展到外部世界。
Agent搜索评测基准性能对比
为什么该模型能在大幅降低成本的同时,性能依然能打?
因为这不是大参数碾压,而是一次“科学家模式”对“做题家模式”的胜利。以Scaling Law为代表的路线,更像“做题家”:试图把全人类知识(也包括噪声与错误)尽可能背进模型里;一旦遇到生物学等领域的未知问题,就容易基于概率分布“编”出一个看似合理的答案——幻觉往往由此产生。
在MiroThinker v1.0中,团队首次系统性提出Interactive Scaling:随着工具交互频率与深度提升,研究式推理能力也稳定增强——这构成了与模型大小、上下文长度并列的第三个可扩展维度。
v1.5更进一步,把这套机制内化为贯穿训练与推理全流程的核心能力:将模型训练成“科学家”,核心不是死记硬背,而是勤查证。遇到难题时,它不会给出概率最高的瞎猜,而是执行慢思考的研究闭环:提出假设→向外部世界查数据/取证→发现对不上→修正假设→再查证,直到证据收敛。
主流大模型往往追求万亿参数,试图把整个互联网“背”在脑子里。而MiroThinker系列选择了一条反共识的路线:刻意将模型控制在30B–200B的轻量级规模。研发团队强调,省下的不是算力,而是把算力花在了更刀刃的地方——对外的信息获取与交互。
团队不追求让模型拥有一颗“最重的脑子”,而是培养它拥有一双“最勤的手”。当模型同时具备研究式确认机制与时序因果约束,这种围绕外部信息获取的交互过程才让发现式智能真正落地——也正是对Interactive Scaling的深耕,使他们用小得多的模型,做到了大模型才能做到的事。
MiroThinker 1.5核心技术揭秘
传统的模型思维链本质上是在模型内部知识空间的线性外推,推理偏差会随路径增长而不断累积,最终导致逻辑坍塌。
MiroThinker 1.5的核心发力点,在于通过Interactive Scaling打破孤立推理的僵局,将推理与外部环境深度耦合。通过构建“推理-验证-修正”循环,引入外部信息作为校验锚点,用确定性的证据流来对冲不确定性的推演,解决逻辑坍塌问题。
当智能的Scaling范式,不再局限于模型内部庞大的世界知识储备与缜密的长程逻辑推理,而是依托模型高频与外部世界中探索与交互并获得闭环反馈时,小而高效的探索者模型能展现比肩于,甚至超出大而严谨的思考者模型的智力水平。
MiroThinker 1.5正是基于这一判断,将Interactive Scaling从推理阶段的外挂能力,前移并内化为训练阶段的核心机制。模型并非被要求尽量在脑中想清楚一切,而是被系统性地训练成一个善于向外求证、敢于否定自己、能够快速修正路径的Agent。
在训练过程中,研发团队刻意削弱对“单次完美推理”的奖励,转而强化以下行为模式:
通过这种训练方式,MiroThinker 1.5逐步形成了一种本能反应:在不确定性面前,先交互、再判断;在高风险结论前,先查证、再收敛。这使得模型不再需要将庞大的世界知识全部内化为参数,而是学会在需要时,快速、精准地向外部世界借力。
最终,团队用更小的参数规模,换来了更高的智能密度:不是让模型记住更多,而是让它学会如何找到、验证并使用信息。这正是MiroThinker 1.5能在显著降低推理成本的同时,依然保持一线性能的根本原因。
时序敏感训练沙盒,是破解因果律的钥匙:普通大模型训练常处在上帝视角——它在数据里早已见过结果,学到的往往是复述与剧透,而不是预测。MiroThinker的训练则约束模型只能看过去,不能看未来,在严格的时间可见性约束下做判断,再用同样受时序约束的证据去验证与更新。
在这种训练范式下,模型被迫学会在信息不完备、噪声存在、信号延迟的真实条件下进行推演与修正,而不是依赖静态数据集中的标准答案。时间由此从一个背景变量,转变为塑造模型行为与推理方式的核心约束,使模型更接近真实世界中的认知与决策过程。(作者|李程程,编辑|李玉鹏)
特别声明:以上内容仅代表作者本人的观点或立场,不代表Hehson财经头条的观点或立场。如因作品内容、版权或其他问题需要与Hehson财经头条联系的,请于上述内容发布后的30天内进行。