Claude Opus 4.7 发布!留给人类的时间,不多了

作者:飞雪漫天 | 发布时间:2026-04-17 06:50:16 | 阅读:6833
科技基础设施成机器人“训练场”,为破解数据缺口提供支撑

这一版的不多了核心升级,和昨天介绍的发布 Routines 的新功能是目标对齐的:让 AI 能跑更长、更复杂的人类任务,还能自己检查结果,不多了减少你盯着它的发布时间。

定价上,人类与一代 4.6 相同,不多了$5 输入/$25 输出,发布每百万 token。人类

Opus 4.7 加了一个以前不太突出的不多了能力:在汇报结果之前,先自我验证一遍。发布

发现问题,人类就在内部修掉,不多了再给你答案。发布

听起来简单,人类但放在自主运行的场景下,这件事的意义就大了。以前我们让 Claude 连续跑几小时的任务,到最后才发现中间某步出了岔子。

现在,它自己能发现,自己能纠正。

你需要介入的时机,少了一层。

Rakuten 用 Opus 4.7 跑生产任务,解决率提升了 3 倍,代码质量「提升了 10 个数量级以上」。

在多任务工作流上,Opus 4.7 比 4.6 提升了 14%,工具调用出错率下降约 1/3,token 消耗也降低了。

更可靠,也更省钱。

视觉能力这次的提升,有些夸张。

Opus 4.7 支持最高 2,576 像素长边的图像,约 375 万像素,是之前的 3 倍以上分辨率。

官方提到的场景:生成界面原型、制作演示文稿、解读化学结构和技术图表,都是那种细节稍差就没法用的任务。

然后是 XBOW 给出的数据:计算机视觉感知基准上,Opus 4.7 得分 98.5%,Opus 4.6 是 54.5%。

从 54.5% 跳到 98.5%……

XBOW 的评价是:「彻底解决了我们的主要痛点。」

这个变化,对自主任务有极其重要的意义。

以前让 AI 看截图、读 UI、处理图文混排的文档,都有肉眼可见的失误率。这档分辨率的跃升,给了它处理视觉任务的基础。

Cursor 在 CursorBench 上的数据:Opus 4.7 拿到 70%,Opus 4.6 是 58%。

而Notion 的反馈则是:整体性能提升 14%,工具调用出错率下降约 1/3,首次通过了「隐性需求」测试项,就是那些没有明确说出来、但理应被理解的需求。

CodeRabbit 用在代码审查上:最复杂 PR 的召回率提升了 10% 以上,精准度基本没有变化。

Databricks 的方向是文档推理:文档推理错误减少了 21%。

Claude Code 这次,还新增了 /ultrareview 命令,专门跑一轮深度代码审查。

它会把所有改动完整读一遍,找出一个认真的 reviewer 会抓到的问题,包括 bug 和设计层面的隐患。

不需要你再另开一个对话、手动要求它帮你看。

一条命令,它自己跑完,给你一份报告。

Auto Mode 也向 Max 用户开放了,更长的任务可以跑起来不那么频繁被打断。结合前几天上线的 Routines,你可以在睡觉前配一个任务,设好触发条件,第二天早上看结果。

从而,让「AI 帮你值夜班」这件事,开始变得越来越顺理成章。

对开发者来说,这次新增了 xhigh 推理等级,位置在 high 和 max 之间。

以前 high 和 max 中间的跨度有点大,现在有了过渡档,可以在推理深度和响应速度之间做更细的调整。

另外,默认 effort 级别也从 high 升到了 xhigh,什么都不用改,模型应该就已经比以前更仔细了。

还有 Task Budgets(beta),让 Claude 在跑较长任务时自己管理 token 消耗,知道哪里该多花力气,哪里可以省。还在测试阶段,但方向是对的。

这次更新了 tokenizer,相同的输入内容,token 数量会比以前多出约 0% 到 35%。

好处是模型看到的信息更完整,输出更可靠。代价是成本可能上浮。

如果工作流对 token 计费敏感,切换时留意一下,官方有迁移指南。

今天,Anthropic 发了一个能跑更长任务、会自己检查结果、视觉能力大幅提升的模型。

前两天,Routines 上线,AI 开始主动巡逻,不用你 @ 也会自己盯着。

再加上 1M context、子 Agent、/ultrareview……

每一个更新单独来看,都是「一个小功能」。

但拼在一起看,我发现有一件事在悄悄发生:AI 需要我们人类介入的地方,一点一点在变少。

你凌晨两点在睡觉,它在帮你审 PR。

你周末在爬山,它在帮你同步文档。

你出去吃饭,它在帮你跑测试。

我偶尔会想,这……

到底是好事,还是坏事呢?

◇ ◆ ◇