00:00 / 3:00
返回首页
2026年4月17日 星期五 AI Tech 简报
开场介绍
⋮⋮
00:00
你好,这里是隅音社每日技术简报。
⋮⋮
00:03
今天是2026年4月17日。
⋮⋮
00:05
今天有两条重要的产品更新值得关注。
⋮⋮
00:08
首先是Anthropic 发布了Claude Opus 4.7。
⋮⋮
00:11
这是继Opus 4.6 之后的一次重要升级,主要聚焦在高级软件工程能力上。
Claude Opus 4.7
⋮⋮
00:17
从技术角度看,Opus 4.7 有几个关键改进。
⋮⋮
00:21
第一是长时任务处理能力,模型能够更可靠地处理复杂、多步骤的编程任务,而不会中途放弃或偏离。
⋮⋮
00:29
第二是指令遵循能力的提升,模型会更严格地执行用户指令,而不是像之前那样“灵活解读”。
⋮⋮
00:36
第三是视觉能力的增强,现在支持最高2,576 像素长边的图像输入,大约是之前的三倍多。
⋮⋮
00:45
实测数据方面,在多个第三方评估中,Opus 4.7 展现了不错的表现。
⋮⋮
00:51
比如在Devin 的内部基准测试中,它在长期自主任务上的表现有显著提升。
⋮⋮
00:56
Cursor 团队表示,Opus 4.7 在他们的基准测试中达到了70% 的通过率,比Opus 4.6 提升了12 个百分点。
⋮⋮
01:05
定价方面,Opus 4.7 保持与上一代相同:每百万输入token 5 美元,输出token 25 美元。
⋮⋮
01:13
开发者可以通过API 使用claude-opus-4-7 这个模型标识符。
⋮⋮
01:17
另外值得关注的一点是安全措施。
⋮⋮
01:20
Anthropic 为Opus 4.7 部署了新的网络安全防护机制,能够自动检测和拦截高风险的网络请求。
⋮⋮
01:28
他们还启动了Cyber Verification Program,为合法的网络安全研究提供访问通道。
技术改进
⋮⋮
01:33
第二个重要更新来自Google Gemini。
⋮⋮
01:36
他们推出了Personal Intelligence 功能,让图像生成更加个性化。
⋮⋮
01:40
这个功能的核心思路是利用用户的个人上下文和Google Photos 图库来辅助创作。
⋮⋮
01:46
以前要生成个性化图片,你需要手动上传参考照片、写详细的提示词。
⋮⋮
01:52
现在系统会自动理解你的偏好,你只需要简单说一句“设计我的梦想之家”,它就能根据你连接的Google 账号中的信息来生成符合你品味的结果。
定价与安全
⋮⋮
02:03
如果你想把家人融入图片,也可以直接要求“生成一张我和家人的水彩画”,Gemini 会自动识别你照片库中的人物标签。
⋮⋮
02:11
系统还提供了调整空间,如果结果不满意,可以点击加号更换参考图,或者通过Sources 按钮查看模型选择了哪张照片作为参考。
⋮⋮
02:21
隐私方面,Google 强调不会在私有照片库上训练模型,只在用户明确连接Google 应用的情况下使用数据,并且用户可以随时在设置中调整。
Gemini更新
⋮⋮
02:32
这个功能目前面向美国的Google AI Plus、Pro 和Ultra 订阅用户逐步推送,未来会扩展到更多地区和平台。
⋮⋮
02:41
除此之外,OpenAI 的Codex 也迎来了多项更新。
⋮⋮
02:44
Sam Altman 提到,新版本支持Computer Use 功能,可以在Mac 上并行使用所有应用程序,同时不会干扰你的直接操作。
Codex更新
⋮⋮
02:53
这个功能对开发者来说可能会显著提升工作流效率。
⋮⋮
02:57
以上是今日的技术简报,感谢收听。