4月2日,
核心突破:看得懂画面,写得出代码
作为原生多模态 Coding 基座,
原生多模态感知: 能够深度理解图片、视频、设计稿及复杂的文档版面,支持画框、截图、读网页等多种视觉工具调用。
超长视野: 上下文窗口大幅扩展至 200k,让 Agent 能够轻松处理庞大的工程项目或长篇技术文档。
性能跨越: 在多模态 Coding、GUI Agent(图形用户界面智能体)等核心基准测试中,该模型以更小的尺寸取得了领先表现,且确保了纯文本场景下的逻辑推理能力不退化。
典型场景:从“草图”到“成品”的秒级跨越
前端复刻: 只需发送一张草图、设计稿截图或一段操作录屏,模型即可理解布局、配色与交互逻辑,生成完整可运行的前端工程,精准还原视觉细节。
GUI 自主探索: 结合
交互式编辑: 支持通过对话直接增删模块、修改文案或调整布局,实现可视化的代码迭代。
赋能“龙虾”:AutoClaw 迎来视觉进化
在智谱自研的智能体
深度解读图表: 龙虾现在能直接看懂 K 线走势图、估值区间图及券商研报图表。
高效产出: 支持四路数据源在60秒内并行采集,自动生成图文并茂的专业分析报告或 PPT。
行业观察:编程不再是“盲人摸象”
随着