Vibe Coding - 与 AI 结对编程工作流程

一个与 AI 结对编程的终极工作流程「Vibe Coding」旨在帮助开发者丝滑地将想法变为现实。本指南详细介绍了从项目构思、技术选型、实施规划到具体开发、调试和扩展的全过程,强调以规划驱动和模块化为核心,避免让 AI 失控导致项目混乱。20251218-2

>>展开阅读

混元世界模型1.5 - 腾讯混元开源的实时世界模型生成框架

混元世界模型1.5(Tencent HY WorldPlay)是腾讯发布的业界首个开源的实时世界模型框架,涵盖数据、训练、流式推理部署等全链路。核心是WorldPlay自回归扩散模型,采用Next-Frames-Prediction任务训练,破解了实时性与几何一致性难题。实时交互生成,通过原创的Context Forcing蒸馏方案和流式推理优化,能以每秒24帧的速度生成720P高清视频;长范围3D一致性,借助重构记忆机制,支持分钟级内容的几何一致性生成;多样化交互体验,适用于不同风格场景及第一、第三人称视角。混元世界模型1.5 - 腾讯混元开源的实时世界模型生成框架

>>展开阅读

SAM Audio - Meta推出的开源多模态音频分割模型

SAM Audio是Meta推出的开源多模态音频分割模型,从复杂的音频混合中精准分离出任意目标声音。通过结合文本、视觉和时间维度的提示,实现灵活、高效的音频处理,为音频编辑、去噪、声音提取等任务提供了全新解决方案。用户可以通过简单的文本描述(如“吉他声”)、在视频中点击发声物体,或者标记声音出现的时间范围来使用SAM Audio。SAM Audio - Meta推出的开源多模态音频分割模型

>>展开阅读

A2UI - 谷歌开源的Agent驱动型用户交互界面声明式协议

A2UI(Agent-to-User Interface)是谷歌开源的Agent驱动型界面协议,解决AI代理生成复杂交互界面的难题。通过一种声明式JSON格式,让AI代理描述用户界面的结构,客户端应用(如Flutter、Angular等)将这些描述转换为原生组件,实现跨平台兼容与动态更新。A2UI的核心优势在于其非执行代码特性,所有UI描述均为静态数据,不执行代码,从而规避了LLM生成代码的安全风险。支持渐进式渲染,适配对话场景中的实时交互需求,并且框架无关,同一JSON配置可以在不同平台渲染。能根据对话上下文动态生成表单、地图等组件。例如订餐时,AI可直接弹出带日期选择器的界面,避免繁琐问答。项目已集成至Gemini 3模型,可通过GitHub快速体验餐厅预订等Demo案例。A2UI - 谷歌开源的Agent驱动型用户交互界面声明式协议

>>展开阅读

Wan-Move - 阿里通义联合清华等开源的AI视频生成框架

Wan-Move是阿里通义实验室、清华大学等机构联合开发的开源AI视频生成框架,专注于通过精准运动控制技术实现高质量视频合成。核心技术是"潜在轨迹引导",能在现有图像到视频模型基础上无缝添加点级运动控制,支持5秒480P视频生成,运动控制精度超越主流开源方案22.5%。框架无需修改基础模型架构,通过复制第一帧特征到后续帧实现运动注入,适用于单目标、多目标及复杂场景(如多人互动、物体交互),并在MoveBench基准测试中取得FID 12.2、EPE 2.6的顶尖性能。用户可通过ComfyUI插件或云端平台体验,模型已在GitHub开源。Wan-Move - 阿里通义联合清华等开源的AI视频生成框架

>>展开阅读