AI Voice Layer

万音

给 AI 提供发声能力的能力层。

我们正在做的不是一个普通配音网站,而是一层真正可调用、可集成、可扩展的声音能力。 它要让聊天 AI、Agent、Bot 和工作流真正开口,并且后续能自然接上专属声音、角色身份和更完整的语音系统。

先把 AI 的声音层做出来。
再把它做成能力网络。

现在的主线很清楚:万音负责整体能力层,灵音作为第一阶段落地,先把 OpenClaw 场景下的统一发声入口做成真正可用的东西。

当前主线:统一接口 · 服务端优先 · TTS-first
万音 总项目。负责统一声音能力、统一接口、统一未来扩展方向。
灵音 第一阶段落地。面向 OpenClaw 的发声 Skill 和服务端入口。
网站 当前对外展示入口。负责讲清楚项目、Demo 和路线,不负责装作功能都已经完成。
第一阶段落地

灵音,先把 AI 真的变成“会说话”。

灵音不是单纯的文本转语音页面,而是万音体系下第一个真正落地的发声入口。它现在优先面向 OpenClaw,自带 skill、服务端、provider 路由和真实联调路径。

统一调用入口 用户和 Agent 不需要理解底层厂商差异,先统一调用,再由灵音负责路由。
服务端优先 灵音优先走自有服务端,把 provider 逻辑尽量收敛到服务器侧,不把复杂度丢给 skill。
先语音合成,再接专属声音 当前先把真实发声链路跑通,后面再自然替换成复刻声音和角色音色。
当前设计原则

少一点组件拼接。
多一点品牌、构图和节奏。

这个网站后续会继续按更严格的前端规则推进:首屏只做一件事、品牌必须强感知、不要默认卡片、每一段只承担一个职责。

首屏只做一件事 品牌、价值、CTA 和主视觉构成一个整体,不再堆 stats、badge 和一堆功能块。
每一段只承担一个任务 讲项目、讲灵音、讲路线各归各位,减少信息噪音。
网站像产品,不像模板 目标是让万音和灵音都有自己的辨识度,而不是像任何一个 AI SaaS 套皮站。

先把主链路打通。
再往里面继续加能力。

当前最重要的,不是把所有功能一次写满,而是先把 skill、server、provider 和真实输出这条主链路打通。只要这条链路稳定了,后面的专属声音、国产 provider 和更复杂的语音能力都可以继续往里面加。

Phase 1 · 灵音发声入口
Phase 2 · 真实 provider 收口
Phase 3 · 专属声音 / 角色音色
Phase 4 · 万音能力网络