在 AI 视频生成大火的当下,“有画无声”或“声不对位”一直是影响沉浸感的最后一道屏障。针对这一痛点,阿里通义实验室近期推出了全新的视频生成音频(Video-to-Audio)框架——PrismAudio。该研究已被顶级 AI 会议 ICLR2026收录,核心旨在为视频自动配上严丝合缝的环境音效。

image.png

先思考再发声:引入“思维链”的配音大师

传统的配音模型通常是“直觉式”生成,容易出现马蹄落在地上却发出鸟叫,或者声音比画面慢半拍的尴尬情况。PrismAudio 的突破在于它学会了“先写笔记,再发声”。

轻量且高效:9秒视频配音仅需0.6秒

除了听得准,PrismAudio 还跑得极快。得益于自研的 Fast-GRPO 高效训练算法,该模型在性能跨越式提升的同时,保持了极高的运行效率:

行业观察:环境音效的“真”时代

PrismAudio 的出现,不仅为影视后期、短视频创作提供了强大的自动化工具,也为多目标生成任务提供了新的思路。当 AI 能够精准权衡声音的质感与空间感,未来的视频创作将真正实现“所见即所闻”。

论文地址:arXiv:2511.18833

开源地址:https://prismaudio-project.github.io/