作者Artx1 (Eji.Warp)
看板Vocaloid
标题Re: [分享] VocaListener paper 读後心得
时间Wed Jun 4 13:58:07 2008
这边想把重点放在meta-vocal synthesizer上头。
指的是「输入一组VSQ、然後产生另一个vocaloid DB用的VSQ」这个能力。
我们都知道Vocaloid DB彼此之间的特徵差异很大,所以VSQ通常不能通用,
要经过许多调整;这也使得不同DB之间要做和声的时候,会多耗费许多调整的劳力。
VocaListener的"メタ音声合成系统"(私以为可以翻成"meta-vocal synthesizer"),
其实对Vocaloid Editor这种「本身可以管理好几个Vocaloid DB」的软体来说,
是一种理应具备的功能,所以未来是应该整合进来会比较好。
当然,VocaListener也可以透过wav输入的方式,把Vocaloid2输出的wav,
转成另一个Vocaloid DB的参数;但是想来铁定会有误差。
(就算是转成同一个DB很可能都会有误差了)
VocaListener目前是以VSTi和Vocaloid2来连结,
但是以standalone软体的内部通联来说,其实应该有负担更低的连结方法才是。
75回音研上的发表成果,乍看之下已经有可以释出的品质;
但是仔细思考的话,其实要以什麽模式来释出,还有不少要考量的部分。
此外,先前有用MMV作乐器输入的部分,应该也会有人想到用VocaListener来做乐器输入,
不过我觉得它采用的辨识模型很注重人声表现,拿来抓器乐可能会lose掉太多东西,
不见得会比现行的filter要好。
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 123.204.3.179
※ 编辑: Artx1 来自: 123.204.3.179 (06/04 16:12)