作者Artx1 (Eji.Warp)
看板Vocaloid
标题[分享] 75回音研特报
时间Thu May 29 01:29:44 2008
太多有趣的东西_A_
1. VocaListener和预期中的一样,是从wav抽出音高与强度的工具
以下摘译自シンP於にゃっほん的report:
VocaListener的演算法流程大致如下。
a. 以歌唱资料与歌词做对照,决定发音时机。
(在此决定Vocaloid使用的的node位置)
b. 分析连接顺畅与否。
这主要是决定各node是不是连接在一起(normailze),否则就应该要切开。
(在此决定node长短)
c. 透过FFT作基频搜寻,以决定最接近的音程。
当然由於原始资料来自人类的歌唱录音,所以音高必然有可能有波动,
所以这边会开始用半因单位来做比例,所以会开始有误差。
(在此决定node的音高)
d. 同样是透过FFT来精细抓取音高值。
如果唱偏了会把偏掉的部分扔掉,只抓出波动的部分。
所以在这段会把人本来的音痴状况给滤掉w
并且会在这个环节替Vocaloid2 Editor可以接受的pitch资讯对输出资料做调整。
(在这一环决定PIT)
反过来说其实就是代表
"为了Vocaloid而做的设计等於是从这环才开始的,先前的流程则是通用的。"
从功能推测,这本来的目的应该是做为一般人用的的歌唱教学工具。
可以透过反覆分析来分析出实际的音高、并对使用者提出建议的"努力方向"。
根据後面2ch相关讨论串补充的资料得知,制作者主要是中野伦靖,
与指导者後藤真孝先生关联较小。
另外,根据にゃっぽん上头樋口优先生的MMV制作过程(他也跑来做类似东西了w),
Vocaloid Editor会自动对汇入的曲线做出特定的补正,机制有待解明。
e. 透过原资料来抓取音量大小。当然音量很难做到精确的关系,
会以整体的符合度高低来做调整。
(在这一环决定DYN)
以上是ぼかりす透过原始音源来获知各种资料的相关流程。
但是也有另外一个问题是,在d与e由於有做multi-pass的关系,
感觉上似乎过於拘泥於Vocaloid....如果把相关流程的精确度做一点折衷,
让後面的DAW软体来处理感觉上其实会比较简单。
所以从这边似乎可以看到,VocaListener一系列的开发与YAMAHA的关系。
----
後半有Crypton的佐佐木先生的演讲。
重点如下:
1. 没错,镜音リン会有update。时间点会在7月。
现场有做了一些demo,似乎改善不少。
部分重新录音,开发时间还多花了两个月,不过泛用性还是没有到ミク的程度。
(果然ミク是从未来来的黑科技....XD)
update之後新旧资料库可以并存。(这点是好消息!)
2. CV03大约是9~10月。
Vocaloid的制作过程真的是彻底手工...._A_|||
3. KAITO在推出到上ニコニコ之前大约只卖了五百套,上了卖了两千五百套...._A_
原厂只能苦笑。
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 123.204.3.179
1F:推 saltedfishxx:总觉得第三点原厂苦笑那一点有笑点....XD 05/29 02:08
2F:→ Artx1:KAITO好不容易靠nico追上MEIKO过去的总合。_A_ 05/29 03:38
※ 编辑: Artx1 来自: 123.204.3.179 (05/29 06:28)
3F:推 Kawasumi:好文一推 呃…所以ぼかりす有释出软体可以玩了吗?XDDDD 05/29 07:40
4F:推 Kawasumi:铃其实声音比ミク有力得多 只可惜发音不太准 05/29 07:47
5F:→ Artx1:没有~ 什麽时候出产品还没有计画~ > Kawasumi 05/29 12:26
6F:推 BVB:这个音研是在日本举办的吗@@" 05/30 09:13
7F:→ Artx1:yep,第75回音乐情报科学研究会 05/30 11:22