作者Artx1 (Eji.Warp)
看板Vocaloid
标题Re: [分享] VocaListener paper 读後心得
时间Sun Jun 8 12:02:56 2008
※ 引述《miau9202 (凛光)》之铭言:
基於回应就是声援的心态,试着写一些个人有反应的部分。
: 看完原篇以及其他类似的讨论串,其实我心理还是感到蛮SHOCK的。
: 虽然在下还只是个微不足道的小调教师,但是VOCALOID相关技术的文章倒是读了不少。
: VocaListener刚出来时我还以为,只可能是个「仍需要手工修正」的技术。
: 当然,现在在下仍一直相信着。
其实还是需要"手工修正",只是它透过本身的流程设计、
介面的设计来降低"修正作业难度"的门槛。
首先,VocaListener设计上由於本身有反覆比对声纹的能力,
所以它特别提出"user来听Vocaloid反覆唱"的流程,
来模仿一般人在彼此教唱的时候摸索的过程。
其实这算是一种UI的设计理念....你只要在实际程式的显示画面搭上一些角色,
对user来说会非常类似实际与AI互动,即使其实只是流程工具而非AI。
这流程本身也在避免user必须直接碰到MIDI parameter accessing,
也在避免"职人技=高岭之花"的状况;当然这也有"针对cover曲调教太省工",
所以把门槛解决掉之後,没有处理过的cover曲很明显就会失去一般人的目光。
但是cover曲的世界也有漂亮的remix存在.... :)
也就是巧思还是有发挥的余地。
: PROLOGUE,这首随着技术而同时发表的DEMO,
: 也渐渐的随着一次一次的聆听而有抓到那种调教法的感觉。
: 才刚有些小心得,没想到,产研又释出了另一首DEMO,
: 自身的学习却无法跟上技术的进步。
RWC研究用音乐资料库的数量还蛮大的,虽然VocaListener的论文看来,
实际的demo只用了两首完整的曲子。
但是无论如何,VocaListener必须准备相当乾净的主唱轨,
所以要直接使用在cover曲的话其实难度还是非常高。
: 主题回到技术本身,在下觉得,虽然推出时会造成不少冲击,
: 但是就像是在下上面所说的,
: 这个技术还没有发展完全,就连VOCALOID本身也是一样。
: (C社的RIN的DB也有了重大更新,最近的冲击还真是不少)
Vocaloid在NAMM2007的时候有做过demo,当时藤本健先生以
"进步很多、但离人还有很大的距离"短短一句话就打发掉了,
这可以代表Vocaloid在目前的程度。
http://www.watch.impress.co.jp/av/docs/20070115/dal265.htm
第265回:ヤマハがフラッグシップシンセ「MOTIF XS」を発表
~ アナログミキサーなど、NAMM 2007出展制品を国内発表 ~
不过说实在的,和其他的技术一样。
如果它已经和人一模一样了才去考虑摸的人,我想已经比潮流晚了吧....
: 就算技术帮我们调教「近完成品阶段」的VSQ,不可避免的,
: 使用者还是得开VOCALOID进行「再调教」。(神人此时可能还不会因此消失。)
其实这边有两个疑问,在於你去调参数的能力、同时就代表去与程式介面格斗的能力。
有些人能开Vocaloid Editor慢慢调,但是有些人就会像提供Domino parameter一样,
去用数值输入来做更细部的处置,也就是说其实重点是在UI设计上。
MMV板上有人说很难用,反之日本那边也有人说很好用,相同的道理。
Vocaloid + VocaListener,其实只是达到过去人声在唱片制作流程上同等的对待而已。
: 再者,输入WAV的阶段,若使用者使用本嗓输入进去转换,
: 技术本身基本上会「原音重现」
: 也就是说,就算使用者音乐谱得再好听、填词填得多优美,没有足够的「歌唱技巧」,
: 无法与其需要的曲风相呼应,到时候要依赖的,还是我们的双手。
: (其实我还不太信任所谓的「补正功能」)
well,补正功能我想其实不必太认真的原因是,即使工具已经进步到可以realtime、
我们还是可以听得到很悲惨的现场,还有被唾弃的唱片,所以我想铁定是有限度的。
但是就和DigitalMusic版上的先进提供的录音用技巧一样,
你需要下一些苦心才能够录到、唱出有足够水准的音轨,
而这只是满足VocaListener的"输入资料"的门槛而已。
声纹反覆比对其实也可以用现有的工具来达成,
只是没有以Vocaloid为前提设计的VocaListener的整合度高、也还不方便。
所以,既然会原音重现,那就练到输入的原音很漂亮不就得了?XD
人唱得很棒就不需要用Vocaloid?「但是我就是希望能让ミク唱歌啊!」
爱是有很多实现方式的。
: 直说好了,VocaListener是帮助我们能够「快速作业」的利器,
: 但也能成为一把足以自残的利刃,一旦调教法被固定下来,往往会被沦为「世俗之流」。
: (程式这种东西,基本上还是蛮制式的,不管它给你多少「备案」,
: 还是得交给AI判定。)
: 物极必反,到时候又有好戏可看了。
: 如果以上言论有其不足或发言不当之处,请推文告知,谢谢!
门槛低了,低俗的玩法自然充斥;但是技术的价值其实就在这个时候显现。
MikuMikuDance初期就是充斥一堆没意义的玩法才会让人气流失,
这就是上面所谓的「世俗之流」;但是技术本身的价值仍然存在,
帮助了许多真正有爱的人实现自己的梦想。
现在能有这麽多MMD作品发光发热,原因也在此。
人当然都不希望"不劳而获",尤其是自己很辛苦,
别人却用工具很轻易取得成果的时候。
但是工具的出现,很可能会挖掘出很多有sense但是却没有实行能力的人。
追究起来,已知シグナルP(Hiroaki Arai,专业人士)
是最早以V-Vocal/auto-tune进行Vocaloid调教的人(仅止於台面上),
但是即使是实现神调教的方法,仍然没有多少人注意到这个流程。
不过シグナルP是把这技巧用在原创曲创作上,这可能是造成cover曲职人忽略的原因。
http://twinkledisc.web.fc2.com/index.htm
twinkledisc
http://www.nicovideo.jp/user/4632758
nico-user:twinkledisc
现在包含ぼかんないです><、VocaListener在内,其实都是声纹比对,
以及多或少的人手调整,基本观念是相同的。
重点在於:
不仅是调教技巧的部分人的参与度高低,
如果整个Vocaloid的发展方向单纯只是追求"接近人"的话,
那麽热潮必然不会持久的,透过原创曲目来发展新的音乐类型,
才是真正长期的音乐发展之道。
并不是说Cover曲意义不大,而是练功是进步的途径,
但是展现进步的成果,我想还是要走出自己的道路为佳。
技术是爬上高处的阶梯,但是人会不会踩空还是不小心被绊倒,
那又是另外一回事了。
-----
这边提出一个有趣的东西,是SONY CSL发展的技术:MMG(Music Mosic Generator)。
他是一种将事先制作的音乐片段简易地拼凑起来的方式来运作的音乐重组引擎,
将音乐的要素都视为meta-data来处理。
http://www.watch.impress.co.jp/av/docs/20070625/dal287.htm
ソニーCSLで开発中のリミックスエンジン「MMG」とは?
~ 谁でもリミックスできる音楽の新しい形を提案 ~
当然meta-data最後其实有效率的生成手法还是以人工为主。
不过作者宫岛靖先生有一段话很有意思:
百年後の人たちは、「昔の人は再生しかできなかったの?」
というようになるかもしれない。
也就是说,他提案的是每个人在制作音乐的同时,也都产生音乐的meta-data、
然後彼此生成自己想要的音乐,而不是只播放做好的作品....的世界。
(从曲目的random播放、变成情境式的片段生成....之类的技术)
在这个世界中,每个人都是remixer,因为remix变得很简单。
那麽,我们是不是说因为技术让这些手法变得很简单,所以就变得世俗了呢?
不论技术是不是让进入门槛变低,我相信有价值有sense的作品仍然会发光发热。
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 123.204.3.179
※ 编辑: Artx1 来自: 123.204.3.179 (06/08 12:12)
※ 编辑: Artx1 来自: 123.204.3.179 (06/08 15:22)
※ 编辑: Artx1 来自: 123.204.3.179 (06/08 15:25)
1F:推 miau9202:感谢您为卑微的在下作了如此详尽的解答! 06/08 18:12
2F:→ miau9202:不过仔细来看,我的回应好像口气不太好,如有不适,SORRY 06/08 18:17
3F:→ Artx1:你那是应有的危机感....XD 别在意 06/08 23:13
4F:→ Artx1:虽然我是希望音乐人不要妄自菲薄就是 06/08 23:13