作者lion741205 (狮子)
看板Soft_Job
标题Re: [讨论] AI还能够红几年? 以聊天机器人领域来说明
时间Mon Dec 9 22:38:37 2019
※ 引述《wang19980531 (中立评论员)》之铭言:
: 虽然现在实验室接到很多公司计画还是和机器学习相关,
: 但其实很多教授都觉得AI在走下去也过不了几年,
: 技术方面已臻成熟,玩不出什麽把戏了。
: 不知道业界怎麽看呢?
: 未来的发展是量子计算机吗?
虽然CV透过DL取得了重大进展,但在NLP领域,AI仍然处於发展初期,技术谈不上成熟,
以敝人负责的Chatbot领域来说,有个可以参考的例子,自从图灵测试在2014年被聊天机
器人Eugene通过後,加拿大学者改进测试的缺失提出了威诺格拉德架构挑战赛(Winograd
Schema Challenge),也是目前最具权威的AI竞赛。
该竞赛的第一轮是代词消歧问题(Pronoun disambiguation problems)。举例来说,当人
类分析句子时,会用经验来理解指代的对象:
一、市议会拒绝示威者,因为他们害怕暴力。
二、市议会拒绝示威者,因为他们提倡暴力。
而这个选择题只有两个答案,代词"他们"是指"市议会"还是"示威者",AI应该要指出在第
一句说的是市议会,第二句说的是示威者,从问题上可以发现,系统无法透过这段话的上
下文进行理解得到答案,这在实作上必须透过知识图谱(Knowledge Graph)进行推理,要
通过比赛拿到奖金25,000镁,准确率(Accuracy)必须达到90%以上,但目前最好的成绩只
有58%,远比人类低得多。
除了上述根本影响Chatbot问答品质的问题,还有几个难题仍未被突破:
1.通用的模型架构(Universal Model Architecture):为了整合语音辨识、词法分析、句
法分析、语意分析、深度学习,答案搜寻,对话管理、自然语言生成和语音合成等模组,
确保其相容性,当前Chatbot架构与模型相当复杂,管理较为困难,如何研发通用的架构
与模型,是未来所有同业的发展目标。
2.情感计算(Affective Computing):从分析文本的情感(Sentiment Analysis)到辨
识人类情绪的情感计算,例如开心、生气、哀伤等;可以让Chatbot与人交互时更有温度
,是目前产学界热门研究方向。
3.开放领域(Open Domain):现在的Chatbot只能做好特定领域的工作,如何建构开放领域
的知识,甚至不需要人工建构知识,让机器自学习,也是产学界正在努力的方向。
4.端对端(End to end):不经过传统的模组串联,利用深度学习(Deep Learning
)建立端对端的简洁模型;达到输入原始资料後,可直接得到想要的输出结果,但与此
同时还要支援多轮对话管理、上下文情境及知识图谱推理,避免安全回答,甚至是保持
Chatbot个性的一致性,正确的进行指代消解,这些挑战都是产学界近期的目标。
5.基於生成的模型(Generative Model):目前自然语言生成技术 ,可分为基於检索、基
於范本及基於生成两种方法,三者都可以导入深度学习技术,目前以基於检索及基於范本
为业界主流;虽然深度学习Seq2seq模型非常适合产生文字,但此基於生成方法尚处早期
的发展阶段,空间和时间复杂度高,实际应用效果不佳。
以上问题,可见AI还有很长的一段路要走;但不管准确率有多高,以商用Chatbot来说,
只要能节省足够的客服成本,就能让许多企业为高价的AI人才买单。以上是个人在业界
工作得到的经验,分享给各位同业;这个领域还有一堆做不完的工作,也鼓励研究生们
好好学习入坑。
文章被JPPT App吃掉了... 整理中
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 49.214.225.46 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Soft_Job/M.1575902319.A.1E0.html
→ followwar: NLP不是被BERT模型统治了吗... 12/09 23:15
智能客服VCA和助理VPA为了调控,敝司都还是以基於规则和基於统计方法为主,
深度学习为辅的;而且BERT预训练理解和生成所需特徵不一致,不适合用於自然语言生成
→ followwar: BERT是pretrained by unsupervised mask autoencoding 12/09 23:49
→ followwar: 要用在其他作业势必要finetune 该怎麽理解"不一致"之说 12/09 23:50
可以看一下这篇
https://zhuanlan.zhihu.com/p/70663422
推 sxy67230: Bert的问题比较像是当前纯原始语料资料本身就很精确, 12/10 00:17
→ sxy67230: 质量高的情况下再做大规模训练,但是我认为好的训练应 12/10 00:17
→ sxy67230: 该是要建立在资料源规模不复杂的情况下,像是XLNET或是A 12/10 00:17
→ sxy67230: LBERT 就是很好的尝试,回归语言建模的问题。 12/10 00:17
推 GGFACE: 没错 12/10 00:35
1F:推 sxy67230: 我打错字了 AR LM 跟AE LM12/10 00:46
2F:推 sxy67230: 然後人类视为智慧的聊天建立是更复杂的多重任务,包含12/10 00:51
3F:→ sxy67230: 生成、理解、先验知识的推理跟後验知识的检索、记忆、12/10 00:51
4F:→ sxy67230: 组合、情感,还有文化脉络的符号。12/10 00:51
感谢分享想法
5F:→ longlongint: 个人觉得 文法上是往前找最近的名词 只能是示威者12/10 11:23
6F:→ longlongint: 所以 一那个句子根据知识会觉得WT.....12/10 11:26
7F:推 followwar: 我理解了你的concern 那我说"Transformer"架构统治NLP12/10 13:16
8F:→ followwar: 也许更精准一点 我比较想说Architecture而不是TASK12/10 13:18
9F:→ followwar: 如同ResNet"架构"在CV领域的影响力12/10 13:18
可以同意你的说法,现在Transformer架构在NLP研究是主流,而且广泛应用於NLP的各种任务
10F:推 w0005151: 这ID有印象是个高手, 在业界混过看到的果然会不太一样12/10 18:58
谢谢 工作需要 也希望跟大家多交流
11F:推 iaminanl: 你举的这两句,我觉不同情境、不同人可能有不同答案12/10 19:19
这是Winograd模式的第一个引用的例子 但上下文情境不同 的确会影响答案
12F:推 leoloveivy: 花钱用azure 12/10 20:15
※ 编辑: lion741205 (49.214.225.46 台湾), 12/10/2019 20:29:44
13F:推 genius945: 推 感谢分享 12/10 23:50
14F:推 ILYY: 推 12/11 01:13
15F:→ DrTech: 这篇讨论没很专业吧,论文也没看几篇的人,chatbot通常是 12/11 22:12
16F:→ DrTech: 开放领域的"闲聊",才会用chatbot 这名词。 12/11 22:12
17F:→ DrTech: chatbot通常跟task-oriented的客服完全不同研究或实务产品 12/11 22:14
18F:→ DrTech: 路线。这篇却把chatbot 与客服扯在一起… 12/11 22:14
敝司把闲聊模组命名为Chatting Bot;你说Chatbot就代表闲聊,我并不认同,
可以参考一下英文维基百科的定义
https://en.wikipedia.org/wiki/Chatbot,
或中文IThome的介绍
https://www.ithome.com.tw/news/113445,事实上Chatbot一词
应包含开放领域的"闲聊系统"、特定领域的"问答系统"及"Task-oriented对话系统";
附带一提,即使是客服/商用VCA,大部分也都有Chit-chat系统模组,实务上密不可分,
只是不同产品着重的部分不同
19F:→ DrTech: 至於NLP被BERT统治?出社会工作了吗?还是在没业务的小公 12/11 22:17
20F:→ DrTech: 司? 真正流量大,即时性高的应用怎麽上得了BERT 12/11 22:17
21F:→ DrTech: 模型压缩,或知识蒸馏搞 下去,也不是叫BERT阿 12/11 22:18
22F:→ DrTech: 另外,先不说计算时间问题,BERT真没想像中神奇,BERT以及 12/11 22:22
23F:→ DrTech: 相关预训练模型出现,学术论文多,实务上真的帮助不大,一 12/11 22:22
24F:→ DrTech: 堆问题还是没有好方法。 12/11 22:22
的确 BERT有你上述说的问题 所以基於规则或基与统计的NLP检索和生成方法
才是目前商用VCA的主流 但包含VCA及VPA等Chatbot应用 未来的研究与应用发展方向
无庸置疑是BERT等Transformer架构
25F:推 sxy67230: open domain chatbot确实是跟任务导向的客服是不太一样 12/11 23:22
Chatbot不一定是Open Domain,可以参考我写的这篇《Chatbot的类型与对比》
http://www.lionethan.com/2020/01/chatbot%E7%9A%84%E9%A1%9E%E5%9E%8B
26F:→ sxy67230: 的东西。不过Bert不代表无法应用到高流量上。即时性取决 12/11 23:22
27F:→ sxy67230: 於你想应用的场域,不过就算是rule based 也很难做到ope 12/11 23:22
28F:→ sxy67230: n domain ,目前普通商用客服的应用顶多就是过去值机系 12/11 23:22
29F:→ sxy67230: 统的2.0版而已,商业上就是一堆人工建立问答检索,搭配 12/11 23:22
30F:→ sxy67230: 分类跟抽取,最多加上知识图谱、情感分析。当然上述都是 12/11 23:22
31F:→ sxy67230: 普通公司的应用。 12/11 23:22
32F:→ sxy67230: 然後这边确实很难有精彩的辩论,还是要去Reddit才比较 12/11 23:23
33F:→ sxy67230: 有可能 12/11 23:23
34F:推 jimmy55311: 推专业深度文 感谢大神分享经验 这篇主要是讲NLP未来 12/12 00:31
35F:→ jimmy55311: 的方向吧 後续讨论有点离题了 12/12 00:31
这篇主要是分享AI/Chatbot目前的难题 让大家知道现有技术还不够成熟
36F:推 friends29: 好文推 12/15 03:28
谢谢 可能很多人对这个领域不熟悉 希望能带给大家正确的观念
※ 编辑: lion741205 (1.164.176.235 台湾), 10/03/2020 15:42:45