作者silenthillwu (James)
看板Taipei
标题[闲聊] 人工智慧泡沫化、效用过度夸大
时间Sat Jul 29 14:38:34 2023
网址:
https://www.technice.com.tw/issues/ai/31060/
人工智慧生成文字内容 谎言、错误讯息充斥将毒害网路
2022-12-21
编译/庄闵棻
对 AI 来说,今年是疯狂的一年。从 DALL-E 2 到 Google 的 Imagen,从 Meta 的 Gala
ctica 、Cicero,再到 ChatGPT,AI完全是以我们跟不上的速度在发展,然而这引起了很
多我们从未见过的问题,让原本就可能充满不实讯息的网路又更加不可信了,以後网路可
能将会充斥各种假消息。
人工智慧生成文字内容 谎言、错误讯息充斥将毒害网路。示意图/123RF
《麻省理工科技评论》的记者表示,因为有了AI,网路上可能充满各种由机器生成的文字
内容又或是图片,而这些都将毒害网路,对人类在网路上搜集资讯造成误导。Google深度
学习研究部门 Google Brain 的高级研究科学家Daphne Ippolito就表示,在未来,要找
到高质量、有保证的 AI 训练数据会变得越来越棘手。
我们很容易会误以为由AI 创建的图片或一段文字是出自於人类。有时,即使由AI创造出
的文字内容可能听起来很正确,实际上却是充满谎言的。因此,如果我们盲目的相信AI
模型提供的未经过滤的健康建议,或任何其他形式的重要讯息,可能会产生严重後果。不
只如此,AI系统让产生大量错误讯息、滥用讯息和寄送垃圾邮件变得非常容易,因此我们
得到的各种消息都可能被扭曲。
本身,这些人工智慧就是透过网路资料来训练的,而因为任何人都可以编辑,网路资料原
本就充满了不正确性,包括了人类在网上写的各种有害、愚蠢、虚假、恶意的内容。但不
同於人类的是,AI 模型可能会将这些谎言当成事实,将它们转化爲自信而直接的语言,
并在网路上传播。
更严重的是,科技公司可能再次从网路收集训练人工智慧的内容。就这样反反覆覆,很有
可能会让AI越来越不准确,让网路上的内容又更加混乱与不真实。而人们还可能会以为这
些讯息都是正确的。这将造成很严重的问题。
好消息是,有分辨的方法。Ippolito说,AI生成的文本有一些明显的迹象。 人类的写作
很凌乱, 充满了拼字错误和俗语,因此,寻找这些错误和细微差别是识别人类所写文本
的好方法。相比之下,大型语言模型则透过预测句子中的下一个词来工作,不但有条理,
也很少会有错误。因此,只要认真观察,是可以看出差异的。
技术工具可以提供帮助,但人类也需要变得更聪明。而最重要的是,对於网路上的任何内
容,我们都应该抱有怀疑态度,并小心查证。
参考资料:MIT Technology Review
结论:
人工智慧和各种科技的应用一样,带来了许多便利性,但使用不当也可能带来灾难性後果
。
电脑和人脑一样,也会出错。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 101.138.68.172 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Taipei/M.1690612716.A.17E.html
1F:→ jpjp927: 错板? 07/29 16:36
2F:推 chinaeatshit: 反正板主也不会管理 没什麽差 07/30 00:10
3F:嘘 KingChang711: 原来没有板主呀?但是与地方任一板无关就还是要嘘 07/30 00:37