作者TreeMan (好啊...)
看板Stock
标题Re: [新闻] 马斯克等千人签署公开信:呼吁暂停巨型AI
时间Wed Mar 29 21:28:12 2023
公开信的原文:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
它里面提到4个自我省思,其中第1点:假讯息
是曾经/正在发生,而且造成实质损失
人类判读讯息真实性时,经验/直觉可以在新证据 (假设是新闻、讯息) 不多、不强
或物理上不可能时,达到足够的判断效果
而证据的重要组成:影像、声音、来源数
目前生成式模型已经可以很有力的产生人类无法轻易辨识的资料
以前人工时代较容易有破绽,数量也不够多
现在就是看谁算力够,就有机会产生足量且高品质的假资料
做为其恶性地宣传地证据
如果时间够长,平均来说还是可以判断真假
然而对於反应时间短,有机会造成损失预期的假证据
平均来说不会完全相信,但会进行某种程度的防御措施,避免损害
特别是做了也无损失的情况
例如2018年的卫生纸事件
看到新闻的人想着下班先买个卫生纸放着
然後看见彼此购买的行为又强化了缺少的感觉
最後就可以成真到某个时间点
而当生成式AI足够优秀的时候 (也许future of life预期可能是近年)
具有足够算力的组织或人
可以大量、多样化的高品质假证据时
就可以透过网路媒体 (传统媒体为了避免落後也会尽快跟上)
快速地传给许多人
再透过经实验确认过的真实帐号之反应状况
来评估滚雪球的状态
并早一步布局较有可能的成真的项目,从中获利
假想某个上市公司A的赚钱方式是用卫生纸做莲花来卖
然後有个邪恶组织有规划的短时间发布 多张不同超市 缺卫生纸的照片
搭配一些小短片 透过合成人脸和声音 告诉你真的缺卫生纸啦
因为卫生纸遭到大量抢购 (缺原料)
上市公司A就没莲花卫生纸可卖,邪恶组织就空爆他
或是趁他紧张 (时间压力) 高价卖他卫生纸
整个过程就像高级的诈骗简讯一样
只是诈骗简讯是广发後,属於易受骗的族群 (假设2.5%) 会中招
现在因为假证据升级了
邪恶组织可以透过"平均来说"的反应 进行後续规划
当然邪恶组织也有可能因为人类的非线性反应受损
比如说卫生纸都被囤光了 他因为知道这是假消息 所以没有多买
结果这组织就买不到 只好拿钱擦屁股 或去买更贵的卫生纸
另外是法律面
它也比诈骗简讯更高级了
因为你不是造成收讯者的损失
是造成收讯者反应後 某个倒楣鬼的损失
你也没有直接从倒楣鬼那边偷抢拐骗钱
而是依据他损失的反应而正当获利
这直觉很难...从法律去有效的制裁
承上,Future of Life Institute提出的应对方向是甚麽呢?
生产设备可追朔:...oversight and tracking of highly capable AI systems and
large pools of computational capability...
AI浮水印(类似基改标签):...provenance and watermarking systems to help
distinguish real from synthetic and to track model leaks
AI伤害的责任归属 (法律)...liability for AI-caused harm...
金援确保AI安全的研究...robust public funding for technical AI safety
research...
建构应对AI危害的组织 (AI管理局?) ...well-resourced institutions for
coping with the dramatic economic and political disruptions
(especially to democracy) that AI will cause...
一直以来都有针对生成式模型的辨识模型研究
但短期应该打不赢,因为生成式AI才吸睛又吸金
用AI去辨识谁是AI,避免灾害,比较像公共安全
而且技术上应该也很难 如果这样防卫模型是可买到的
就可以用它加入生成模型的训练
当然这样也可以增加生成式AI的成本就是
至於他们提到的6个月,感觉有点谜
股点...
如果有在开发浮水印类技术或符合前述目标的公司
应该可以投资看看 至少符合他们明面上的目标吧
--一些小补充--
现有AI建构的概念是输入 -> 模型 -> 标签
标签就是你要求模型将输入转换後的输出目标
输入 (文字叙述) -> 标签 (目标影像)
真实人类的生成内容充满了整个世界,很容易取得
但如果要训练辨识生成内容的AI (很粗略的称作防卫型AI),输入与标签就成为主要的问
题
你要先拿到生成模型 (GAN),可是没有开源的你要去哪拿?
就算你知道了网路架构,不同的训练方式和资料集差异
都可能让你的防卫型AI无法生效
自己用人判读,这很难成为有效率的方式
其他非生成式AI的应用,对於恶意防御也都很苦手
攻击的方式无穷无尽,而且不像以往程式病毒,攻击可以透过多个层面进行,包含实体
举例来说,我建立了侦测手枪的物件识别模型
就假设只要监视器画面出现手枪,不会误判而且一定抓得到 (这样好的模型只存在於幻想
世界)
但枪手只要把枪放在娃娃或遮蔽物内就好了,模型就die...
你拿不到恶意对手的模型,但恶意对手拿得到你的防卫产品来研究
总之,在资讯传播的恶意使用,可以透过生成式AI达到品质更高、更迅速的产出
如果停6个月可以将生成式内容都加上浮水印或有效溯源,我觉得OK啦
但各个平台变成要去增加检查浮水印的功能 (?开API去赚钱)
至於说是要妨碍对手竞争 可能性不高
在一般阅读内容的影像、语言、声音来说,资料充足
开发 (训练/最佳化) 速度 -> 硬体 -> 银弹
训练架构已发展到尽可能减少人的操作,并且硬体条件足够下训练时间可充分缩短
特别是参数调整、网路设计最佳化也可透过训练完成 -> 进一步缩短时间
生活化的生成式内容状况是这样
但很多领域的AI还很早期 (资料/标签缺乏或昂贵),有银弹也没用
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 42.73.201.119 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1680096500.A.8E4.html
1F:嘘 nidhogg : 论点很奇怪 03/29 21:29
2F:推 jimmihg : 以目前AI成长的速度,很快就会有AI生成Musk的影像跟 03/29 21:36
3F:→ jimmihg : 声音,而且会是极难辨识的情况 03/29 21:37
4F:→ jimmihg : 这也是Sam Altman推出chatGPT的原因,监管必须尽快 03/29 21:38
5F:→ jimmihg : 现在的政府根本不知道AI成长的速度有多快 03/29 21:38
6F:推 aimlin : 不用监管 进步才快 03/29 21:44
7F:推 abccbaandy : 同1F...这个哪需要AI,看我们不就是这样,媒体各种 03/29 21:46
8F:→ abccbaandy : 嘴炮,人民也随便相信 03/29 21:46
9F:推 aimlin : 等ai画a片 03/29 21:47
10F:推 chaoliu : 没错啊 黑道诈骗雇几个码农作假app 假网站博弈就赚 03/29 21:52
11F:→ chaoliu : 翻了 AI工具他们能拿来怎麽骗 你想想就发毛 开源是 03/29 21:52
12F:→ chaoliu : 错误的 绝不能开源 马斯克这点是错的 AI交给微软这 03/29 21:53
13F:推 linkmusic : 就是以前雇网军作的事,现在靠AI就能更大量带风向了 03/29 21:53
14F:→ chaoliu : 种有信誉的公司安排才是对的 03/29 21:53
15F:→ shliau : AI买股当冲期货程式 03/29 22:06
16F:推 s900527 : 微软有信誉?哪一个宇宙的微软 03/29 22:11
17F:推 gibbs1286 : 最後就是AI对抗AI 03/29 22:13
18F:推 wts4832 : AI发展阻挡不了的,最後只能用AI对抗AI,结论就是快 03/29 22:17
19F:→ wts4832 : 买AI股票发大财 03/29 22:17
20F:→ nwoyao : 还不是人为的假讯息害的 笑死 03/29 22:25
21F:→ codotsun : 笑死 这样不就共产极权才会做的事 03/29 22:27
22F:→ codotsun : 我没办法控制 所以全部ban掉就好 03/29 22:27
23F:推 clairehao : 第一个论点就很奇怪 ai更进步反而假讯息判断会更强 03/29 22:32
24F:→ clairehao : 吧 虽然假讯息也会变种 但科技不就是这样要发展改善 03/29 22:32
25F:→ clairehao : 下去吗 03/29 22:32
26F:推 boringuy : 你可以反向思考,利用AI过滤大量讯息分辨假讯息 03/29 22:36
27F:→ boringuy : 还可以抓出源头在那,科技只是工具怎麽利用的是人 03/29 22:37
28F:推 zaqimon : AI生成影像声音已经都有了吧 03/29 22:43
30F:→ zaqimon : 可惜AI还没学会炒股赚大钱 03/29 22:45
31F:→ zaqimon : 不然很快世界首富应该都会变成AI才对 03/29 22:46
32F:→ zaqimon : 还是比尔盖兹巴菲特那些人其实都是AI 03/29 22:47
33F:→ hnjsh : 看看本站的第一大版列车发车的次数,时代在进步,群 03/29 22:52
34F:→ hnjsh : 众分辨假消息的能力却越来越差了 03/29 22:52
35F:推 lavign : 以後line上聊天你妈也不一定是你妈 可能是AI 03/29 23:08
36F:推 vicklin : 简单来说就是利用AI的犯罪效率快要高到没办法防了 03/29 23:11
37F:推 lavign : 生成式zero day attack人类是挡不住的 03/29 23:13
38F:推 part19 : 掌握资讯的就赢 中间的往下沉 弱势的永远不得翻身 03/29 23:28
39F:→ opencat : 跑不赢别人 只好鼓噪暂停比赛 :D 03/29 23:39
40F:推 sd785 : 欧盟已经开始讨论针对AI立法了 可见疑虑真的很大 03/30 00:21
41F:嘘 HenryLin123 : 嘘项目 03/30 01:07
42F:嘘 deepdish : 大公司都偷偷用多久AI惹 不要找一堆藉口阻碍时代进 03/30 05:15
44F:→ deepdish : 惧怕AI? 审查困难...日经曝中国禁止科技巨头提供Cha 03/30 05:42
45F:→ deepdish : 4,520 views Feb 23, 2023 #大世界 #三立iNEWS 03/30 05:42
46F:推 honglu587654: 说到假讯息,如果是挤兑的假讯息,会不会造成恐慌? 03/30 06:02
47F:→ honglu587654: 毕竟现在把钱赚走也是在手机动动手指就能完成的事 03/30 06:03
48F:→ honglu587654: *转 03/30 06:04
49F:嘘 bleedwolf : 保守派思维,30年前:别看电视, 20年前:别上网,10 03/30 08:39
50F:→ bleedwolf : 年前:别用智慧手机,现在:我们要禁止AI, 事实就是 03/30 08:39
51F:→ bleedwolf : ,你永远档不住科技的进步,只能赶快跟上然後学会应 03/30 08:39
52F:→ bleedwolf : 用 03/30 08:39
53F:推 fancydick501: 事实 但不需要停下来 03/30 08:40
※ 编辑: TreeMan (42.73.201.119 台湾), 03/30/2023 09:00:41
54F:→ SkyShih : 你讲的不说AI,我还以为是台湾党媒 03/30 09:31
55F:推 seemoon2000 : 说实话 现在ai的进步速度 6个月可以让落後很多的大 03/30 09:58
56F:→ seemoon2000 : 幅追上 只有落後方会接受这种条件 要监管倒是没话 03/30 09:58
57F:→ seemoon2000 : 说 03/30 09:58
58F:推 acgotaku : 现在技术无法判别资讯的正确性的情况下 03/30 11:31
59F:→ acgotaku : 只能对所有在网路上的文字 图影 保持不可信的态度 03/30 11:32
60F:嘘 miyazakisun2: 用Ai对付ai 03/30 12:31
61F:→ miyazakisun2: 孤狗口罩的布来源 几秒钟就破解留言了 问题就是没 03/30 12:32
62F:→ miyazakisun2: 查证的习惯 03/30 12:32
63F:→ miyazakisun2: 硬要短时间冲来冲去搞高风险 然後怪环境 怪科技 03/30 12:33
64F:推 AdventurerCC: Deep fake 的危险性吧,我觉得确实有必要先考量 03/30 14:25
65F:嘘 weitin7011 : 神经病 你自己可以做别人不行就是 03/30 18:44
66F:嘘 quartics : AI进展太快,立法跟不上,一定是衍生一堆问题,加 03/30 19:57
67F:→ quartics : 上会大量失业,虽然技术造成生产力大幅提升,但结 03/30 19:57
68F:→ quartics : 果不见得就真的造福大多数人 03/30 19:57