作者Lyeuiechang (诚诚小屁孩)
看板iOS
标题[情报] 苹果回应解释放弃儿童性虐待材料(CSAM)检测计划的原因
时间Sat Sep 2 08:38:59 2023
【情报来源】
原网址:
https://www.ithome.com/0/716/194.htm
(原始未删减的网址,未提供者水桶60日)
【情报/优惠内容】(国外文章请附上简单翻译)
苹果回应解释放弃儿童性虐待材料(CSAM)检测计划的原因
【介绍或心得】
IT之家/故渊
2023/9/1 8:24:41
IT之家 9 月1 日消息,苹果公司在遭到媒体、非营利机构和消费者的诸多反对之後,於
去年12 月宣布,iCloud 云服务停止儿童性虐待材料(CSAM)检测计划。
这项检测计划於2021 年8 月开始测试,主要会检测存储在iCloud 的CSAM 图像资料,但
自推出以来备受争议。
https://i.imgur.com/l9soptc.jpg
苹果最初表示,CSAM 检测将在2021 年底之前在iOS15 和 iPad OS15 的更新中实现,但
该公司最终根据"客户、宣传团体、研究人员和其它方面的反馈" 推迟了这项功能。
一家名为Heat Initiative 的儿童安全组织本周告知苹果公司,正组织一项活动,要求公
司从iCloud 中“检测、报告和删除”CSAM,并要求为用户提供更丰富的工具,来向苹果
公司 举报CSAM 内容。
IT之家援引Wired 报导,苹果公司罕见地回应了Heat Initiative,苹果公司用户隐私和
儿童安全总监Erik Neuenschwander 在回应中概述了放弃开发iCloud CSAM 扫描功能的原
因:
"
儿童性虐待材料是令人憎恶的,我们致力於打破使儿童易受其影响的胁迫和影响链。
不过扫描每个用户私人存储的iCloud 数据,会成为数据窃贼发现和利用创造新的威
胁载体。
而且这种方式会导致很多预期之外的严重後果,例如扫描一种类型的内容为批量监控
打开了大门,并可能产生跨内容类型搜索其他加密消息传递系统的愿望。
"
苹果公司此前在关闭CSAM 计划时表示:
"
在广泛徵求专家意见,收集我们去年提出的儿童保护举措的反馈後,我们正加大对
2021 年12 月上线的Communication Safety 功能的投资。 我们决定不再推进我们之前提
出的iCloud 照片的CSAM 检测工具。
儿童可以在没有公司梳理个人数据的情况下得到保护,我们将继续与政府、儿童倡导
者和其它公司合作,帮助保护年轻人,维护他们的隐私权,让互联网成为儿童和我们所有
人更安全的地方。
"
相关阅读:
《 沉寂1 年多後,苹果宣布iCloud 放弃儿童性虐待材料(CSAM)检测计划 》
心得/评论:
Wired 报导原文:
https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/
Apple’s Decision to Kill Its CSAM Photo-Scanning Tool Sparks Fresh
Controversy
Child safety group Heat Initiative plans to launch a campaign pressing Apple
on child sexual abuse material scanning and user reporting. The company
issued a rare, detailed response on Thursday.
以下引述 Erik Neuenschwander 的说法:
“Child sexual abuse material is abhorrent and we are committed to breaking
the chain of coercion and influence that makes children susceptible to it,”
Erik Neuenschwander, Apple's director of user privacy and child safety, wrote
in the company's response to Heat Initiative. He added, though, that after
collaborating with an array of privacy and security researchers, digital
rights groups, and child safety advocates, the company concluded that it
could not proceed with development of a CSAM-scanning mechanism, even one
built specifically to preserve privacy.
“Scanning every user’s privately stored iCloud data would create new threat
vectors for data thieves to find and exploit," Neuenschwander wrote. "It
would also inject the potential for a slippery slope of unintended
consequences. Scanning for one type of content, for instance, opens the door
for bulk surveillance and could create a desire to search other encrypted
messaging systems across content types.”
这件事情总算是正式落幕了,
他们也算是正式承认大众最为担心的点,
也就是 CSAM资料库被抽换成或添加政府维稳需要的字词或者资讯,
并且系统可以加以延伸判断图片以外的事情,
且不会破坏点对点加密,所以非常「有隐私」。
个人觉得是很高兴看到苹果至少在这件事情上有最後撤回并给出正式的理由,
当初一度炎上 Reddit 的时候基本上闹得沸沸扬扬,EFF 还直接开无人飞机去总部抗议,
当初一度也没有做出任何道歉然後一直辩解,
连自家的金招牌 Air Force 1 (库克说法) 都拿出来当挡箭牌,
让很多人看了更加的愤怒,
最终导致九月那场预录发布会苹果根本连一个「隐私」字词都不敢提。
https://www.eff.org/files/banner_library/apple_plane_photo-edited2.jpg
https://www.eff.org/deeplinks/2021/09/why-eff-flew-plane-over-apples-headquarters
https://www.youtube.com/watch?v=OQUO1DSwYN0
不过也许他们当初真的很纯真的觉得这样做很好,也许...
--
1F:推 Lyeuiechang: [新闻]有狼师一直戳女学森(.)(.)而被家长吉上法院...12/04 23:42
2F:→ Xhocer: ) (12/04 23:44
3F:推 xj654m3: ( Y )12/04 23:46
4F:→ Xhocer: \|/12/04 23:48
5F:推 xj654m3: (╮⊙▽⊙)ノ|||12/05 00:47
6F:推 Lyeuiechang: /|\╰╮o( ̄▽ ̄///)<12/05 01:17
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 123.192.87.99 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/iOS/M.1693615142.A.E2D.html
※ 编辑: Lyeuiechang (123.192.87.99 台湾), 09/02/2023 08:39:49
7F:→ BlueSat : 只要不在本地扫描我就没差,不要耗我的电干这种事 09/02 09:22
8F:→ BlueSat : 情 09/02 09:22
10F:推 ShaoRouRou : 其他公司不是也有类似的功能吗 还是不太一样? 09/02 09:45
11F:推 adon0313 : 毕竟主客群 09/02 09:47
12F:推 cka : Google也有扫描你相簿,发现儿童色情会直接封锁你go 09/02 09:48
13F:→ cka : ogle帐号 09/02 09:48
14F:→ cka : 所以google现在没事吗? 09/02 09:49
15F:→ kouta : google 就无敌啊 09/02 10:00
16F:→ hidexjapan : 但google没有大张旗鼓的拿隐私来打广告和洗脸对手 09/02 10:04
17F:推 milkBK : 会一直回报 杂讯变多吧 09/02 10:18
18F:推 jickey : 正确的决定,Apple主打隐私结果主动扫描客户照片根 09/02 10:22
19F:→ jickey : 本拿石头砸自己的脚 09/02 10:22
20F:→ jickey : 一开始不知道是谁脑袋撞到拿这个来宣传 09/02 10:23
21F:推 lovez04wj06 : Google是大到你拿他没皮条,甚至一堆被锁的是正常 09/02 11:04
22F:→ lovez04wj06 : 父母的子女纪录照片 09/02 11:04
23F:→ lovez04wj06 : 这东西法规和各种理由不能能透过人工审核,但程式 09/02 11:05
24F:→ lovez04wj06 : 判别误判机率超高,根本傻逼 09/02 11:05
25F:推 berserkman : 推10楼 09/02 11:34
26F:推 cityport : 大概发现的第一个人是Hunter Biden..只能放弃计画 09/02 11:49
28F:推 z897899878 : google哪有大到没皮条,一堆人看东西会被扫描都选择 09/02 12:37
29F:→ z897899878 : 别家或自己架NAS了 09/02 12:37
30F:推 raphael0911 : 苹果真的注重用户隐私,反观Google相簿和那搞笑的Ch 09/02 13:33
31F:→ raphael0911 : rome挡广告。 09/02 13:33
32F:推 dahlia7357 : 跟D4扫描你箱子一样蠢 09/02 13:46
33F:→ akemidk : 就说色色图不要传上云端,每天都被AI挑除了,给宅 09/02 13:51
34F:→ akemidk : 宅工程师观赏过滤 09/02 13:51
35F:推 yuinghoooo : 竟然有人会觉得cloud有隐私 09/02 15:49
36F:推 RaiGend0519 : 云端备份跟热存取本来就要分开 09/02 17:15
37F:→ RaiGend0519 : 热存取一个帐号,压缩加密上传一个帐号 09/02 17:15
38F:→ RaiGend0519 : 以前常看人笑对岸百度会扫档,结果现在Google青出 09/02 17:16
39F:→ RaiGend0519 : 於蓝 09/02 17:16
40F:推 LonyIce : 虽然孩童保护立寓是好的,但国外有些矫枉过正到跟 09/02 18:47
41F:→ LonyIce : sjw 差不多了,就像 google 一样 09/02 18:47
42F:推 Kydland : Miula之前就有说过 很多抓到的根本就是正常照片 09/02 19:46
43F:→ Kydland : 而且几乎都是父母帮小孩的纪录 结果误判过头 09/02 19:46
44F:→ Kydland : 欧美左胶对儿童性保护到不可思议的地步 09/02 19:46
45F:→ Kydland : 只要拍儿童 就会被认定有性意图 矫枉过正 09/02 19:47
46F:→ Kydland : 自己有性幻想就认为大家都有性幻想 可悲左胶 09/02 19:48
47F:→ kouta : ...美国儿童剥削比较严重 楼上不用什麽都扯左胶 09/02 20:33
48F:推 bleach1991 : 满嘴扯左胶政确SJW也该看一下场合 美国就是儿童 09/02 20:53
49F:→ bleach1991 : 性剥削太严重才会有这种反动 09/02 20:53
50F:推 twmadrid : google我大多都是存pornhub直播主的图 09/02 22:17
51F:→ twmadrid : 还有斗阵特攻的 也被锁 09/02 22:17
52F:→ twmadrid : 还讨不回来 超扯 09/02 22:17
53F:→ twmadrid : 那些图随便一看都是成年人甚至有的还有阿姨味咧 09/02 22:17
54F:→ cityport : 重点不在CSAM吧,是苹果担心iCloud被骇客拿来扫全网 09/02 22:48
55F:推 siegfriedlin: 百度最会扫了吧 但挡的住吗 09/03 01:09
56F:推 dragon6 : 估狗那种流氓的作法所以我才不敢去用他的相簿 09/03 01:44
57F:→ dragon6 : 隐私看光光,误判还不给申冤的 09/03 01:45
58F:推 Urushi : 某几楼这种事情也要扯sjw左胶,先搞清楚状况吧 09/03 08:02
59F:推 bin12 : # icloud有隐私? 09/03 11:12
60F:→ bin12 : # 云端照片都被看光光 09/03 11:12
61F:→ bin12 : # 更别说siri会偷听对话 09/03 11:14
62F:→ bin12 : # 然後塞广告给你 09/03 11:14
63F:→ qoopichu : 楼上请问哪家云端服务不会检查你档案的? 09/03 12:30
64F:推 bin12 : # 我有说哪一家不会检查吗? 09/03 15:41
65F:→ bin12 : # 不必这麽急着 帮苹果护航 09/03 15:41
66F:推 lovez04wj06 : 笑死,很急着黑喔 09/03 21:52
67F:推 Melmetal : #一堆#看了很躁= = 09/03 21:53
68F:推 whrth2002 : 儿童情色还是很需要被即早发现和处理啊…. 09/03 22:16
69F:→ jamt : 不过挺好笑的,一堆人骂Google却有些人还买pixel巴 09/04 01:34
70F:→ jamt : 着无限相簿不放喔 09/04 01:34
71F:推 mdfkmdfk : Google就广告商怎麽可能注重隐私 09/04 07:29
72F:推 eon4 : 几年前吹说自己不提供FBI手机解锁 保护隐私好棒棒 09/04 13:37
73F:→ eon4 : 现在扫描客户的云端资料竟然就可以??逻辑坏死 09/04 13:37
74F:→ qoopichu : 以为自己在用脸书吧 09/04 17:42
75F:→ d58974 : 受害最深的是父母跟儿科医师吧,好几个案例都是父母 09/06 08:29
76F:→ d58974 : 帮小孩纪录生病状况跟医师讨论,还有儿科医师记录病 09/06 08:29
77F:→ d58974 : 况,结果因为儿童裸露,或者有受伤状况整个iCloud被搞 09/06 08:30