作者ians0606 (UBC)
看板iOS
标题[情报] 苹果新的照片审查机制
时间Fri Aug 6 09:42:27 2021
请问苹果利用iCloud 来检查iPhone 使用者是否
持有儿童暴力相关照片(性暴力或是虐待),这样不会违反他们的初衷吗? 苹果一直以来都给人一种顾客隐私终於一切的感觉,而且这个审查机制难保不会无限上纲到别的领域,例如手机偷拍或是一些外流影片等等。此外文中有提到这个技术不是扫描整台手机,而是他们有个资料库会自动配对儿童暴力的照片,但我是满好奇在技术上是怎麽做到这点的XD
原文:
https://edition.cnn.com/2021/08/05/tech/apple-photos-child-abuse-imagery/index.html?utm_content=2021-08-06T00%3A31%3A14&utm_source=fbCNN&utm_medium=social&utm_term=link&fbclid=IwAR3WKxVEgloYfpoyR38IhbDL92tv9hia7J_fRKjCgNo5Fr5GNA24G4AuwlY
-----
Sent from JPTT on my iPhone
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 101.137.219.141 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/iOS/M.1628214149.A.796.html
1F:推 e04bank: 不要问....很恐怖...... 08/06 09:43
2F:推 corum68972: 没记错的话google早就有对云端扫照片了 08/06 09:45
3F:推 roger840410: 当然是找一堆儿童色情照来training (x 08/06 09:48
4F:→ ians0606: 我也觉得是欸 因为要建立database首先就要找到那些儿童 08/06 09:51
5F:→ ians0606: 色情照片XD 08/06 09:51
6F:推 suichui: 不知道二次元的算不算 08/06 10:09
7F:推 pm2001: 技术上哪有甚麽问题 就图样辨识阿 08/06 10:31
9F:→ Xperia: ??? 08/06 10:47
10F:→ Xperia: 还以为苹果一直是站在隐私至上的立场 08/06 10:48
11F:→ xBox1Pro: 这要跟我百度云上的h漫被删掉一样了 08/06 11:01
13F:→ PopeVic: 可以参考官方技术文件,苹果并不是单纯的用影像辨识的方 08/06 11:47
14F:→ PopeVic: 式来侦测,而是在本机取得图片的 NeuralHash 值後再跟资 08/06 11:47
15F:→ PopeVic: 料库中的 hash 值比对,且比对的动作也是在本机执行。比 08/06 11:47
16F:→ PopeVic: 对的结果也会经过加密後才会上传到 iCloud,直到达到一 08/06 11:47
17F:→ PopeVic: 定的阀值後苹果才会解密并回报给 NCMEC。 08/06 11:47
19F:推 LonyIce: 自拍影片怕怕 08/06 11:52
20F:推 kyleJ: 看起来是只针对上传到云端的照片检查?Google倒是先部署 08/06 11:54
21F:→ kyleJ: 这个功能了 08/06 11:54
23F:推 pm2001: 一样阿 影像辨识原理也是取出特徵再做比对 08/06 11:54
25F:→ gonna01: 美国法规的规定吧 08/06 12:38
26F:推 chennylee809: 为了极少数的犯罪分子 监控全使用者 08/06 15:41
27F:→ chennylee809: 既环保之後 隐私也变笑话了 08/06 15:41
28F:→ PweDiePot: 影像辨识技术越来越强大了 08/06 16:17
29F:推 cmchiu: 这就影像辨识的其中一种... 08/06 17:18
30F:→ fufu8aa: 只差在图片不会被真的上传 08/06 18:27
31F:推 cevs: 笑了 还主打隐私 08/06 18:34
32F:推 dieangel006: 看个本子就出事了 08/06 18:47
33F:推 flosser: 跟中国网盘删掉我的A片库87%像。 08/06 19:21
34F:推 Bosung: 跟google云端一样吧 08/06 21:42
35F:推 ho83leo: 推Pop 08/06 21:56
36F:推 willschlafen: 不是 要怎麽知到是不是儿童的? 08/06 22:20
37F:→ LonyIce: 先用一堆儿童犯罪图片让它学习就知道了 08/06 22:41
38F:推 PopeVic: 回36楼,这点就是差别之一,苹果并不是用分类模型来判断 08/06 23:45
39F:→ PopeVic: 图片「像不像」儿童色情,神经网路只是用来提取图片特徵 08/06 23:45
40F:→ PopeVic: 值,再经过杂凑之後与「已知的」非法图片进行比对,所以 08/06 23:45
41F:→ PopeVic: 判断的方式是看有无与已知的图片「近乎相似」。它的概念 08/06 23:45
42F:→ PopeVic: 比较类似以图搜图,而不 google 相簿的场景辨识。故重点 08/06 23:45
43F:→ PopeVic: 在於已知的资料库内容,理论上要明确被列入资料库的非法 08/06 23:45
44F:→ PopeVic: 照片才会触发阀值。 08/06 23:45
45F:推 berserkman: 需要好好了解一下苹果和google照片辨识的差异 08/07 00:53
46F:嘘 fostertaz: 结果一堆家长拍小孩游泳被误报就好笑了。 08/07 06:14
47F:推 Koibito: 随便加个浮水印或裁一下边,照片Hash值应该就变了,无法 08/07 07:54
48F:→ Koibito: 辨识了吧? 08/07 07:54
49F:推 yahappy4u: 这真的有点难,隐私与儿童安全的拿捏 08/09 05:33
50F:→ yahappy4u: 但应该可以用不一样的方法维护儿童安全,不应这样侵害 08/09 05:43
51F:→ yahappy4u: 隐私 08/09 05:43
52F:推 neil25: 发育不良的女朋友被当儿童 苹果认证了 08/11 09:28