作者x090512319 (小夜)
看板iOS
標題[問題] iCloud 有踩到紅線的照片會被鎖號?
時間Mon Aug 4 22:59:21 2025
https://i.imgur.com/bS7J7kB.jpeg
剛剛看到討論區,有人的iCloud被鎖
下面有人回覆到
網友:(有聽過傳說,當上面有 未成年 幼兒的XXX 影片、照片,帳號就會被封)
https://i.imgur.com/h9gi37j.jpeg
這一點是真的嗎?
還是只是謠言?
純粹好奇
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.173.175 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/iOS/M.1754319563.A.178.html
※ 編輯: x090512319 (49.216.173.175 臺灣), 08/04/2025 23:05:51
1F:→ acanjian: 你可以自己試試:/ 08/04 23:13
2F:→ ankai: 畢竟美國有FBI 正常 08/04 23:23
3F:→ xup6ru0454: XXX定義很廣,如果是那個的話,被鎖不意外吧 08/04 23:44
4F:→ xBox1Pro: Google是有一堆案例 08/05 01:26
5F:推 botdf: 根據報導是沒有,2021年時因為多方抗議,Apple宣布終止CS 08/05 07:10
6F:→ botdf: AM,你用CSAM當關鍵字看看當時新聞。其實我個人也不是反對 08/05 07:10
7F:→ botdf: CSAM,但是Google這種偶有誤判,直接封幾乎無申訴可能性, 08/05 07:10
8F:→ botdf: 就讓人不會想用。 08/05 07:10
9F:推 p4585424: 樓上說了這麼多,原po圖中用icloud還是被封了 08/05 08:05
10F:→ p4585424: 雖然還不清楚那個人到底傳了什麼圖片上去 08/05 08:05
11F:推 pm2001: 何必聽說 直接寫信問蘋果客服阿 08/05 09:27
12F:→ zo6596001: 之前蘋果的做法是檢查hash,幾乎不可能誤判 08/05 11:39
13F:→ zo6596001: 除非蘋果有改規則 08/05 11:40
14F:推 xhl12000: 蘋果在最新(2024/9/16)的iCloud條款的 五 B. 3.有加入 08/05 12:12
15F:→ xhl12000: 兒童安全(含CSAM)條款了 08/05 12:12
16F:→ xhl12000: 根據條款蘋果無需你同意就拿刪除內容 08/05 12:14
17F:→ xhl12000: 並且你違規蘋果是可以刪除帳號的 08/05 12:14
18F:推 xhl12000: 結論:是真的可以刪你帳號 08/05 12:16
19F:→ xhl12000: 剛剛查看了2022及2023版的條款尚無 08/05 13:11
20F:→ xhl12000: 真的是2024條款加進去的 08/05 13:12
21F:推 getx105: 所以是幼兒的什麼影片?如果是違法的被鎖剛好而已 08/05 13:57
22F:推 gary861226: 二次元或動漫二創那種色色圖也算嗎?雖然我還是用Goo 08/05 14:09
23F:→ gary861226: gle的 08/05 14:09
24F:推 lianpig5566: 看來只能用NAS了...... 08/05 14:27
25F:→ botdf: 用hash所以Apple一定不會誤判? 你真的知道你在說什麼嗎 08/05 14:58
26F:推 Baternest: hash不會誤判是來搞笑的嗎? 08/05 15:48
27F:推 pmes9866: 蘋果的HASH不會誤判 08/05 16:20
28F:推 duke791110: 好像有人搞不清楚Hash的產生方式和用途喔 08/06 08:19
29F:→ ruffryders: 創意XX ? 08/06 10:23
30F:推 htps0763: 蘋果不清楚,谷歌一堆案例有人分享,有疑慮就別用雲端 08/06 13:01
31F:→ htps0763: 存照片 08/06 13:01
32F:推 silomin: 所以啦不要相信雲端多麼穩定有保障有隱私 有問題會出問題 08/06 13:16
33F:推 raphael0911: 開Advanced Data Protection(進階資料防護),如果 08/06 16:08
34F:→ raphael0911: 你需要的話。 08/06 16:08
35F:推 jhjhs33504: 蘋果的掃描在檔案加密狀態也能加密掃描還有專利的樣子 08/06 18:51
36F:推 g5637128: 雲端硬碟都這樣吧 08/06 19:55
37F:→ g5637128: 以前google不是就有人拍自己小孩被ban的 08/06 19:56
38F:推 jakechen1027: Google 那次是家長拍小孩的患處給醫生遠端診斷,結 08/07 16:33
39F:→ jakechen1027: 果就被判定是違規 08/07 16:33
40F:推 deolinwind: 審查制度是有罪推定,不要拿無罪推定的經驗來判斷 08/08 00:39
41F:→ timTan: 只有國家法律是無罪推定 08/08 09:41
42F:→ botdf: 那位被ban的,其實並沒有任何證據是因為CSAM而被鎖 08/08 10:07
43F:→ botdf: 只是這個討論串都朝這個方向猜,事實上iCloud TOC的規定 08/08 10:08
44F:→ botdf: 是要求使用者不得散佈CSAM素材,並沒有說會掃描CSAM 08/08 10:08
45F:→ botdf: 因為2024年底時,Apple還因為沒有執行CSAM掃描而被CSAM 08/08 10:10
46F:→ botdf: 受害者控告,這都是新版iCloud TOC後的事情 08/08 10:10
47F:→ botdf: 如果真有掃描,怎麼還會被告,另外有些宣稱因CSAM而被ban的 08/08 10:12
48F:→ botdf: 據說Apple只會去掃描那些利用iCloud分享功能而公開的素材 08/08 10:13
49F:→ botdf: 而非Apple去掃描iCloud圖庫 08/08 10:14
50F:→ botdf: 上面提到的進階資料防護,其原理應該就真的可以避免被掃描 08/08 10:15
51F:→ botdf: 沒開的還是開一開吧,不怕有CSAM素材,而是怕被誤判沒得救 08/08 10:16
52F:推 e04bank: 真的 08/08 16:30
53F:推 lianpig5566: 如果iOS是在裝置端進行掃描的話 開進階資料防護應該 08/12 21:05
54F:→ lianpig5566: 也沒用吧 畢竟裝置本身就可以解密了 08/12 21:05