DataScience 板


LINE

1. 很多representation learning的論文都有提到 避免使用batch normalization 會有i nformation leaking的問題。但這點我不太了解,有沒有什麼具體的例子? 2. 使用opencv, cv2.imread和cv2.imwrite 兩張圖(原圖和儲存的圖)竟有差別(看起 來一樣、但用我的辨識model預測結果卻不同),這樣是正常的嗎? 3. 使用triplet loss時,我將三張圖片(a, p, n),分別丟到同一model(ResNet18)產出( Ra, Rp, Rn), 以此方法進行訓練發現training loss在下降,但validation loss在上升(類似overfitt ing) 反而用contrastive learning訓練好的model,用triplet loss計算1個epoch(不更新), 得到更低的triplet loss。 表示triplet loss應該還沒收斂(有更好的distribution) 為何會如此呢? --



※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.13.42 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1626159062.A.2E3.html
1F:→ pups003: 1. 因為normalization 會使用到整個dataset的statistics, 07/13 18:14
2F:→ pups003: 超出一個batch內的資訊 07/13 18:14
3F:→ pups003: 2. 讀寫有的時候會standardize, 要看文件細節檢查一下 07/13 18:16
4F:→ pups003: Training based on triplet loss 通常需要特別的取樣方 07/13 18:19
5F:→ pups003: 式來避免選到trivial solutions 07/13 18:19
6F:→ wang19980531: 謝謝,可以再解釋一下trivial solutions的部分嗎 07/14 14:46
7F:→ wang19980531: ? 07/14 14:46
8F:推 numpy: 類似避免拿到太簡單的 triple,可以搜尋 (semi)hard negati 07/14 16:18
9F:→ numpy: ve mining 07/14 16:19
10F:→ followwar: batch normalization在training時只用自己的mean std 07/20 14:34
11F:→ followwar: 哪裡來的超出一個batch的資訊... 07/20 14:34
12F:→ followwar: *精準一點 只用自己目前batch的mean std 07/20 14:35
13F:→ followwar: 是 intra-batch information leakage 07/20 14:37
14F:→ followwar: 因為training時mean std是整個batch算 07/20 14:39
15F:→ followwar: 可以藉由這個資訊學到sample之間的不同 07/20 14:39
16F:→ followwar: 由於contrastive learning是要學自己跟別人不一樣 07/20 14:40
17F:→ followwar: BN偷偷幫助了這件事 07/20 14:41
18F:→ followwar: 所以變成model藉由BN來區分 本身並沒有習得資訊 07/20 14:42
19F:推 EQQD: BN running estimate怎麼沒有跨batch..... 07/20 16:10
20F:→ wang19980531: 10樓說的對吧 batch愈大愈接近整個dataset的dist 07/23 14:15
21F:→ wang19980531: ribution 07/23 14:15
22F:→ pups003: 建議去看原論文跟任何framework implementation 會比較清 07/24 23:38
23F:→ pups003: 楚 07/24 23:38
24F:推 r40491101: 2. 我很常也會遇到這個很雷的問題,檢查看看是否是儲存 08/01 23:11
25F:→ r40491101: 格式,如果是壓縮過得,例如jpg,再讀一次,去infer, 08/01 23:11
26F:→ r40491101: 結果會有些差異 08/01 23:11







like.gif 您可能會有興趣的文章
icon.png[問題/行為] 貓晚上進房間會不會有憋尿問題
icon.pngRe: [閒聊] 選了錯誤的女孩成為魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一張
icon.png[心得] EMS高領長版毛衣.墨小樓MC1002
icon.png[分享] 丹龍隔熱紙GE55+33+22
icon.png[問題] 清洗洗衣機
icon.png[尋物] 窗台下的空間
icon.png[閒聊] 双極の女神1 木魔爵
icon.png[售車] 新竹 1997 march 1297cc 白色 四門
icon.png[討論] 能從照片感受到攝影者心情嗎
icon.png[狂賀] 賀賀賀賀 賀!島村卯月!總選舉NO.1
icon.png[難過] 羨慕白皮膚的女生
icon.png閱讀文章
icon.png[黑特]
icon.png[問題] SBK S1安裝於安全帽位置
icon.png[分享] 舊woo100絕版開箱!!
icon.pngRe: [無言] 關於小包衛生紙
icon.png[開箱] E5-2683V3 RX480Strix 快睿C1 簡單測試
icon.png[心得] 蒼の海賊龍 地獄 執行者16PT
icon.png[售車] 1999年Virage iO 1.8EXi
icon.png[心得] 挑戰33 LV10 獅子座pt solo
icon.png[閒聊] 手把手教你不被桶之新手主購教學
icon.png[分享] Civic Type R 量產版官方照無預警流出
icon.png[售車] Golf 4 2.0 銀色 自排
icon.png[出售] Graco提籃汽座(有底座)2000元誠可議
icon.png[問題] 請問補牙材質掉了還能再補嗎?(台中半年內
icon.png[問題] 44th 單曲 生寫竟然都給重複的啊啊!
icon.png[心得] 華南紅卡/icash 核卡
icon.png[問題] 拔牙矯正這樣正常嗎
icon.png[贈送] 老莫高業 初業 102年版
icon.png[情報] 三大行動支付 本季掀戰火
icon.png[寶寶] 博客來Amos水蠟筆5/1特價五折
icon.pngRe: [心得] 新鮮人一些面試分享
icon.png[心得] 蒼の海賊龍 地獄 麒麟25PT
icon.pngRe: [閒聊] (君の名は。雷慎入) 君名二創漫畫翻譯
icon.pngRe: [閒聊] OGN中場影片:失蹤人口局 (英文字幕)
icon.png[問題] 台灣大哥大4G訊號差
icon.png[出售] [全國]全新千尋侘草LED燈, 水草

請輸入看板名稱,例如:iOS站內搜尋

TOP