作者f496328mm (為什麼會流淚)
看板R_Language
標題[問題] R mxnet deeplearning net調整
時間Mon Mar 13 00:58:01 2017
- 問題: 當你想要問問題時,請使用這個類別。
建議先利用 google 爬文,如輸入
「想查詢的關鍵字 site:webptt.com/m.aspx?n=/*/R_Language/」。
[問題類型]:
程式諮詢(我想用R 做某件事情,但是我不知道要怎麼用R 寫出來)
[軟體熟悉度]:
入門(寫過其他程式,只是對語法不熟悉)
[問題敘述]:
我想要用 R 中的 deep learning 套件 mxnet 做圖片mining
https://goo.gl/PUyF0K
使用上面別人寫好的net InceptionResnetStem
他要求是 Input Shape is 299*299*3
要怎麼改成別種大小?? 我圖片可能640*480等等
雖然可以利用一些方法降維到299*299*3
不過直接改net應該比較好
*3的意思是 應該是RGB三維 299*299就是正方形圖片
另外 它裡面還有寫好多種 net 最後的 get_symbol
是上面的 net 合併嗎?
因為我看它裡面包了所有的函數
一層一層就像是 deep learning 所以才包了這些
可是 get_symbol <- function(num_classes=1000, scale=TRUE)
並沒有輸入data的地方
它包了很多層 也就是說 我只要用get_symbol就好了??
-----------------------------------------------------------
謝謝
最近在玩 GPU 有跑成功一些例子 GPU真是超快
不過面臨到要調整別人的網路了
[程式範例]:
[環境敘述]:
linux mint18.1 GTX-1070
[關鍵字]:
mxnet
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.137.175.169
※ 文章網址: https://webptt.com/m.aspx?n=bbs/R_Language/M.1489337883.A.A64.html
1F:→ celestialgod: 這NET好複雜Orz 應該要用browser一層層試了= = 03/13 01:17
2F:→ celestialgod: 是用get_symbol就好沒錯~~ 03/13 01:17
聽說這是 google net + residual net的變形
感覺很強 不過很複雜 我盡量看了 還是不太懂299*299到底是哪來的
也找不到example
※ 編輯: f496328mm (220.137.175.169), 03/13/2017 01:25:44
3F:→ celestialgod: 299 * 299應該是原始設計就是那樣了 03/13 01:29
4F:→ celestialgod: 可能需要先把它整個圖畫出來 才知道怎麼改 03/13 01:29
所以比較簡單的方法 就是把圖片降維到299*299 ?
※ 編輯: f496328mm (220.137.175.169), 03/13/2017 01:34:03
5F:→ celestialgod: sym <- get_symbol(); write(sym$as.json(), "symbo 03/13 01:33
6F:→ celestialgod: l.json") 存下symbol看看 03/13 01:33
7F:→ celestialgod: 從json去推吧~~~ 03/13 01:33
8F:→ celestialgod: 不然可以用用看 mx.symbol.infer.shape 03/13 01:34
9F:→ celestialgod: 最簡單方法就是把圖片降維 03/13 01:35
10F:→ celestialgod: 不過也有可能他這個net最低是要用299 * 299 03/13 01:35
11F:→ celestialgod: 以上都適用~~ 這種NET 我也遇過 03/13 01:35
12F:→ celestialgod: 可能還是要餵資料進去看看才知道 03/13 01:35
嗯嗯 謝謝 我繼續摸摸看 不然就要看它的paper了
※ 編輯: f496328mm (220.137.175.169), 03/13/2017 01:37:35
13F:→ celestialgod: dat<-array(rnorm(299*299*3*10), c(299,299,3,10)) 03/13 01:38
14F:→ celestialgod: mx.symbol.infer.shape(sym, data = dat) 03/13 01:38
15F:→ celestialgod: 試試看XD 03/13 01:38
原來魔鬼藏在paper中
http://imgur.com/jO1bsL9
裡面有寫299*299怎麼來的 也有圖
PAPER在這
https://arxiv.org/abs/1602.07261
看來要找時間讀一讀了
※ 編輯: f496328mm (220.137.175.169), 03/13/2017 01:40:46
16F:→ celestialgod: 恩恩~~ 03/13 01:42
17F:推 Wush978: 用外部程式條圖片大小呢?例如用imagemagick 03/13 13:57
圖片是 480*640*3 降維到299*299*3 圖片還不太失真
只是維度好大 然後圖片有2萬張 RAM爆掉了
無法 input 所有的data 在想要怎麼處理 分次處理吧
不然就是找簡單一點的deep learning
※ 編輯: f496328mm (134.208.26.172), 03/13/2017 14:38:00
18F:→ celestialgod: 我記得mxnet可以讀ubyte資料,然後拆批做,但是我沒 03/13 18:24
19F:→ celestialgod: 什麼研究 03/13 18:24
我也是打算分批做 如果不行的話 就試試看VGG
※ 編輯: f496328mm (42.66.176.54), 03/13/2017 22:39:55
20F:推 spiderway: 想問你跑原本的model結果怎樣 03/19 10:22