作者Dmix ()
看板Python
標題[問題] import pandas 程式執行速度問題
時間Sat Apr 30 13:11:19 2022
用pandas讀excel並pandas畫圖
1, 若把這兩個動作寫成一個 .py 。import pandas一次
2, 讀excel當主程式.py ;畫圖寫成一個module 。 分別import pandas一次
第2種作法執行速度會比第1種慢 對嗎?
----
Sent from
BePTT on my iPhone 11
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.140.14.229 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Python/M.1651295481.A.D21.html
1F:→ Hsins: 非得要說的話,的確會多一個往 sys.modules 找被 import 過 04/30 15:50
2F:→ Hsins: 的 module/package 是否存在,真正花時間的 loading 只會做 04/30 15:51
3F:→ Hsins: 一次,然後再根據不同的 module 綁定 namespace 04/30 15:51
4F:→ Hsins: 這種差異根本微乎其微,如果你真的在意這個速度差異,本來 04/30 15:52
5F:→ Hsins: 就不應該選擇使用 Python 而是其他編譯型語言,以 pandas 04/30 15:53
6F:→ Hsins: 來說也才兩秒左右。 04/30 15:54
7F:→ Hsins: 我說的兩秒左右是單單 import pandas 而言,至於你所說的這 04/30 15:55
8F:→ Hsins: 種在不同 module 引入同一個 package 的時間,是以微秒計的 04/30 15:55
9F:→ Hsins: ,速度差別大概是 2.x sec 和 (2.x + 0.00000x) sec的差別 04/30 15:57
10F:推 lycantrope: module import後產生__pycache__應該比單檔案快? 04/30 16:55
11F:→ chang1248w: pandas的瓶頸應該是單執行緒才對 04/30 17:56
12F:→ chang1248w: 本身也不是多大包的東西 04/30 17:56
13F:推 lycantrope: 的確w不過data太大應該也會改用dask或spark 04/30 20:43
14F:→ Dmix: 如果我只是把excel的資料直接畫圖 需要dado 或spark嗎? 05/01 19:29
15F:→ Hsins: 不需要 = = 05/01 20:24
16F:推 handsomeLin: 不需要擔心import的執行速度 05/02 18:34