作者yuwenche (yuwenche)
看板DataScience
标题entropy的原始数学式或推导过程?
时间Wed Jun 8 14:42:04 2022
底下的连结是一段DDQN的程式,我知道它导入了entropy的概念,但不懂第38行的由来。
请问有谁知道原始数学式或推导过程? 感谢回覆。
https://github.com/ShawK91/Evolutionary-Reinforcement-Learning/blob/master/alg
os/ddqn.py
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 1.161.182.159 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1654670526.A.51D.html
1F:→ yuwenche: 网址太长,编辑有问题,无法跳转,烦请复制贴上网址。 06/08 14:45
3F:→ chang1248w: softmax就归一成机率,其他就...cross entropy... 06/08 16:11
4F:推 lycantrope: 那就是cross entropy, Σ-Plog(P) 06/08 16:22
5F:→ yuwenche: 感谢回覆。那这应该也可以用torch.nn. 06/09 14:53
6F:→ yuwenche: CrossEntropyLoss()函数代替吧? 06/09 14:54
7F:→ yoyololicon: cross entropy又稍微有点不一样 06/09 18:53
8F:→ yoyololicon: 你现在的例子应该是没办法直接替代 06/09 18:54
9F:→ st1009: 缺少副标 我已经帮忙补上,下次请注意 谢谢 06/11 09:52
10F:推 feelthat: entropy的原始数学 是热力学波滋曼的熵 你要学热力学! 06/19 03:14
11F:→ feelthat: 电脑用的 是改良过的 shannon 熵 06/19 03:15
12F:推 feelthat: 文章: earthquakes: energy balance and entropy 06/19 03:17
13F:→ feelthat: 如果有人利用这篇文做出地震熵的预测 请上来发表与分享 06/19 03:18
14F:→ feelthat: 造福人类幸福安全 06/19 03:18
15F:→ yuwenche: 抱歉,是我自己没想通。这根本是entropy的定义: 07/13 13:04
16F:→ yuwenche: E(X) = – sum x in X P(x) * log(P(x)) 。只是被 07/13 13:07
17F:→ yuwenche: softmax给搞混了。 07/13 13:08