作者tsunglee (嘿咻拔萝卜)
看板comm_and_RF
标题Re: [问题] 电磁波功率损耗~~
时间Thu Aug 24 00:09:34 2006
: 对於一个microwave sensor(有点像雷达)....12Vdc电池
: 侦测时,其发射功率为15dBm(经换算应约为31mW)
: 电磁波频率为10.525GHz(波长应约为0.03公尺)
: 增益为8
: 问其最大传输距离d公尺??
:
: 我认为是
:
: 发射功率 + 增益 - 从sensor到目标的损耗 - 从目标回到sensor的损耗 > 背景杂讯
:
: 15dBm + 8dBm - ( 20*log(4πd/0.03)) * 2 > 背景杂讯
^^^^^^^^^^^^^^^^^^^^^^^^
後来觉得应该是( 20*log(2*4πd/0.03)) 才对@@"
有人能给点意见吗
:
: (括号中为FreePathLoss)
:
: 我的问题是
: 1.一个用12Vdc电池的sensor的发射功率为31mW合理吗?(对这个数字没概念)
: 2.一般来说背景杂讯应该代入多少才合理(环境杂讯和白杂讯)..
: 是有看过灵敏度为-85dBm...难道杂讯比-85还要低???
: 3.根据上式,不管背景杂讯怎麽代,算出来的距离都小得可怜
: 可是有些规格说,侦测距离为15公尺,请问那里出问题了?
: 4.如果两个sensor相近,不会产生干扰吗??是什麽方法避免干扰的呢?
: =============================
: 小弟没有相关背景,已经拼命的找资料了@@
: 但仍有很多不懂的地方,以上也可能错得离谱,恳请大家帮忙!!!
: 感谢各位版友了...m(_ _)m
:
: ※ 编辑: tsunglee 来自: 140.119.145.20 (08/21 04:07)
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 140.119.145.20