作者tsunglee (嘿咻拔蘿蔔)
看板comm_and_RF
標題Re: [問題] 電磁波功率損耗~~
時間Thu Aug 24 00:09:34 2006
: 對於一個microwave sensor(有點像雷達)....12Vdc電池
: 偵測時,其發射功率為15dBm(經換算應約為31mW)
: 電磁波頻率為10.525GHz(波長應約為0.03公尺)
: 增益為8
: 問其最大傳輸距離d公尺??
:
: 我認為是
:
: 發射功率 + 增益 - 從sensor到目標的損耗 - 從目標回到sensor的損耗 > 背景雜訊
:
: 15dBm + 8dBm - ( 20*log(4πd/0.03)) * 2 > 背景雜訊
^^^^^^^^^^^^^^^^^^^^^^^^
後來覺得應該是( 20*log(2*4πd/0.03)) 才對@@"
有人能給點意見嗎
:
: (括號中為FreePathLoss)
:
: 我的問題是
: 1.一個用12Vdc電池的sensor的發射功率為31mW合理嗎?(對這個數字沒概念)
: 2.一般來說背景雜訊應該代入多少才合理(環境雜訊和白雜訊)..
: 是有看過靈敏度為-85dBm...難道雜訊比-85還要低???
: 3.根據上式,不管背景雜訊怎麼代,算出來的距離都小得可憐
: 可是有些規格說,偵測距離為15公尺,請問那裡出問題了?
: 4.如果兩個sensor相近,不會產生干擾嗎??是什麼方法避免干擾的呢?
: =============================
: 小弟沒有相關背景,已經拼命的找資料了@@
: 但仍有很多不懂的地方,以上也可能錯得離譜,懇請大家幫忙!!!
: 感謝各位版友了...m(_ _)m
:
: ※ 編輯: tsunglee 來自: 140.119.145.20 (08/21 04:07)
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 140.119.145.20