作者 tsunglee(快炸了) 看板 comm_and_RF
標題 [問題]:電磁波能量損耗~~
時間 Sun Aug 20 20:47:14 2006
───────────────────────────────────────
對於一個microwave sensor(有點像雷達)....12Vdc電池
偵測時,其發射功率為15dBm(經換算應約為31mW)
電磁波頻率為10.525GHz(波長應約為0.03公尺)
增益為8
問其最大傳輸距離d公尺??
我認為是
發射功率 + 增益 - 從sensor到目標的損耗 - 從目標回到sensor的損耗 > 背景雜訊
15dBm + 8dBm - ( 20*log(4πd/0.03)) * 2 > 背景雜訊
(括號中為FreePathLoss)
我的問題是
1.一個用12Vdc電池的sensor的發射功率為31mW合理嗎?(對這個數字沒概念)
2.一般來說背景雜訊應該代入多少才合理(環境雜訊和白雜訊)..
是有看過靈敏度為-85dBm...難道雜訊比-85還要低???
3.根據上式,不管背景雜訊怎麼代,算出來的距離都小得可憐
可是有些規格說,偵測距離為15公尺,請問那裡出問題了?
4.如果兩個sensor相近,不會產生干擾嗎??是什麼方法避免干擾的呢?
=============================
小弟沒有相關背景,已經拼命的找資料了@@
但仍有很多不懂的地方,以上也可能錯得離譜,懇請大家幫忙!!!
感謝各位版友了...m(_ _)m
※ 編輯: tsunglee 來自: 140.119.145.20 (08/21 04:07)