作者nanpolend (不敗楊)
看板Tech_Job
標題[情報]K-近鄰演算法
時間Sun Feb 12 19:11:06 2023
在圖型識別領域中,最近鄰居法(KNN演算法,又譯K-近鄰演算法)是一種用於分類和迴
歸的無母數統計方法[1]。在這兩種情況下,輸入包含特徵空間(Feature Space)中的k
個最接近的訓練樣本。
在k-NN分類中,輸出是一個分類族群。一個物件的分類是由其鄰居的「多數表決」確定的
,k個最近鄰居(k為正整數,通常較小)中最常見的分類決定了賦予該物件的類別。若k
= 1,則該物件的類別直接由最近的一個節點賦予。
在k-NN迴歸中,輸出是該物件的屬性值。該值是其k個最近鄰居的值的平均值。
最近鄰居法採用向量空間模型來分類,概念為相同類別的案例,彼此的相似度高,而可以
藉由計算與已知類別案例之相似度,來評估未知類別案例可能的分類。
K-NN是一種基於實例的學習,或者是局部近似和將所有計算推遲到分類之後的惰性學習。
k-近鄰演算法是所有的機器學習演算法中最簡單的之一。
無論是分類還是迴歸,衡量鄰居的權重都非常有用,使較近鄰居的權重比較遠鄰居的權重
大。例如,一種常見的加權方案是給每個鄰居權重賦值為1/ d,其中d是到鄰居的距離。[
註 1]
鄰居都取自一組已經正確分類(在迴歸的情況下,指屬性值正確)的物件。雖然沒要求明
確的訓練步驟,但這也可以當作是此演算法的一個訓練樣本集。
k-近鄰演算法的缺點是對資料的局部結構非常敏感。
K-平均演算法也是流行的機器學習技術,其名稱和k-近鄰演算法相近,但兩者沒有關係。
資料標準化可以大大提高該演算法的準確性[2][3]。
--
『對於不喜歡的人,我沒必要去討好他,不瞭解我的人,我也不必非讓他瞭解我不可。』
----出自第十六冊第19頁
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 218.173.138.40 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Tech_Job/M.1676200277.A.781.html
1F:→ Rayyh : 已知用火? 02/12 19:13
2F:噓 misomochi : 這算什麼情報… 02/12 19:16
3F:噓 jason90814 : ???? 02/12 19:21
4F:噓 josephroyal : 這篇在幹嘛 02/12 19:21
5F:噓 kingweirong : 現在是沒人管能拿來當洗文版用了嗎 慘啊 02/12 19:24
6F:噓 alan23273850: [情報] 1+1=2 02/12 19:31
7F:噓 rong546 : 這種大一回家作業有需要貼在這嗎 02/12 19:44
8F:推 jupei : 學到一課了呀! 02/12 19:47
9F:噓 zuchang : 抄資料還不會抄 下去 02/12 19:49
10F:噓 yyyyyyyv : 這什麼廢文 可憐 02/12 20:08
11F:噓 laplacian : 受益良多 謝謝好人 一生平安 02/12 20:15
12F:噓 Yan5566 : 優文給推 02/12 20:15
13F:噓 pttano : 看無啦 02/12 20:17
14F:噓 Raymond0710 : ??? 02/12 20:26
15F:噓 ku399999 : 優質 02/12 20:30
16F:噓 loadingN : 註 1 02/12 20:32
17F:噓 deepdish : 這不就維基百科複製貼上? 02/12 21:00
18F:噓 deepdish : 看維基百科不如問AI 02/12 21:02
20F:噓 kevin963 : 太強了 感謝大大分享 02/12 21:12
21F:推 lifeowner : 基本精神是coordinate descent 請証明收斂性及只能 02/12 21:12
22F:→ lifeowner : 找到local minimum 02/12 21:12
23F:噓 yamax : 2 02/12 21:17
24F:→ ppuuleo : 人工智慧是一個方向 機器學習是裡面的一支領域學問 02/12 21:21
25F:→ ppuuleo : 深度學習又是機器學習裡面的一種演算法 02/12 21:22
26F:→ ppuuleo : 所以 才有前輩告訴你先分清楚 KNN用於ML CNN用於DL 02/12 21:23
27F:噓 Roderickey : 錯版了吧 soft-job 02/12 21:23
28F:→ nanpolend : 會ai餓不死的裁員最後死 02/12 21:31
29F:噓 simo520 : 常識當情報 02/12 21:48
30F:推 LincolnBoy : 推 學習了 02/12 22:07
31F:噓 TFBF : 老人版這麼多噓 不意外 02/12 23:18
32F:推 physicsdk : 不是捧美政黑文就給推 02/13 00:14
33F:噓 xuzx : 把維基百科貼過來幹嘛? 02/13 01:22
34F:噓 qoo60606 : ? 02/13 01:27
35F:推 JenniferLope: 笑死 這啥 02/13 03:17
36F:噓 Ericz7000 : 這… 02/13 03:25
37F:噓 astrofluket6: 2沒壞 02/13 04:28
38F:噓 zxp9505007 : 笑死 02/13 05:39
39F:噓 zzzz8931 : 機器人寫壞了嗎? 02/13 06:39
40F:噓 CooLHoney : ??? 02/13 06:51
41F:→ GGing : 很多人用了K-NN就沾沾自喜說自己是做AI或ML 02/13 07:12
42F:噓 jason222333 : …….. 02/13 07:30
43F:噓 una283 : 這是不是在測試自動發文程式 02/13 08:25
44F:噓 venomsoul : 今天力叩每日 = one liner大賽 02/13 09:25
45F:噓 TSMCfabXX : 廢文劣退永桶 02/13 11:57
46F:→ nanpolend : 這是深度學習中最菜的演算法,其他的很麻煩有的一 02/13 13:41
47F:→ nanpolend : 層層神經網絡微調,基本上要會微積分線性代數統計 02/13 13:41
48F:→ nanpolend : 線性規劃為基礎 02/13 13:41
49F:噓 mayasky : 當blog? 02/13 16:17
50F:噓 samhsu : 大一讀書會內容借貼一下? 02/13 19:17
51F:噓 HotDogCC : 當你個板? 02/13 21:58
52F:噓 peter98 : 都跟你說這不是深度學習了 還在堅持欸 02/13 23:05
53F:→ peter98 : 這個是大二就有教的資料分析 50年前就有的東西了 02/13 23:06
54F:噓 toper : ID 02/14 10:29
55F:噓 doranako : ChatGpt po文啦,大驚小怪 02/14 12:31
56F:噓 chobit199685: 跟深度學習一點屁關係都沒有 02/15 01:38
57F:推 shikemurajy : 這又不屬於深度學習底下的,只是深度學習裡有人會 02/15 14:37
58F:→ shikemurajy : 用KNN 做一些事情而已 02/15 14:37
59F:→ Gary21 : 老哥 先看懂gradient descent好不= = 02/16 20:05