作者nanpolend (不败杨)
看板Tech_Job
标题[情报]K-近邻演算法
时间Sun Feb 12 19:11:06 2023
在图型识别领域中,最近邻居法(KNN演算法,又译K-近邻演算法)是一种用於分类和回
归的无母数统计方法[1]。在这两种情况下,输入包含特徵空间(Feature Space)中的k
个最接近的训练样本。
在k-NN分类中,输出是一个分类族群。一个物件的分类是由其邻居的「多数表决」确定的
,k个最近邻居(k为正整数,通常较小)中最常见的分类决定了赋予该物件的类别。若k
= 1,则该物件的类别直接由最近的一个节点赋予。
在k-NN回归中,输出是该物件的属性值。该值是其k个最近邻居的值的平均值。
最近邻居法采用向量空间模型来分类,概念为相同类别的案例,彼此的相似度高,而可以
藉由计算与已知类别案例之相似度,来评估未知类别案例可能的分类。
K-NN是一种基於实例的学习,或者是局部近似和将所有计算推迟到分类之後的惰性学习。
k-近邻演算法是所有的机器学习演算法中最简单的之一。
无论是分类还是回归,衡量邻居的权重都非常有用,使较近邻居的权重比较远邻居的权重
大。例如,一种常见的加权方案是给每个邻居权重赋值为1/ d,其中d是到邻居的距离。[
注 1]
邻居都取自一组已经正确分类(在回归的情况下,指属性值正确)的物件。虽然没要求明
确的训练步骤,但这也可以当作是此演算法的一个训练样本集。
k-近邻演算法的缺点是对资料的局部结构非常敏感。
K-平均演算法也是流行的机器学习技术,其名称和k-近邻演算法相近,但两者没有关系。
资料标准化可以大大提高该演算法的准确性[2][3]。
--
『对於不喜欢的人,我没必要去讨好他,不了解我的人,我也不必非让他了解我不可。』
----出自第十六册第19页
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 218.173.138.40 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Tech_Job/M.1676200277.A.781.html
1F:→ Rayyh : 已知用火? 02/12 19:13
2F:嘘 misomochi : 这算什麽情报… 02/12 19:16
3F:嘘 jason90814 : ???? 02/12 19:21
4F:嘘 josephroyal : 这篇在干嘛 02/12 19:21
5F:嘘 kingweirong : 现在是没人管能拿来当洗文版用了吗 惨啊 02/12 19:24
6F:嘘 alan23273850: [情报] 1+1=2 02/12 19:31
7F:嘘 rong546 : 这种大一回家作业有需要贴在这吗 02/12 19:44
8F:推 jupei : 学到一课了呀! 02/12 19:47
9F:嘘 zuchang : 抄资料还不会抄 下去 02/12 19:49
10F:嘘 yyyyyyyv : 这什麽废文 可怜 02/12 20:08
11F:嘘 laplacian : 受益良多 谢谢好人 一生平安 02/12 20:15
12F:嘘 Yan5566 : 优文给推 02/12 20:15
13F:嘘 pttano : 看无啦 02/12 20:17
14F:嘘 Raymond0710 : ??? 02/12 20:26
15F:嘘 ku399999 : 优质 02/12 20:30
16F:嘘 loadingN : 注 1 02/12 20:32
17F:嘘 deepdish : 这不就维基百科复制贴上? 02/12 21:00
18F:嘘 deepdish : 看维基百科不如问AI 02/12 21:02
20F:嘘 kevin963 : 太强了 感谢大大分享 02/12 21:12
21F:推 lifeowner : 基本精神是coordinate descent 请证明收敛性及只能 02/12 21:12
22F:→ lifeowner : 找到local minimum 02/12 21:12
23F:嘘 yamax : 2 02/12 21:17
24F:→ ppuuleo : 人工智慧是一个方向 机器学习是里面的一支领域学问 02/12 21:21
25F:→ ppuuleo : 深度学习又是机器学习里面的一种演算法 02/12 21:22
26F:→ ppuuleo : 所以 才有前辈告诉你先分清楚 KNN用於ML CNN用於DL 02/12 21:23
27F:嘘 Roderickey : 错版了吧 soft-job 02/12 21:23
28F:→ nanpolend : 会ai饿不死的裁员最後死 02/12 21:31
29F:嘘 simo520 : 常识当情报 02/12 21:48
30F:推 LincolnBoy : 推 学习了 02/12 22:07
31F:嘘 TFBF : 老人版这麽多嘘 不意外 02/12 23:18
32F:推 physicsdk : 不是捧美政黑文就给推 02/13 00:14
33F:嘘 xuzx : 把维基百科贴过来干嘛? 02/13 01:22
34F:嘘 qoo60606 : ? 02/13 01:27
35F:推 JenniferLope: 笑死 这啥 02/13 03:17
36F:嘘 Ericz7000 : 这… 02/13 03:25
37F:嘘 astrofluket6: 2没坏 02/13 04:28
38F:嘘 zxp9505007 : 笑死 02/13 05:39
39F:嘘 zzzz8931 : 机器人写坏了吗? 02/13 06:39
40F:嘘 CooLHoney : ??? 02/13 06:51
41F:→ GGing : 很多人用了K-NN就沾沾自喜说自己是做AI或ML 02/13 07:12
42F:嘘 jason222333 : …….. 02/13 07:30
43F:嘘 una283 : 这是不是在测试自动发文程式 02/13 08:25
44F:嘘 venomsoul : 今天力叩每日 = one liner大赛 02/13 09:25
45F:嘘 TSMCfabXX : 废文劣退永桶 02/13 11:57
46F:→ nanpolend : 这是深度学习中最菜的演算法,其他的很麻烦有的一 02/13 13:41
47F:→ nanpolend : 层层神经网络微调,基本上要会微积分线性代数统计 02/13 13:41
48F:→ nanpolend : 线性规划为基础 02/13 13:41
49F:嘘 mayasky : 当blog? 02/13 16:17
50F:嘘 samhsu : 大一读书会内容借贴一下? 02/13 19:17
51F:嘘 HotDogCC : 当你个板? 02/13 21:58
52F:嘘 peter98 : 都跟你说这不是深度学习了 还在坚持欸 02/13 23:05
53F:→ peter98 : 这个是大二就有教的资料分析 50年前就有的东西了 02/13 23:06
54F:嘘 toper : ID 02/14 10:29
55F:嘘 doranako : ChatGpt po文啦,大惊小怪 02/14 12:31
56F:嘘 chobit199685: 跟深度学习一点屁关系都没有 02/15 01:38
57F:推 shikemurajy : 这又不属於深度学习底下的,只是深度学习里有人会 02/15 14:37
58F:→ shikemurajy : 用KNN 做一些事情而已 02/15 14:37
59F:→ Gary21 : 老哥 先看懂gradient descent好不= = 02/16 20:05