作者sxy67230 (charlesgg)
看板Tech_Job
标题Re: [请益] 请问版上有学习过AI的前辈吗?
时间Wed Aug 6 08:13:32 2025
看你想走应用还是理论面,应用面如果只是你有一个ideal想做,务实一点就是找个闭源或
开源的LLM(vLLM)架起来,Prompting调一调大部分能力可能都比你传统模型来的好太多了。
如果是应用想做深一点之类的,大概就大金->李沐那些听一听,想再涉及ML一点就吴恩达->
轩田。
如果还想要再深一点就需要涉及理论数学知识而且这时候就分面向了。
模型的部分数学会占更重,尤其是线性代数,最多再一点点机统跟最佳化理论,现代的DL其
实反而不会太强调很硬的统计或非凸最佳化,大多假设DL在自监督後天然的就从海量数据中
提取了某些自然分布。除非你真的有兴趣到爆就可以往DL的最核心基础理论迈进,那还会需
要一些消息论去探讨模型压缩跟模型内部学习时候的非凸优化转换(high entropy 跟low e
ntropy LLM 可能会是一个很有趣的问题)。
如果是想就业的话,我自己会觉得接下来比较热门的面向就是GPU optimization跟LLMOps,
前者主要就是要非常懂GPU计算底层,包含如何实作GPU并行,可能同事有基础的LLM模型你
要把这个prototype implement进某些极端Edge的环境,後者就涉及分散式伺服器架构如何
架构带有GPU群集的分散式server用来做training跟inference,虽然说离核心LLM/DL理论很
远,但我认为是就业市场未来最稳的。
这边补充一下,很多人觉得AI要很硬的数学才能发Paper,但是从去年ICLR的一些收录文章
看其实现在不少Multi Agent的应用类,关键在於你有很好的智能体实作想法,然後再理论
系统性的描述做消融实验。这些不见得涉及数学知识,就是要去研究能有什麽方式系统性的
开发智能体。
差不多4酱
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 101.12.113.87 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Tech_Job/M.1754439214.A.017.html
※ 编辑: sxy67230 (101.12.113.87 台湾), 08/06/2025 08:18:18
※ 编辑: sxy67230 (101.12.113.87 台湾), 08/06/2025 08:19:01
1F:推 Killercat: 我觉得你找个靠普的LLM模型前面架RAG 57.140.96.14 08/06 09:18
2F:→ Killercat: 企业内部用的大概就是这样而已了 57.140.96.14 08/06 09:18
3F:→ Killercat: 再往下走都比较离实际应用较远的了 57.140.96.14 08/06 09:18
4F:→ Killercat: 企业应用就prompt 顶多再加上RAG 够了~ 57.140.96.14 08/06 09:19
5F:推 LifeDream: Fine tune 资料量要够大,而且会有抗 39.15.72.131 08/06 12:52
6F:→ LifeDream: 拒对齐的问题 39.15.72.131 08/06 12:52
7F:→ LifeDream: Full pretrain 就真的建议少考虑了, 39.15.72.131 08/06 12:53
8F:→ LifeDream: 那个算力还有资料量不是一般公司吃得下 39.15.72.131 08/06 12:53
9F:→ LifeDream: 去 39.15.72.131 08/06 12:53
10F:→ LifeDream: 更正Lora fine tune 39.15.72.131 08/06 12:54
11F:推 puffycat: 模型不是问题!问题是资料要怎麽整理? 42.70.52.243 08/06 12:57
12F:→ puffycat: 不是有RAG就好,都是鬼话连篇!要把资 42.70.52.243 08/06 12:57
13F:→ puffycat: 料分类,有些用向量资料库,有些用向量 42.70.52.243 08/06 12:57
14F:→ puffycat: SQL…. 42.70.52.243 08/06 12:57
15F:推 LifeDream: 同意楼上,真的RAG之前要先把资料整理 27.247.4.29 08/08 08:20
16F:→ LifeDream: 清理好 27.247.4.29 08/08 08:20