作者Su22 (装配匠)
看板Stock
标题[新闻] 服务器资源紧张 DeepSeek暂停API服务充值
时间Fri Feb 7 23:42:10 2025
原文标题:服务器资源紧张 DeepSeek暂停API服务充值
※请勿删减原文标题
原文连结:
https://reurl.cc/oVoDY3
※网址超过一行过长请用缩网址工具
发布时间:2025-02-07 1:56 AM
※请以原文网页/报纸之发布时间为准
记者署名:夏松
※原文无记载者得留空
原文内容:
中国的人工智能初创公司深度求索(DeepSeek)因服务器资源紧张,已暂停API(应用程
序编程接口)服务充值。
2月6日,多家
陆媒发现,DeepSeek已
暂停API服务充值,按钮显示灰色
不可用状态。
当晚,DeepSeek官网声明称,「当前
服务器资源紧张,为避免对您造成业务影响,我们已
暂停API服务充值。存量充值金额可继续调用,敬请谅解!」
该消息随即引发网络关注。
「最近用着,有时确实会出现服务器
繁忙」,「经常说服务器
忙」,「
根本用不了,
卡壳
状态服务器繁忙」,「总
卡bug」,「还是
缺算力」,「DeepSeek已暂停API服务充值,
算
力不够啊!
「DeepSeek弯道超车,通过算法的优化,缓解了对算力的需求。但目前服务器一直瘫痪,
显然是
算力跟不上了。说到底,全球这麽大的体量,算力是基础,算法是优化。
接下来,
芯片概念股又要涨了。」
此外,DeepSeek还被发现
与中国移动有联系。
加拿大网络安全公司Feroot Security研究人员发现,DeepSeek的网站代码可能会将部分
用户的登录信息
自动发送给中国移动。
中国移动是中共国有电信公司,因与军方关系密切
而被禁止在美国运营。
Feroot Security将分析结果分享给了美联社。
随後,美联社邀请了两位学术网络安全专家——卡尔加里大学的乔尔‧里尔登(Joel
Reardon)与加州大学柏克莱分校的瑟吉‧艾格曼(Serge Egelman),对代码进行独立分
析。他们确认,DeepSeek的登录系统与中国移动之间存在关联。
目前,
国际社会普遍担忧DeepSeek存在过度搜集用户资料等国安风险,一些国家政府部门
开始采取限制措施,封禁DeepSeek。
禁止使用DeepSeek的国家有美国、意大利、澳大利亚、印度、韩国、比利时、法国和爱尔
兰。台湾也限制政府机构和关键基础设施供应商使用DeepSeek,理由是担心有跨境资料传
输和资讯泄漏的风险。
心得/评论:
看其他报导有写到
问个问题要等半小时 且 答案还是 错的
这样如果要做报告会抓狂吧.....
使用者体验给差评
看起来最终还是很需要算力阿
难怪大厂仍然持续投资算力与晶片
这几天NVDA股价也涨了
※必需填写满30正体中文字,无意义者板规处分
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 220.137.142.185 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1738942932.A.BC0.html
1F:推 joygo : 就没知名度不知道原来别人承受那麽多token 02/07 23:42
2F:推 junior020486: 硬体还是需要吧 02/07 23:43
3F:推 Eshia : 你还是按部就班一步一步来吧..先多买些GPU好吗 02/07 23:43
4F:→ onekoni : 买越多省越多 贵不是问题 02/07 23:44
5F:推 jumilin927 : 没事 任务已完成 02/07 23:45
7F:推 ssarc : 你还是要买辉达和台积电的,那何不~ 02/07 23:45
8F:推 AGODC : 算法再优化,当一堆人用时还是需要巨量的算力… 02/07 23:45
10F:→ fitenessboyz: 硬体本来就是需要的,不然我们都拿哀凤1就好 02/07 23:46
11F:推 paericsson : 哈哈哈哈哈 02/07 23:47
12F:→ z23061542 : 中芯在生产了 等一下 02/07 23:47
13F:→ sheep2009 : 看起infra 不然没办法营利 之前根本乱杀... 02/07 23:49
14F:推 leotompp : 有钱买GB200了 这下要嘎到多少 02/07 23:49
15F:推 weiren6 : 硬体还是要买阿 当别人花那麽多资本资出是怎样 02/07 23:49
16F:推 almanch : 横空出世让空方都赚多少了 .. 02/07 23:49
17F:→ sheep2009 : 看起来很需要infra.. 02/07 23:49
18F:推 ssarc : 铲子股准备好了 02/07 23:50
19F:推 JingPingKing: 笑死 02/07 23:51
20F:推 fantasyscure: 笑死 市场又错杀硬体了 一堆傻逼 02/07 23:54
21F:推 moike22 : 老黄:钱拿来 02/07 23:54
22F:推 cosmite : 缺算力吼 02/07 23:55
23F:推 rbull : 又要军备竞赛了 02/07 23:55
24F:推 nakayamayyt : 谁再说不用老黄的卡44看 02/07 23:56
25F:推 strlen : 再来看看哪个低能在吠算力过剩 02/07 23:56
26F:推 godog : 大纪元 02/07 23:56
27F:→ EstelleRinz : 缺算力了吼 找中芯要要看??? 02/07 23:56
28F:推 jeangodard : GPU不够用了 02/07 23:59
29F:推 jei01 : 真的是大纪元耶!那保留一下 02/08 00:00
30F:推 necrophagist: 真的很烂 一直都是忙线中 没蒜粒还敢收钱啊 02/08 00:00
31F:→ Gallardo : 大纪元看法居然跟哲哲一样喊缺算力 要喷了 02/08 00:01
32F:→ GilGalad : su22配大纪元 最熟悉的配方 = = 02/08 00:02
33F:推 sheep2009 : 辉达声明:DeepSeek未来需要更多辉达晶片 根本送分 02/08 00:02
34F:→ orangesabc : 楼上嘴收钱的你是充多少 02/08 00:06
35F:推 silentence : 效率再好也禁不起流量挤兑www 02/08 00:08
36F:推 AndyMAX : 等哪天中国黄牛不抢5090 才会相信算力过剩 02/08 00:08
37F:→ silentence : 等压力测试完再说 02/08 00:09
38F:推 DA3921999 : 终究是要买伺服器 02/08 00:09
39F:推 fuhoho : 老黄在对你招手 02/08 00:09
40F:→ kausan : 蒜力过剩的真的很搞笑 把年假恐慌仔一个个抓出来鞭 02/08 00:10
41F:推 koll : 一堆在那边算力过剩,下去领5毛 02/08 00:15
42F:推 onekoni : 老黄就说过了 别牌0元送还是比他贵w 02/08 00:19
43F:推 sasewill : 笑死人的算力过剩 02/08 00:24
44F:→ CCH2022 : DS现在才几百万流量在使用,CHATGPT都上千万使用。 02/08 00:25
45F:→ CCH2022 : 那以後上亿哪能撑得住。普及化一定要扩大硬体建设 02/08 00:25
46F:→ CCH2022 : ,这是很长很长的趋势。 02/08 00:25
47F:推 bitcch : 早说了 大家都能用就是硬体更缺 02/08 00:26
48F:→ suckkorea : 笑死 02/08 00:28
49F:推 loopdiuretic: 过誉了 吹不起来了吗 02/08 00:31
50F:嘘 jay401401 : 超卡 垃圾 02/08 00:48
51F:推 asidy : 笑死 02/08 00:51
52F:推 ImHoluCan : 笑死说伺服器GPU不用那麽多,结果随便ㄧ些人用ㄧ下 02/08 00:58
53F:→ ImHoluCan : 直接瘫痪伺服器,那伺服器硬体是谁在卖? Nvidia! 02/08 00:58
54F:→ ImHoluCan : 多人用当然你少量的GPU可以撑起来,但不小心多人用 02/08 00:59
55F:→ ImHoluCan : 呢? 02/08 00:59
56F:→ ImHoluCan : 绕来绕去还不是硬体要买 02/08 01:00
57F:→ ImHoluCan : 到底哪个弱智说硬体够了? 02/08 01:01
58F:嘘 phoenixtwo : 再吹啊 说好的降低成本呢 02/08 01:04
59F:推 knifeking : 老黄:你硬体够吗? 02/08 01:08
60F:推 ImHoluCan : 然後有人说什麽你可以用你显卡跑啊,靠绕来绕去还 02/08 01:19
61F:→ ImHoluCan : 不是你自己要买显卡,啊显卡谁在卖? 老黄Nvidia! 02/08 01:19
62F:嘘 tangolosss : 支墙粉蛆说的算力过剩 XDDDDDDDDDD 02/08 01:21
64F:→ ImHoluCan : 人同时用会抢GPU算力 02/08 01:26
65F:→ netsphere : the more you buy, the more you save ; ) 02/08 01:39
66F:→ WSY000000000: 就是要老黄的GG啊!想太多。 02/08 01:54
67F:推 micotosai : 中芯连华为新产品都无法供货了 02/08 02:01
68F:推 micotosai : 完全跟华为手机一样软体用抄的半导体偷进 02/08 02:03
69F:→ hsu0612 : 每次都看到一堆新闻精神错乱的 一下说很烂没人用有 02/08 02:07
70F:→ hsu0612 : 资安疑虑 一下又说用量很大 到底想怎样 02/08 02:07
71F:→ TheBeast : 就单纯Server不够 跟ai算力啥关系 02/08 02:16
72F:→ TheBeast : 倒是infra得imporve一下 流量处理应该不是问题 02/08 02:17
73F:推 kendiv : 怕被人蒸馏是吧? 02/08 02:37
74F:推 NEWinx : 终究是要跟老黄下跪买铲子,但是川川肯定官 02/08 02:40
75F:推 ImHoluCan : 可是某楼,deepseek 都说多人同时用会去抢GPU算力 02/08 02:57
77F:推 jiansu : 推论其实还好 名气太大 人太多 要用api可以找百度 02/08 03:14
78F:→ jiansu : 官方5折而已 开发模型没必要用官方的 找第三方 02/08 03:14
79F:推 r40491101 : 就典型算力不够分才会算那麽久……server只是打api 02/08 03:20
80F:→ r40491101 : 过去而已,没啥loading,要提升也很容易吧…… 02/08 03:20
81F:推 obody : server不用ai算力用啥 文组就别出来丢脸了 02/08 04:40
82F:推 alphish : 又害怕又紧张 02/08 04:57
83F:→ TheBeast : end user用他的api去call service纵使会吃蒜粒 02/08 04:59
84F:→ TheBeast : 也不至於会让服务停摆好ㄇ 感觉更多是scaling问题 02/08 05:03
85F:→ TheBeast : 当然我也有可能错 毕竟可能有千万笔request并发 02/08 05:04
86F:→ b9513227 : 高能儿以为查询不用算力喔 02/08 05:22
87F:→ camp0102 : 什麽白痴公司 02/08 06:01
88F:推 slimak : 终究要买铲子? 02/08 06:06
89F:推 eric61446 : 金铲子最後还是正解 02/08 06:31
90F:推 asirk124 : 现在才多少人用,如果未来全球有几十亿人用,硬体 02/08 08:16
91F:→ asirk124 : 怎麽可能够用 02/08 08:16
92F:→ Leo4891 : server里面就是装gpu啊. server不够=算力不够 02/08 08:32
93F:→ zerro7 : 只好加购铲子了 02/08 08:36
94F:推 mopa : 之前大家忽略了推论(100×1)比训练更需要算力(1 02/08 08:48
95F:→ mopa : ×1亿)。 02/08 08:48
96F:→ ben1013 : 笑死 02/08 08:49
97F:推 mopa : 推论(1×1亿)比训练更需要算力(1000*1) 02/08 08:54
98F:推 lakershank : NV笑而不语 02/08 09:11
99F:推 darkangel119: 直接被塞烂 02/08 09:22
100F:嘘 cityhunter04: 哈哈!不是说不需要硬体的协助?NV又要喷了! 02/08 09:22
101F:推 andy79323 : 再吹啊 02/08 09:34
102F:推 EasyVinus : 废到笑 02/08 10:34
103F:推 g10 : 不是说被网路攻击 原来是资源不足 02/08 10:37
104F:推 sturme : 终究还是要买硬体的 02/08 11:11
105F:推 richaad : 说跟算力没关系的,真的你是理工科的话,该回去找你 02/08 11:45
106F:→ richaad : 老师鞠躬道歉,如果是文组的,去读科技业人文历史就 02/08 11:45
107F:→ richaad : 好,算力什麽的,你看不懂 02/08 11:45
108F:推 iopzu3lv0 : 硬体电费终归还是要钱 02/08 12:36
109F:推 richaad : 训练 vs. 推理:GPU 的实际分配现状 02/08 14:20
110F:→ richaad : 以 META 为例,其 40 万颗 GPU 中,仅 1.6 万颗专 02/08 14:20
111F:→ richaad : 用於训练 Llama 模型,其余则用於应用与服务。类似 02/08 14:20
112F:→ richaad : 地,OpenAI 目前拥有 10 万颗 GPU,其中大部分用於 02/08 14:20
113F:→ richaad : 支持 ChatGPT 服务,而真正参与训练的 GPU 可能不 02/08 14:20
114F:→ richaad : 到 1 万颗。 02/08 14:20
115F:→ richaad : 假设目前训练所占的 GPU 比例为 10%,并在未来缩减 02/08 14:20
116F:→ richaad : 90%,但随着推理应用需求持续上升,以及应用场景大 02/08 14:20
117F:→ richaad : 规模部署,预计 2027 年底以前,推理与服务端的 GPU 02/08 14:20
118F:→ richaad : 需求将增长 20 倍。这意味着总 GPU 需求将达到今 02/08 14:20
119F:→ richaad : 日的 18 倍。 02/08 14:20
120F:推 richaad : 上述摘录於-史丹佛电脑科学张智威教授 02/08 14:22
121F:推 citymax : 没那屁股就别吃那泻药 02/08 14:46
122F:推 sin31429 : 神化撑不过一星期 02/08 15:04
123F:推 c7683fh6 : 你终究是要买铲子的 02/08 20:51