作者Su22 (裝配匠)
看板Stock
標題[新聞] 服務器資源緊張 DeepSeek暫停API服務充值
時間Fri Feb 7 23:42:10 2025
原文標題:服務器資源緊張 DeepSeek暫停API服務充值
※請勿刪減原文標題
原文連結:
https://reurl.cc/oVoDY3
※網址超過一行過長請用縮網址工具
發布時間:2025-02-07 1:56 AM
※請以原文網頁/報紙之發布時間為準
記者署名:夏松
※原文無記載者得留空
原文內容:
中國的人工智能初創公司深度求索(DeepSeek)因服務器資源緊張,已暫停API(應用程
序編程接口)服務充值。
2月6日,多家
陸媒發現,DeepSeek已
暫停API服務充值,按鈕顯示灰色
不可用狀態。
當晚,DeepSeek官網聲明稱,「當前
服務器資源緊張,為避免對您造成業務影響,我們已
暫停API服務充值。存量充值金額可繼續調用,敬請諒解!」
該消息隨即引發網絡關注。
「最近用著,有時確實會出現服務器
繁忙」,「經常說服務器
忙」,「
根本用不了,
卡殼
狀態服務器繁忙」,「總
卡bug」,「還是
缺算力」,「DeepSeek已暫停API服務充值,
算
力不夠啊!
「DeepSeek彎道超車,通過算法的優化,緩解了對算力的需求。但目前服務器一直癱瘓,
顯然是
算力跟不上了。說到底,全球這麼大的體量,算力是基礎,算法是優化。
接下來,
芯片概念股又要漲了。」
此外,DeepSeek還被發現
與中國移動有聯繫。
加拿大網絡安全公司Feroot Security研究人員發現,DeepSeek的網站代碼可能會將部分
用戶的登錄信息
自動發送給中國移動。
中國移動是中共國有電信公司,因與軍方關係密切
而被禁止在美國運營。
Feroot Security將分析結果分享給了美聯社。
隨後,美聯社邀請了兩位學術網絡安全專家——卡爾加里大學的喬爾‧里爾登(Joel
Reardon)與加州大學柏克萊分校的瑟吉‧艾格曼(Serge Egelman),對代碼進行獨立分
析。他們確認,DeepSeek的登錄系統與中國移動之間存在關聯。
目前,
國際社會普遍擔憂DeepSeek存在過度搜集用戶資料等國安風險,一些國家政府部門
開始採取限制措施,封禁DeepSeek。
禁止使用DeepSeek的國家有美國、意大利、澳大利亞、印度、韓國、比利時、法國和愛爾
蘭。台灣也限制政府機構和關鍵基礎設施供應商使用DeepSeek,理由是擔心有跨境資料傳
輸和資訊洩漏的風險。
心得/評論:
看其他報導有寫到
問個問題要等半小時 且 答案還是 錯的
這樣如果要做報告會抓狂吧.....
使用者體驗給差評
看起來最終還是很需要算力阿
難怪大廠仍然持續投資算力與晶片
這幾天NVDA股價也漲了
※必需填寫滿30正體中文字,無意義者板規處分
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.137.142.185 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Stock/M.1738942932.A.BC0.html
1F:推 joygo : 就沒知名度不知道原來別人承受那麼多token 02/07 23:42
2F:推 junior020486: 硬體還是需要吧 02/07 23:43
3F:推 Eshia : 你還是按部就班一步一步來吧..先多買些GPU好嗎 02/07 23:43
4F:→ onekoni : 買越多省越多 貴不是問題 02/07 23:44
5F:推 jumilin927 : 沒事 任務已完成 02/07 23:45
7F:推 ssarc : 你還是要買輝達和台積電的,那何不~ 02/07 23:45
8F:推 AGODC : 算法再優化,當一堆人用時還是需要巨量的算力… 02/07 23:45
10F:→ fitenessboyz: 硬體本來就是需要的,不然我們都拿哀鳳1就好 02/07 23:46
11F:推 paericsson : 哈哈哈哈哈 02/07 23:47
12F:→ z23061542 : 中芯在生產了 等一下 02/07 23:47
13F:→ sheep2009 : 看起infra 不然沒辦法營利 之前根本亂殺... 02/07 23:49
14F:推 leotompp : 有錢買GB200了 這下要嘎到多少 02/07 23:49
15F:推 weiren6 : 硬體還是要買阿 當別人花那麼多資本資出是怎樣 02/07 23:49
16F:推 almanch : 橫空出世讓空方都賺多少了 .. 02/07 23:49
17F:→ sheep2009 : 看起來很需要infra.. 02/07 23:49
18F:推 ssarc : 鏟子股準備好了 02/07 23:50
19F:推 JingPingKing: 笑死 02/07 23:51
20F:推 fantasyscure: 笑死 市場又錯殺硬體了 一堆傻逼 02/07 23:54
21F:推 moike22 : 老黃:錢拿來 02/07 23:54
22F:推 cosmite : 缺算力吼 02/07 23:55
23F:推 rbull : 又要軍備競賽了 02/07 23:55
24F:推 nakayamayyt : 誰再說不用老黃的卡44看 02/07 23:56
25F:推 strlen : 再來看看哪個低能在吠算力過剩 02/07 23:56
26F:推 godog : 大紀元 02/07 23:56
27F:→ EstelleRinz : 缺算力了吼 找中芯要要看??? 02/07 23:56
28F:推 jeangodard : GPU不夠用了 02/07 23:59
29F:推 jei01 : 真的是大紀元耶!那保留一下 02/08 00:00
30F:推 necrophagist: 真的很爛 一直都是忙線中 沒蒜粒還敢收錢啊 02/08 00:00
31F:→ Gallardo : 大紀元看法居然跟哲哲一樣喊缺算力 要噴了 02/08 00:01
32F:→ GilGalad : su22配大紀元 最熟悉的配方 = = 02/08 00:02
33F:推 sheep2009 : 輝達聲明:DeepSeek未來需要更多輝達晶片 根本送分 02/08 00:02
34F:→ orangesabc : 樓上嘴收錢的你是充多少 02/08 00:06
35F:推 silentence : 效率再好也禁不起流量擠兌www 02/08 00:08
36F:推 AndyMAX : 等哪天中國黃牛不搶5090 才會相信算力過剩 02/08 00:08
37F:→ silentence : 等壓力測試完再說 02/08 00:09
38F:推 DA3921999 : 終究是要買伺服器 02/08 00:09
39F:推 fuhoho : 老黃在對你招手 02/08 00:09
40F:→ kausan : 蒜力過剩的真的很搞笑 把年假恐慌仔一個個抓出來鞭 02/08 00:10
41F:推 koll : 一堆在那邊算力過剩,下去領5毛 02/08 00:15
42F:推 onekoni : 老黃就說過了 別牌0元送還是比他貴w 02/08 00:19
43F:推 sasewill : 笑死人的算力過剩 02/08 00:24
44F:→ CCH2022 : DS現在才幾百萬流量在使用,CHATGPT都上千萬使用。 02/08 00:25
45F:→ CCH2022 : 那以後上億哪能撐得住。普及化一定要擴大硬體建設 02/08 00:25
46F:→ CCH2022 : ,這是很長很長的趨勢。 02/08 00:25
47F:推 bitcch : 早說了 大家都能用就是硬體更缺 02/08 00:26
48F:→ suckkorea : 笑死 02/08 00:28
49F:推 loopdiuretic: 過譽了 吹不起來了嗎 02/08 00:31
50F:噓 jay401401 : 超卡 垃圾 02/08 00:48
51F:推 asidy : 笑死 02/08 00:51
52F:推 ImHoluCan : 笑死說伺服器GPU不用那麼多,結果隨便ㄧ些人用ㄧ下 02/08 00:58
53F:→ ImHoluCan : 直接癱瘓伺服器,那伺服器硬體是誰在賣? Nvidia! 02/08 00:58
54F:→ ImHoluCan : 多人用當然你少量的GPU可以撐起來,但不小心多人用 02/08 00:59
55F:→ ImHoluCan : 呢? 02/08 00:59
56F:→ ImHoluCan : 繞來繞去還不是硬體要買 02/08 01:00
57F:→ ImHoluCan : 到底哪個弱智說硬體夠了? 02/08 01:01
58F:噓 phoenixtwo : 再吹啊 說好的降低成本呢 02/08 01:04
59F:推 knifeking : 老黃:你硬體夠嗎? 02/08 01:08
60F:推 ImHoluCan : 然後有人說什麼你可以用你顯卡跑啊,靠繞來繞去還 02/08 01:19
61F:→ ImHoluCan : 不是你自己要買顯卡,啊顯卡誰在賣? 老黃Nvidia! 02/08 01:19
62F:噓 tangolosss : 支牆粉蛆說的算力過剩 XDDDDDDDDDD 02/08 01:21
64F:→ ImHoluCan : 人同時用會搶GPU算力 02/08 01:26
65F:→ netsphere : the more you buy, the more you save ; ) 02/08 01:39
66F:→ WSY000000000: 就是要老黃的GG啊!想太多。 02/08 01:54
67F:推 micotosai : 中芯連華為新產品都無法供貨了 02/08 02:01
68F:推 micotosai : 完全跟華為手機一樣軟体用抄的半導體偷進 02/08 02:03
69F:→ hsu0612 : 每次都看到一堆新聞精神錯亂的 一下說很爛沒人用有 02/08 02:07
70F:→ hsu0612 : 資安疑慮 一下又說用量很大 到底想怎樣 02/08 02:07
71F:→ TheBeast : 就單純Server不夠 跟ai算力啥關係 02/08 02:16
72F:→ TheBeast : 倒是infra得imporve一下 流量處理應該不是問題 02/08 02:17
73F:推 kendiv : 怕被人蒸餾是吧? 02/08 02:37
74F:推 NEWinx : 終究是要跟老黃下跪買鏟子,但是川川肯定官 02/08 02:40
75F:推 ImHoluCan : 可是某樓,deepseek 都說多人同時用會去搶GPU算力 02/08 02:57
77F:推 jiansu : 推論其實還好 名氣太大 人太多 要用api可以找百度 02/08 03:14
78F:→ jiansu : 官方5折而已 開發模型沒必要用官方的 找第三方 02/08 03:14
79F:推 r40491101 : 就典型算力不夠分才會算那麼久……server只是打api 02/08 03:20
80F:→ r40491101 : 過去而已,沒啥loading,要提升也很容易吧…… 02/08 03:20
81F:推 obody : server不用ai算力用啥 文組就別出來丟臉了 02/08 04:40
82F:推 alphish : 又害怕又緊張 02/08 04:57
83F:→ TheBeast : end user用他的api去call service縱使會吃蒜粒 02/08 04:59
84F:→ TheBeast : 也不至於會讓服務停擺好ㄇ 感覺更多是scaling問題 02/08 05:03
85F:→ TheBeast : 當然我也有可能錯 畢竟可能有千萬筆request併發 02/08 05:04
86F:→ b9513227 : 高能兒以為查詢不用算力喔 02/08 05:22
87F:→ camp0102 : 什麼白癡公司 02/08 06:01
88F:推 slimak : 終究要買鏟子? 02/08 06:06
89F:推 eric61446 : 金鏟子最後還是正解 02/08 06:31
90F:推 asirk124 : 現在才多少人用,如果未來全球有幾十億人用,硬體 02/08 08:16
91F:→ asirk124 : 怎麼可能夠用 02/08 08:16
92F:→ Leo4891 : server裡面就是裝gpu啊. server不夠=算力不夠 02/08 08:32
93F:→ zerro7 : 只好加購鏟子了 02/08 08:36
94F:推 mopa : 之前大家忽略了推論(100×1)比訓練更需要算力(1 02/08 08:48
95F:→ mopa : ×1億)。 02/08 08:48
96F:→ ben1013 : 笑死 02/08 08:49
97F:推 mopa : 推論(1×1億)比訓練更需要算力(1000*1) 02/08 08:54
98F:推 lakershank : NV笑而不語 02/08 09:11
99F:推 darkangel119: 直接被塞爛 02/08 09:22
100F:噓 cityhunter04: 哈哈!不是說不需要硬體的協助?NV又要噴了! 02/08 09:22
101F:推 andy79323 : 再吹啊 02/08 09:34
102F:推 EasyVinus : 廢到笑 02/08 10:34
103F:推 g10 : 不是說被網路攻擊 原來是資源不足 02/08 10:37
104F:推 sturme : 終究還是要買硬體的 02/08 11:11
105F:推 richaad : 說跟算力沒關係的,真的你是理工科的話,該回去找你 02/08 11:45
106F:→ richaad : 老師鞠躬道歉,如果是文組的,去讀科技業人文歷史就 02/08 11:45
107F:→ richaad : 好,算力什麼的,你看不懂 02/08 11:45
108F:推 iopzu3lv0 : 硬體電費終歸還是要錢 02/08 12:36
109F:推 richaad : 訓練 vs. 推理:GPU 的實際分配現狀 02/08 14:20
110F:→ richaad : 以 META 為例,其 40 萬顆 GPU 中,僅 1.6 萬顆專 02/08 14:20
111F:→ richaad : 用於訓練 Llama 模型,其餘則用於應用與服務。類似 02/08 14:20
112F:→ richaad : 地,OpenAI 目前擁有 10 萬顆 GPU,其中大部分用於 02/08 14:20
113F:→ richaad : 支持 ChatGPT 服務,而真正參與訓練的 GPU 可能不 02/08 14:20
114F:→ richaad : 到 1 萬顆。 02/08 14:20
115F:→ richaad : 假設目前訓練所佔的 GPU 比例為 10%,並在未來縮減 02/08 14:20
116F:→ richaad : 90%,但隨著推理應用需求持續上升,以及應用場景大 02/08 14:20
117F:→ richaad : 規模部署,預計 2027 年底以前,推理與服務端的 GPU 02/08 14:20
118F:→ richaad : 需求將增長 20 倍。這意味著總 GPU 需求將達到今 02/08 14:20
119F:→ richaad : 日的 18 倍。 02/08 14:20
120F:推 richaad : 上述摘錄於-史丹佛電腦科學張智威教授 02/08 14:22
121F:推 citymax : 沒那屁股就別吃那瀉藥 02/08 14:46
122F:推 sin31429 : 神化撐不過一星期 02/08 15:04
123F:推 c7683fh6 : 你終究是要買鏟子的 02/08 20:51