作者LoveSports (我要当一个渣攻)
看板Stock
标题[新闻] GPT5.2颠覆理论物理学定说发现简洁新公式
时间Wed Feb 18 14:48:28 2026
原文标题:
GPT5.2が理论物理学の定説を覆し、シンプルな新公式を発见
GPT5.2颠覆理论物理学定说,发现简洁新公式
原文连结:
https://news.yahoo.co.jp/articles/409f5df554232025b0ab3aa48b2116d80e53a38c
发布时间:
2/15(日) 21:55
记者署名:
无
原文内容:
美国 OpenAI 於 2026 年 2 月 13 日宣布,该公司最新的 AI 模型「GPT-5.2」已解开理
论物理学中的未解决问题。
它在素粒子物理学的「胶子散射」研究中,发现了过去被认为
不会发生的相互作用,并从数学公式的发现到证明,全程自主完成。此成果已由普林斯顿
高等研究所等机构的
专家完成验证,成为 AI 有可能成为科学发现主体的历史性案例。
根据 OpenAI 以及多家媒体报导,这次的发现与素粒子物理核心问题之一——「散射振幅
」的计算有关。具体而言,在描述原子核内强作用力的理论中,负责传递强作用力的基本
粒子「胶子」的振幅计算方面,传统教科书一直认为,在特定条件(特定的螺旋度构型)
下,相互作用会为零。然而,GPT-5.2 推翻了这一既有定说,指出在特定条件(称为
half-collinear regime)下,相互作用实际上为非零,并且可以用极为简洁的数学公式
来描述。
在此次发现过程中,GPT-5.2 所扮演的角色不仅仅是计算工具。首先,
GPT-5.2 Pro 模型
将人类所计算出的复杂数学式大幅简化,并从中辨识出隐含的模式,进而提出一般化公式
的「猜想(Conjecture)」。接着,其内部的强化推理模型进行了约 12 小时的自主思考
,完成对该公式正确性的数学「证明(Proof)」。AI 能够从假说提出到严格证明一贯完
成,这一点与以往仅作为研究辅助工具的 AI 有本质上的不同。
这一成果
已由普林斯顿高等研究所的着名理论物理学家 Nima Arkani-Hamed 等人验证并
确认正确。Arkani-Hamed 表示,GPT-5.2 与人类专家的协作,为符合严格科学探究标准
的研究模式提供了一个范例。
此外,研究团队已开始将该方法应用於理论上传递重力的粒子「重力子(graviton)」的
研究,并朝着更广泛的物理法则一般化方向推进。此次成果显示,AI 不仅能搜寻与整理
既有知识,还可能具备独立发现人类尚未知晓之科学真理的能力。
心得/评论:
跟GPT5.2讨论 这算不算流体智力的展现?
说以方法来看是用高维压缩的晶体智力+暴力一致性搜寻找出来的
算是类流体 这部分有待商榷
但说以结果来看 例如有解决新结构问题 这样可以算是流体智力?
用两个GPT帐号讨论了几轮 突然觉得AI没流体智力有差吗?=_=
如果流体智力是像马盖仙那样碰壁转弯
AI不用碰壁无限暴力搜寻可以找到新发现 那好像也不见得要有流体智力?
没流体智力也能办到人类目前为止办不到的事情啊(例如这篇新闻说的)
以上 祝福股板乡民马年发大财
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 146.70.31.57 (日本)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1771397311.A.4F4.html
1F:推 john11894324: 理论物理可能更近一步02/18 14:53
2F:推 stocktonty : 哪天会发现伺服器只是人类脑力极限才想到的低效方式02/18 14:55
3F:→ stocktonty : 耗能且低效 开发出比这个更快更简单的运作系统02/18 14:56
4F:嘘 Chilloutt : 新失业人口02/18 15:01
5F:推 kingofsdtw : 完了,以後不需要数学家了02/18 15:03
6F:推 yylin3266 : 未来会不会在论文上看到 GPT et. al.阿02/18 15:07
7F:推 Kobe5210 : 理论物理研究的速度可望因AI而加快02/18 15:07
8F:推 rainin : 喷 往下的那种02/18 15:08
9F:推 seemoon2000 : 仔细想想 包括蛋白质和数学用演算找出答案的 AI未02/18 15:10
10F:→ seemoon2000 : 来应该都能做得更好 毕竟他们一秒能出几十种解02/18 15:10
11F:嘘 strlen : 这不重要 奥览较还我瑟瑟02/18 15:10
12F:推 ceca : 用AI解科学问题不是30年前就在做的事情?02/18 15:12
13F:→ ceca : 20年前我硕士也是用类神经解机构阿.02/18 15:12
14F:→ ceca : 现在大概就是跑快一点,延伸功能更方便一些.02/18 15:13
15F:推 heavenlyken : 更显得研究生论文像垃圾02/18 15:14
16F:→ ceca : 在商业上取代很多工作,例如最近种灾的设计业.02/18 15:14
17F:→ ceca : 是有可能.02/18 15:14
18F:→ ceca : 但是,用AI解科学问题,应该是早就全世界都这样干.02/18 15:14
19F:→ LoveSports : 这篇说的差别好像是在於GPT自己立假说02/18 15:17
20F:推 c928 : 假议题02/18 15:18
21F:推 seemoon2000 : 用AI解算法以前那麽强 就不会需要等deepmind破围棋02/18 15:19
22F:推 peteryen : 很多研究生的论文就是在做新实验而已,以前是土法02/18 15:22
23F:→ peteryen : 炼钢一个一个试,以後就是能用更复杂更多组合去跑02/18 15:22
24F:→ peteryen : 模拟02/18 15:22
25F:推 kingofsdtw : 楼上太厉害啦! 一次n个变因02/18 15:23
26F:推 ceca : 整个AI是线性发展的,随着台积电的晶片成长.02/18 15:23
27F:→ ceca : 除非是高算力才扯到算力中心.02/18 15:24
28F:→ kingofsdtw : AI无脑多02/18 15:24
29F:→ ceca : 因此不是"我们现在终於有AI"了..02/18 15:24
30F:→ ceca : 然後一夕之间大家都长翅膀可以飞天.02/18 15:24
31F:→ ceca : 而高算力中心主要是运算能力强大,速度快很多.02/18 15:24
32F:→ HiuAnOP : 失业增加!Ai续崩!02/18 15:24
33F:→ ceca : 但是以前...算一个AI算一个星期不是很常见.XD02/18 15:25
34F:推 seemoon2000 : 我就简单说 以前那麽厉害 就不会要近代才能打败在02/18 15:28
35F:→ seemoon2000 : 格子上下围棋的人 是到近代深度学习才统一算法02/18 15:28
36F:推 jessicaabc98: C宝别乱扯了,留在房版好吗02/18 15:30
37F:推 Sianan : openai!!02/18 15:33
38F:推 horse2819 : 欧喷酱 被看衰这麽久终於要爆发了?02/18 15:34
39F:推 ceca : 啥?连这个都不懂..难怪是鲁空..哈哈哈.02/18 15:37
40F:→ ceca : 下围棋是当下算.02/18 15:37
41F:→ ceca : 要是你给他每一步算1天.02/18 15:37
42F:→ ceca : 那早个五年也可以把棋王干掉..XD02/18 15:38
43F:→ ceca : 所以为啥AI看着台积电的晶片..02/18 15:38
44F:→ ceca : 主要是运算速度问题.02/18 15:38
45F:→ ceca : 但内容,是1943的数学模型.02/18 15:39
46F:推 jessicaabc98: 好了啦C宝,你在想啥还在运算速度?02/18 15:39
47F:→ ceca : 然後到今天,还是再用类神经.02/18 15:39
48F:→ ceca : 你又没改其他架构..大不了在一个模糊系统.02/18 15:39
49F:→ ceca : 也就是车子就是四颗轮子.02/18 15:39
50F:→ ceca : 你今天是F1..还是四颗轮子.02/18 15:40
51F:→ ceca : 阿就说你整个大外行我也很无奈..XD02/18 15:40
52F:嘘 bj45566 : ceca 的发言真是笑死人wwww 三十多年前没有 LLM 的02/18 15:40
53F:→ bj45566 : AI 配上当时破铜烂铁的硬体连围墙游戏都被人类压在02/18 15:40
54F:→ bj45566 : 地上摩擦好吗?02/18 15:40
55F:→ ceca : 你大语言模型去解物理学公式..XD02/18 15:41
56F:→ ceca : 你不要笑死人好吗..XD02/18 15:41
57F:→ ceca : 你要不要找一个简单的AI程式入门看一下.02/18 15:41
58F:→ ceca : 了解一下到底AI是甚麽和你到底对AI的认知是怎样.XD02/18 15:42
59F:→ ceca : 外加你没听老教授说.02/18 15:42
60F:→ ceca : 他们早年做研究.02/18 15:42
61F:→ ceca : 学校只有一个地方可以跑运算.02/18 15:42
62F:→ ceca : 还要去排队送资料.02/18 15:42
63F:推 breathair : 奇点近了!02/18 15:43
64F:→ ceca : 外加20年前早就AI论文泛滥了..XD02/18 15:43
65F:嘘 bj45566 : 讲个笑话:三四十年前的类神经网路架构和现今的 LLM02/18 15:43
66F:→ bj45566 : AI 没有什麽改变wwww02/18 15:43
67F:→ ceca : 那时候工科的一堆人动不动就要跟AI挂上边.02/18 15:43
68F:→ ceca : 所以用AI去解科学,30年前就开始了,20年前就热了.02/18 15:44
69F:→ ceca : 这边念工程的一堆..他们自己想是不是.02/18 15:44
70F:推 nfsong : 奇点快到了 已经在脱离人类领域02/18 15:44
71F:推 wind93 : 原来不是gpt烂 是我没有问他物理学?02/18 15:44
72F:推 ProTrader : 1990後AI冰河时期是因为类神经网路遇到模型瓶颈02/18 15:44
73F:→ nfsong : 楼上建议去爬一下 AI发展史02/18 15:44
74F:→ nfsong : 现在的AI和以前不是一个东西02/18 15:45
75F:→ breathair : Ceca 大,你需要请LLM帮你科普一下10年前跟现在AI的02/18 15:45
76F:→ breathair : 差别02/18 15:45
77F:→ ProTrader : 後来2005前後的优化论文才改名"深度学习"突围02/18 15:45
78F:推 seemoon2000 : 就不懂 一开始讲错 後面努力要凹 何必讨论02/18 15:45
79F:→ nfsong : 从Deep learning 到 GPT02/18 15:46
80F:→ ProTrader : 冰河时期类神经网路就像票房毒药计划肯定不会过02/18 15:46
81F:→ nfsong : GPT - Generative Pre-trained Transformer02/18 15:46
82F:嘘 bj45566 : 笑死,没有引进深度学习技术的 AI 连人脸辨识都跑得02/18 15:46
83F:→ bj45566 : 一塌糊涂好吗,嘻嘻02/18 15:46
84F:→ nfsong : LLM transformer02/18 15:47
85F:→ nfsong : 上一个突破是 deepseek 逻辑推理02/18 15:47
86F:→ ProTrader : 当初人脸辨识 手写数字文字辨识 是AI技术巅峰02/18 15:47
87F:→ ProTrader : 金融海啸後深度学习在影像辨识大放异彩02/18 15:48
88F:→ nfsong : 类神经网路教父 都说不明白了02/18 15:48
89F:→ nfsong : 推进的太快 教父自己都被甩开了02/18 15:48
90F:→ ProTrader : 到之後AlphaGo算是让AI扬眉吐气02/18 15:49
92F:→ ProTrader : 再之後爆发是ChaGPT直到现在依然继续02/18 15:50
93F:→ nfsong : Geoffrey Hinton deeplearning 教父02/18 15:50
94F:→ nfsong : 自己都有些跟不上了02/18 15:51
95F:→ ProTrader : 辛顿在AI冰河时期持续类神经网路的研究才优化模型02/18 15:51
96F:→ nfsong : 开头这句话送给大家02/18 15:51
97F:→ ProTrader : 他是可以退休的年龄了跟不上很正常02/18 15:52
98F:→ nfsong : 你各位像是 坐第一排的好学生 啥都不懂02/18 15:52
99F:→ nfsong : 但是问题问得好02/18 15:52
100F:→ CYL009 : 全部人类都要失业www02/18 15:53
101F:推 nfsong : 不用的人类会失业02/18 15:54
102F:推 FULLHD1080 : 教父年纪大,没有办法吸收那麽多新的变化02/18 15:54
103F:→ nfsong : 用了以後AI会告诉你 去哪找工作02/18 15:54
104F:→ ProTrader : 要说AI跟以前相同在於本质上都还在找线性回归最佳解02/18 15:54
105F:推 a1234567289 : 现在LLM和1990左右的AI 概念上高度统一的 现在只02/18 15:54
106F:→ a1234567289 : 是有了Attention based的模型架构然後多了一个宣传02/18 15:54
107F:→ a1234567289 : 名词叫做深度学习02/18 15:54
108F:→ ProTrader : 各式各样的多元资料与各种新模型本质还是线性回归02/18 15:55
109F:推 xerioc5566 : 贝氏定理02/18 15:55
110F:→ ProTrader : 但这不是说现在的AI真的跟199X年代的AI相同02/18 15:57
111F:→ a1234567289 : 1990神经网路是透过向後传递改变权重去回归资料02/18 15:57
112F:→ a1234567289 : 让他去资料中间找出pattern 跟现在LLM没啥不同02/18 15:57
113F:推 nfsong : 问AI 就会告诉你02/18 15:57
114F:→ ProTrader : 就像2026的人类跟石器时代的人类都是人类但差异很大02/18 15:57
115F:→ nfsong : 2017以前的RNN CNN 和现在Transformer是不同东西02/18 15:58
116F:→ ProTrader : AI在理论与实务的进步是很直接明确可以验证的02/18 15:58
117F:推 quanhwe : 某c咖又闹笑话了 我怎麽说又了呢02/18 15:59
118F:→ ProTrader : 比方说生成式AI对人类的影响空前巨大02/18 16:00
119F:推 YCL13 : 大数据时代前後讲的AI是不同等级的事情02/18 16:00
120F:推 nfsong : AlexNet (2012) ResNet (2015) GAN/AlphaGo02/18 16:00
121F:→ ProTrader : 很古早的时候也就生成乱数 生成电脑棋局对弈02/18 16:01
122F:推 a1234567289 : 现代跟当时的差异是 为了找出更细致的pattern 後02/18 16:01
123F:→ a1234567289 : 来人们发明了Convolution/LSTM等OP Attention也是02/18 16:01
124F:→ a1234567289 : 在Loss function以及训练方式都有了长足进展02/18 16:01
125F:→ ProTrader : 之前的A片要换脸 现在的A片可以直接生成02/18 16:02
126F:→ nfsong : AlphaGo除了层数变多 还增加了功能层(战略层)02/18 16:02
127F:→ a1234567289 : 所以说不同也是不同 但本质精神都是用参数对资料做02/18 16:02
128F:→ a1234567289 : modeling02/18 16:02
129F:→ nfsong : AlexNet 8层 ResNet 152层02/18 16:03
130F:→ ProTrader : 所以要说现在206的AI 199X时代一样是不对的02/18 16:03
131F:→ ProTrader : 202602/18 16:03
132F:→ a1234567289 : 因此我觉得ceca不算有说错 只是它忽略了中间进步了02/18 16:03
133F:→ a1234567289 : 一大段02/18 16:03
134F:推 breathair : 基本可以看作transformer 架构前後AI完全不同,tran02/18 16:04
135F:→ breathair : sformer 范式让智能「涌现」或是「顿悟」,哈萨比斯02/18 16:04
136F:→ breathair : 说,要到AGI,我们还差1-2次transformer等级的范式02/18 16:04
137F:→ breathair : 升级02/18 16:04
138F:→ a1234567289 : 现代的算力和参数差异 让现在效果和当时有了巨大差02/18 16:04
139F:→ a1234567289 : 异02/18 16:04
140F:→ ProTrader : 比较好的说法是 都不是AGI强人工智慧02/18 16:04
141F:→ nfsong : 除了垂直的增加层数 还有横向的增加层数02/18 16:04
142F:→ nfsong : 以前就是一层 modeling02/18 16:05
143F:→ nfsong : 现在几百万层02/18 16:05
144F:→ nfsong : AlphaGO 之所以开始辗压 也是增加了 "战略层"02/18 16:06
145F:→ nfsong : 有了大局观02/18 16:06
146F:→ nfsong : 会判断 那边地盘大02/18 16:07
147F:推 ProTrader : 以前盖茅草屋是人类要住 哈里发塔也是人类要住02/18 16:07
148F:推 xerioc5566 : 硬体限制突破 有无限想像02/18 16:07
149F:→ ProTrader : 可是说茅草屋跟哈里发塔真的不一样02/18 16:07
150F:→ ProTrader : 盖茅草屋跟哈里发塔都要土地 人类还没进入异次元02/18 16:08
151F:→ ProTrader : 可是茅草屋跟哈里发塔的技术差异太大了02/18 16:09
152F:推 LonyIce : 不就图灵的升级版02/18 16:11
153F:推 nfsong : 你可以看看Oliver Henry 的Openclaw agent02/18 16:14
154F:→ nfsong : 自动写文案 生成影片 发布02/18 16:15
155F:→ nfsong : 然後用观看率 来调整cta Call to Action02/18 16:16
156F:→ nfsong : 最近你会看到有些频道 专注一些东西02/18 16:17
157F:→ nfsong : 女性打棒球02/18 16:18
158F:→ nfsong : 动物的故事02/18 16:18
159F:→ nfsong : Amazon 包裹小偷02/18 16:18
160F:→ nfsong : 这些都是自动发布的02/18 16:18
161F:推 windalso : 大统一场论更近了!?02/18 16:19
163F:→ nfsong : 像这种频道 我看到有20几个02/18 16:20
165F:→ nfsong : 比大联盟的还好看02/18 16:23
166F:推 ProTrader : 没用来生成跟多慧一起运动的影片 失败02/18 16:23
167F:→ nfsong : 因为大联盟 分镜不可能 摆进场内02/18 16:23
168F:→ FatFatQQ : 房版鲁多 赔超惨 在这胡言乱语 好惨02/18 16:29
169F:推 alex01 : 验证完了吗?02/18 16:37
170F:推 ivan1116 : 硬体变得越来越重要02/18 16:40
171F:推 truelove356 : 中国模型也解出来ㄌㄜ02/18 16:41
172F:推 littleliu : 还不颁个硕士学位给他02/18 16:50
173F:推 nakayamayyt : 电力用在这也是很好的利用了02/18 16:50
174F:推 sses60802 : 嗯嗯 跟我想的一样02/18 16:52
175F:推 drph : 2奈米和28奈米本质上都是CMOS,所以概念上一样,但02/18 16:58
176F:→ drph : 是制程精度和device结构不一样。02/18 16:58
177F:推 herculus6502: 奇点将至?02/18 17:01
178F:推 nfsong : 奇点!!02/18 17:03
179F:推 sdbb : G点!?02/18 17:03
180F:推 Cactusman : 嗯嗯跟我想的一样02/18 17:05
181F:推 Kobe5210 : 上个世纪<机器学习的AI>跟现在<深度学习的AI>,已02/18 17:05
182F:→ Kobe5210 : 经不是用28奈米到2奈米可以类比的了02/18 17:05
183F:→ Kobe5210 : 还是专心做股票比较好,强迫自己学东西放大人生格02/18 17:05
184F:→ Kobe5210 : 局跟财富02/18 17:05
185F:推 ericsonzhen : 数学系差不多要废的意思?02/18 17:07
186F:推 cloud1030 : 又多一批失业仔02/18 17:12
187F:推 solomonABC : 审判日要来了吗?02/18 17:15
188F:推 Arad : ai到最後到达的境界人类会无法理解02/18 17:15
189F:推 FlyBird : AI闭环快完成了,文明准备三级跳02/18 17:31
190F:推 overpolo : 恩恩 果然用在我身上是在浪费算力阿..02/18 17:36
191F:推 stcr3011 : 有可能吗02/18 17:44
192F:推 WTS2accuracy: 某高雄炒房仔别丢脸了...不懂的领域就垫垫02/18 17:45
193F:推 abdiascat : 叫他自己自我优化 左脚踩右脚 直接飞天02/18 17:46
194F:推 coolmark01 : 硬体造就如今的AI,而AI将跃进下个未来02/18 17:54
195F:推 Beee09 : 叫ai找一下超导体02/18 17:55
196F:推 panzerbug : 赞02/18 18:04
197F:推 digodi : 当然还是要有数学物理学家啊,不然它乱跑出结果,谁02/18 18:05
198F:→ digodi : 能验证。02/18 18:05
199F:推 et310 : 又要喷了吗02/18 18:09
200F:推 poeoe : 还有人要喊AI泡沫吗 笑死02/18 18:16
201F:推 Kobe5210 : 当然还是要有物理学家,爱因斯坦100年前的广义相对02/18 18:18
202F:→ Kobe5210 : 论也是要有数学模型才能描述具体内容。现在的AI是02/18 18:18
203F:→ Kobe5210 : 极速帮忙算出结果02/18 18:18
204F:→ bnn : 跑simulation一直都有在改善算力运用的用法的02/18 18:23
205F:→ bnn : 不然那麽多人用超算跑 为啥是某些人发论文02/18 18:24
206F:推 xeins : 终於出来了? 不是被喂的资料 而是智慧的火花02/18 18:34
207F:推 NANJO1569 : Hassabis 主张 AGI 必须具备从 0 到 1 的原创能力02/18 18:36
208F:推 NANJO1569 : GPT5.2解开理论物理学中的未解问题也算往这方向迈进02/18 18:38
209F:→ NANJO1569 : Hassabis 认为真正的 AGI 必须在没有人类干预的情况02/18 18:40
210F:推 ProTrader : 强人工智慧AGI更多是学术目标类似大统一理论02/18 18:40
211F:→ ProTrader : 真正打趴人类多数专家的应该是各领域的特化弱AI02/18 18:41
212F:→ NANJO1569 : 执行以下完整循环:1.提出问题2.产生假说3.实验验证02/18 18:41
213F:→ ProTrader : 现在市面上各类功能AI通通都是弱AI 未来会继续变强02/18 18:42
214F:→ NANJO1569 : 4.总结反馈5.迭代进步02/18 18:42
215F:→ ProTrader : 我认为未来会出现多种弱AI集成的类AGI02/18 18:43
216F:→ ProTrader : 目前的AI模型并没有达成AGI的可能性02/18 18:45
217F:→ ProTrader : 现在说的AGI广告效果甚至大於学术讨论02/18 18:47
218F:嘘 newlie83 : 我只想问一个问题 AI得到诺贝尔物理奖还有多久?02/18 18:47
219F:→ s213092921 : 这麽厉害?那openAI获利了吗?02/18 19:14
220F:→ MyPetTankDie: 这本来就是实验室分析用的东西,其他绝大多数都是滥02/18 19:24
221F:→ MyPetTankDie: 用而已02/18 19:24
222F:→ MyPetTankDie: ,民间发展那些说难听点就是透过相对小的资本拐老板02/18 19:25
223F:→ MyPetTankDie: 跟上潮流用的而已lol02/18 19:25
224F:推 wen880225 : 所以以後会变成战鎚黄金时代那种科技全靠AI,人类都02/18 19:38
225F:→ wen880225 : 不懂原理只会用02/18 19:38
226F:推 mdkn35 : 我懂 a=b02/18 19:59
227F:推 JaccWu : Hassabis 不是认为目前科学上的终极目标02/18 20:14
228F:→ JaccWu : 是让AI在只靠相对论提出前的数据、理论、知识02/18 20:14
229F:→ JaccWu : 找出相对论吗?02/18 20:14
230F:→ JaccWu : (喔应该不能说终极目标 而是他给的一个标准02/18 20:15
231F:推 gglong : 算力即国力02/18 20:20
232F:推 LandaChuang : AI加上量子电脑,以後科学计算会飞速进展02/18 21:08
233F:推 k078787878 : 好扯02/18 22:01
234F:→ guteres : 我觉得C大应该是忽略了很大的一段02/18 22:21
235F:推 jodawa : 袜靠 觉得实在太屌02/18 22:37
236F:→ pantheraL : 我的gpt说这是假新闻02/18 23:17
https://openai.com/index/new-result-theoretical-physics/
可以贴这个给他看然後叫他开网路搜寻
不然他们新闻只知道上市大概半年以前的
237F:→ js0431 : 赞啦02/18 23:30
※ 编辑: LoveSports (95.173.204.121 日本), 02/19/2026 07:33:46
238F:→ ninggo : 我们用的ai是阉割降智版 02/20 15:42
239F:嘘 yunf : 就只不过是像是质数一样 又发现了一组特徵值 02/20 21:37
240F:→ yunf : 有多少人研究过胶子? 02/20 21:38