发出疑问——代价是什么?
但这都无法阻挡deepseek的强势。
也许r1在之后的表现会越来越不如其它的大模型,也会发现有非常非常多的缺点,但在现在这个时间段,它无疑是非常强大的。
米国,斯坦福某实验室,凌晨两点。
正在查论文的博士生leo看到ds的那篇论文,出于职业素养,他照例点开看了眼摘要。
不过这一看,他瞬间坐直了身体,睡意全无,几乎是脱口而:“holy*$?!”
虽然是凌晨两点,但是因为他们最近在赶论文,所以实验室里还有不少人,这声惊呼引得旁边还在跑实验的同学投来疑惑的目光。
“leo,怎么了?代码又出bug了?”
“我倒是希望代码出bug了,看看这篇文章吧。”他将屏幕转动了一下,让其他人能看得清上面的论文题目。
“r1:redefiningcost-performancetradeoffsinlarge-scalelanguagemodels?”
旁边的同学sarah搜了一下,果然找到了这篇刚刚发布不久的文章。
“这是哪个公司的成果吗?”因为作者的名单上长长一串一般只有公司的文章才会这样。
“就是deepseek,之前他们不是发过一个v3版本的论文吗?当时老板还让我们看过,你不记得了?”
“哦~好像有点印象,怎么,这篇r1有很大的提升吗?”他一边说着一边看向下面的摘要部分。
“reinforcementlearning(强化学习)?这不是和我们现在做的方向一样吗?”不过当他看到第一张图片的时候不由得歪了歪脑袋,发出了同样的惊呼:“holy*$?真的假的?”
图片上面显示了,其效果几乎和gpt-o1持平,而且文中写到了其推理成本的二十分之一还不到。
leo苦笑着摇头“不知道,我希望是假的,但我感觉应该是真的。”
搞科研最为悲伤的事情之一——你有了一个很好的idea,并且已经做了一段时间,就在快要有成果的时候,却发现人家已经做出来了,而且比自己做的更好。
好消息:llm有了新的突破,坏消息:你论文白写了。
“哎~没办法,我再看看吧,如果是真的,估计老板肯