本帖最后由 sliver 于 2025-1-29 14:14 编辑
推上的说法是计算方法不同
当我们说大模型成本的时候,包含比如 H100 的硬件、获取数据、人员工资等在内,deepseek 的单次训练成本并没有包含这些。今天的一个说法是 deepseek 利用了新加坡的机房绕开美国管制,它并没有获得足够的奶牛(芯片),但获得了足够的牛奶(算力),这也使得它在谈论 “成本” 时更简单和低廉
即使这样, deepseek 依然令人惊艳
推上还有一个比喻,openai 等头部是花费大量心力培养了了一个高级教授,deepseek 是向教授学习的学徒,只需要 4年学期,并且他在向多位不同的教授学习。后者在某些分支的深度上可能不如前者,但成本低廉,并且在整体广度和深度上,甚至可能表现比前者好