全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 1488|回复: 16

集显、docker本地部署deepseek大模型

[复制链接]
发表于 2025-1-28 22:48:02 | 显示全部楼层 |阅读模式
本帖最后由 云生 于 2025-1-28 22:49 编辑

https://v.douyin.com/if45L5qx/

deepseek r1  1.5B
最小的模型,可以用集显运行
docker 部署
发表于 2025-1-28 22:49:52 来自手机 | 显示全部楼层
客户端凑合用,又不是ai包子
发表于 2025-1-28 22:55:39 | 显示全部楼层
不是很明白 自己部署了有啥用? 还需要自己训练么?
发表于 2025-1-28 22:56:08 | 显示全部楼层
集显显存能多大
发表于 2025-1-28 22:58:10 | 显示全部楼层
API便宜部署个毛线,多大量啊
发表于 2025-1-28 23:55:31 | 显示全部楼层
7b我都嫌废,这还1.5b
发表于 2025-1-29 01:02:56 | 显示全部楼层
本帖最后由 Hetzner 于 2025-1-31 22:45 编辑

大模型,即大型语言模型(LLM),是指基于Transformer 模型架构,具有大规模参数和复杂计算结构的超大型机器学习模型(超过10 亿个参数),通常由深度神经网络构建,对海量数据进行预训练处理。 大模型的底层转换器包含一系列神经网络,分为编码器和解码器,且具有自注意力功能。

@william2ct 虚心接受改正,你是对的

点评

1b=10亿,没记错的话,billion  发表于 2025-1-31 22:40
发表于 2025-1-29 01:05:46 | 显示全部楼层
集显就算了,6系A卡能不能跑?
发表于 2025-1-29 06:24:04 | 显示全部楼层
louiejordan 发表于 2025-1-29 01:05
集显就算了,6系A卡能不能跑?

你OUT了,谁告诉你非要独立显卡跑的?一年前deep seek家的模型就不吃显卡了。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-3-4 07:46 , Processed in 0.071961 second(s), 12 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表