全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
12
返回列表 发新帖
楼主: talaon

2024年底了,有可以本地部署的文本AI了吗

[复制链接]
发表于 2024-10-14 16:24:04 来自手机 | 显示全部楼层
要训练对配置要求就高了,随便玩玩可以用koboldcpp,参考https://www.thsink.com/notes/1359/
发表于 2024-10-14 16:42:44 | 显示全部楼层
1. 模型和显卡都用半精度推理,可以大幅提速,减少计算压力。

2. ollama 可以多卡推理,显存能合并。72b量化模型需要显存40G+,两张3090就不会爆显存。

3. 本地模型提问得越多,“记忆”就会越多,算力需求就会成倍增长,要考虑显卡计算能力,不能盲目追求大显存。

点评

大佬厉害,学习了  发表于 2024-10-14 20:10
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-3-3 17:36 , Processed in 0.063871 second(s), 11 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表