lewissue 发表于 2024-10-14 14:53
恰恰相反,本地模型不比现成的便宜。用qwen得租4090吧,4090一个小时2元,2元用gpt0806可以上百万的token
...
scheme 发表于 2024-10-14 15:28
4070能跑么?还想要不要买个笔记本玩玩ai 呢
talaon 发表于 2024-10-14 15:21
好吧,那哪里有便宜点的chatGPT API 或中转
lewissue 发表于 2024-10-14 15:33
移动4070才8g显存,也就玩玩sdxl出图了。72b玩不了一点,1.5b说不定可以。。。还不如租个服务器用内存+cp ...
欢迎光临 全球主机交流论坛 (https://52.ht/) | Powered by Discuz! X3.4 |