立即注册  找回密码
 立即注册
CeraNetworksBGVM服务器主机交流会员请立即修改密码Sharktech防护
查看: 102|回复: 9

拿vps跑deepseek r1

[复制链接]

拿vps跑deepseek r1

[复制链接]

141

主题

2118

回帖

6229

积分

论坛元老

积分
6229
DogeLee2

141

主题

2118

回帖

6229

积分

论坛元老

积分
6229
2025-1-29 17:24:26 | 显示全部楼层 |阅读模式
前言

前排提示

llama很吃性能的,别拿你的生产力的小鸡跑
建议内存大点的鸡上跑

1 docker安装openwebui+ollama

https://github.com/open-webui/open-webui
For CPU Only: If you're not using a GPU, use this command instead:
[pre][ol]
  • docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • [/ol]复制代码[/pre]

    2 访问及设置

    ① 访问

    ip:3000端口打开即可,有条件的话nginx反代下

    ② 设置用户名密码邮箱



    ③ 切换语言


    点击右上角头像下面的settings-general,选择中文,save保存








    ④ 添加模型

    左上角选择一个模型的话可以输入你想要的模型,

    我们选择7b的,输入 deepseek-r1:7b,从ollama拉取





    下载deepseek的7b模型,小鸡的性能跑个7b还是可以的
    如果没法跑的话,可以跑1.5b的  deepseek-r1:1.5b

    其他的模型的话这边
    https://ollama.com/library/deepseek-r1

    3 闲言碎语

    本人用签名探针上的家里云。配置为5600+32G内存跑的

    占用的话大概cpu在50%左右,内存吃到10G
    我的cpu的话跑分gb5单核1675多,多核8934,你可以参考下自己跑着玩





    7.5b的效果其实不怎么样,你们跑了就知道了





    其实还不如自己直接调用api来的合适

    跑api的话可以参考我这个帖子

    https://qklg.net/post/20250127/

    有条件上显卡跑,而且显存至少16G的,这种纯cpu跑的是玩具
    隔壁老哥拿12400跑72b的https://linux.do/t/topic/397701/20
    半小时才能回答一次,隔壁老哥cpu当一回时代先锋
  • 回复

    使用道具 举报

    18

    主题

    193

    回帖

    728

    积分

    高级会员

    积分
    728
    totti5116

    18

    主题

    193

    回帖

    728

    积分

    高级会员

    积分
    728
    2025-1-29 17:27:49 | 显示全部楼层
    1.5g 内存能跑吗
    回复

    使用道具 举报

    152

    主题

    801

    回帖

    3740

    积分

    论坛元老

    积分
    3740
    jhsyue

    152

    主题

    801

    回帖

    3740

    积分

    论坛元老

    积分
    3740
    2025-1-29 17:30:36 | 显示全部楼层
    api那么便宜,真不如直接用api了啊
    回复

    使用道具 举报

    312

    主题

    3077

    回帖

    8416

    积分

    论坛元老

    积分
    8416
    美国总统奥巴马

    312

    主题

    3077

    回帖

    8416

    积分

    论坛元老

    积分
    8416
    2025-1-29 17:31:18 | 显示全部楼层
    绑定
    回复

    使用道具 举报

    5

    主题

    304

    回帖

    965

    积分

    高级会员

    积分
    965
    yjx79802

    5

    主题

    304

    回帖

    965

    积分

    高级会员

    积分
    965
    2025-1-29 17:32:28 | 显示全部楼层

    totti5116 发表于 2025-1-29 17:27

    1.5g 内存能跑吗

    有个1.5b的模型,大小1.1G,估计1.5G十分勉强能够用,

    不如API。10块钱没有高需求按照现在的价格能对话一年了。。
    回复

    使用道具 举报

    141

    主题

    2118

    回帖

    6229

    积分

    论坛元老

    积分
    6229
    DogeLee2 楼主

    141

    主题

    2118

    回帖

    6229

    积分

    论坛元老

    积分
    6229
    2025-1-29 17:27:00 | 显示全部楼层

    jhsyue 发表于 2025-1-29 17:30

    api那么便宜,真不如直接用api了啊

    主要是拿来当玩具用
    回复

    使用道具 举报

    141

    主题

    2118

    回帖

    6229

    积分

    论坛元老

    积分
    6229
    DogeLee2 楼主

    141

    主题

    2118

    回帖

    6229

    积分

    论坛元老

    积分
    6229
    2025-1-29 17:32:29 | 显示全部楼层

    totti5116 发表于 2025-1-29 17:27

    1.5g 内存能跑吗


    1.5b也许可以
    但是效果真不行,调用api完事了

    回复

    使用道具 举报

    87

    主题

    227

    回帖

    1701

    积分

    金牌会员

    积分
    1701
    人穷器短

    87

    主题

    227

    回帖

    1701

    积分

    金牌会员

    积分
    1701
    2025-1-29 17:30:00 | 显示全部楼层
    api价格之下,除非有定制能力和需求,或者学习和玩,脑瘫才自建
    回复

    使用道具 举报

    141

    主题

    2118

    回帖

    6229

    积分

    论坛元老

    积分
    6229
    DogeLee2 楼主

    141

    主题

    2118

    回帖

    6229

    积分

    论坛元老

    积分
    6229
    2025-1-29 17:33:37 | 显示全部楼层

    人穷器短 发表于 2025-1-29 17:33

    api价格之下,除非有定制能力和需求,或者学习和玩,脑瘫才自建

    是的
    我赞同你
    这其实就是个玩具
    回复

    使用道具 举报

    235

    主题

    2169

    回帖

    5987

    积分

    论坛元老

    积分
    5987
    toot

    235

    主题

    2169

    回帖

    5987

    积分

    论坛元老

    积分
    5987
    2025-1-29 17:27:00 | 显示全部楼层
    牛逼啊。开搞

    还有更厉害的模型吗,100刀独服左右能带得动那种
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    Archiver|小黑屋|HS2V主机综合交流论坛

    GMT+8, 2025-3-13 13:41 , Processed in 0.024695 second(s), 4 queries , Gzip On, Redis On.

    Powered by Discuz! X3.5

    © 2001-2024 Discuz! Team.

    快速回复 返回顶部 返回列表