立即注册  找回密码
 立即注册
CeraNetworksBGVM服务器主机交流会员请立即修改密码Sharktech防护
查看: 87|回复: 9

拿vps跑deepseek r1

[复制链接]

拿vps跑deepseek r1

[复制链接]

135

主题

2041

回帖

6025

积分

论坛元老

积分
6025
DogeLee2

135

主题

2041

回帖

6025

积分

论坛元老

积分
6025
前天 17:24 | 显示全部楼层 |阅读模式
前言

前排提示

llama很吃性能的,别拿你的生产力的小鸡跑
建议内存大点的鸡上跑

1 docker安装openwebui+ollama

https://github.com/open-webui/open-webui
For CPU Only: If you're not using a GPU, use this command instead:
[pre][ol]
  • docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • [/ol]复制代码[/pre]

    2 访问及设置

    ① 访问

    ip:3000端口打开即可,有条件的话nginx反代下

    ② 设置用户名密码邮箱



    ③ 切换语言


    点击右上角头像下面的settings-general,选择中文,save保存








    ④ 添加模型

    左上角选择一个模型的话可以输入你想要的模型,

    我们选择7b的,输入 deepseek-r1:7b,从ollama拉取





    下载deepseek的7b模型,小鸡的性能跑个7b还是可以的
    如果没法跑的话,可以跑1.5b的  deepseek-r1:1.5b

    其他的模型的话这边
    https://ollama.com/library/deepseek-r1

    3 闲言碎语

    本人用签名探针上的家里云。配置为5600+32G内存跑的

    占用的话大概cpu在50%左右,内存吃到10G
    我的cpu的话跑分gb5单核1675多,多核8934,你可以参考下自己跑着玩





    7.5b的效果其实不怎么样,你们跑了就知道了





    其实还不如自己直接调用api来的合适

    跑api的话可以参考我这个帖子

    https://qklg.net/post/20250127/

    有条件上显卡跑,而且显存至少16G的,这种纯cpu跑的是玩具
    隔壁老哥拿12400跑72b的https://linux.do/t/topic/397701/20
    半小时才能回答一次,隔壁老哥cpu当一回时代先锋
  • 回复

    使用道具 举报

    18

    主题

    190

    回帖

    716

    积分

    高级会员

    积分
    716
    totti5116

    18

    主题

    190

    回帖

    716

    积分

    高级会员

    积分
    716
    前天 17:27 | 显示全部楼层
    1.5g 内存能跑吗
    回复

    使用道具 举报

    151

    主题

    801

    回帖

    3735

    积分

    论坛元老

    积分
    3735
    jhsyue

    151

    主题

    801

    回帖

    3735

    积分

    论坛元老

    积分
    3735
    前天 17:30 | 显示全部楼层
    api那么便宜,真不如直接用api了啊
    回复

    使用道具 举报

    306

    主题

    3036

    回帖

    8290

    积分

    论坛元老

    积分
    8290
    美国总统奥巴马

    306

    主题

    3036

    回帖

    8290

    积分

    论坛元老

    积分
    8290
    前天 17:31 | 显示全部楼层
    绑定
    回复

    使用道具 举报

    5

    主题

    301

    回帖

    955

    积分

    高级会员

    积分
    955
    yjx79802

    5

    主题

    301

    回帖

    955

    积分

    高级会员

    积分
    955
    前天 17:32 | 显示全部楼层

    totti5116 发表于 2025-1-29 17:27

    1.5g 内存能跑吗

    有个1.5b的模型,大小1.1G,估计1.5G十分勉强能够用,

    不如API。10块钱没有高需求按照现在的价格能对话一年了。。
    回复

    使用道具 举报

    135

    主题

    2041

    回帖

    6025

    积分

    论坛元老

    积分
    6025
    DogeLee2 楼主

    135

    主题

    2041

    回帖

    6025

    积分

    论坛元老

    积分
    6025
    前天 17:27 | 显示全部楼层

    jhsyue 发表于 2025-1-29 17:30

    api那么便宜,真不如直接用api了啊

    主要是拿来当玩具用
    回复

    使用道具 举报

    135

    主题

    2041

    回帖

    6025

    积分

    论坛元老

    积分
    6025
    DogeLee2 楼主

    135

    主题

    2041

    回帖

    6025

    积分

    论坛元老

    积分
    6025
    前天 17:32 | 显示全部楼层

    totti5116 发表于 2025-1-29 17:27

    1.5g 内存能跑吗


    1.5b也许可以
    但是效果真不行,调用api完事了

    回复

    使用道具 举报

    84

    主题

    221

    回帖

    1672

    积分

    金牌会员

    积分
    1672
    人穷器短

    84

    主题

    221

    回帖

    1672

    积分

    金牌会员

    积分
    1672
    前天 17:30 | 显示全部楼层
    api价格之下,除非有定制能力和需求,或者学习和玩,脑瘫才自建
    回复

    使用道具 举报

    135

    主题

    2041

    回帖

    6025

    积分

    论坛元老

    积分
    6025
    DogeLee2 楼主

    135

    主题

    2041

    回帖

    6025

    积分

    论坛元老

    积分
    6025
    前天 17:33 | 显示全部楼层

    人穷器短 发表于 2025-1-29 17:33

    api价格之下,除非有定制能力和需求,或者学习和玩,脑瘫才自建

    是的
    我赞同你
    这其实就是个玩具
    回复

    使用道具 举报

    231

    主题

    2147

    回帖

    5917

    积分

    论坛元老

    积分
    5917
    toot

    231

    主题

    2147

    回帖

    5917

    积分

    论坛元老

    积分
    5917
    前天 17:27 | 显示全部楼层
    牛逼啊。开搞

    还有更厉害的模型吗,100刀独服左右能带得动那种
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    Archiver|小黑屋|HS2V主机综合交流论坛

    GMT+8, 2025-1-31 11:12 , Processed in 0.024006 second(s), 2 queries , Gzip On, Redis On.

    Powered by Discuz! X3.5

    © 2001-2024 Discuz! Team.

    快速回复 返回顶部 返回列表