Dokcer部署NextChat配置魔搭免费使用GLM-4.6教程 1

最近一直在使用 每天单模型免费调用500次速度挺快的之前是用的GLM4.5昨天看魔搭可以使用GLM4.6了体验了下还不错来分享下搭建步骤
一、docker容器部署 (推荐)
Docker 版本需要在 20 及其以上,否则会提示找不到镜像。

️ 注意:docker 版本在大多数时间都会落后最新的版本 1 到 2 天,所以部署后会持续出现“存在更新”的提示,属于正常现象。

docker pull yidadaa/chatgpt-next-web

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=页面访问密码 \
   yidadaa/chatgpt-next-web

你也可以指定 proxy:

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=页面访问密码 \
   --net=host \
   -e PROXY_URL=http://127.0.0.1:7890 \
   yidadaa/chatgpt-next-web

二、注册魔搭申请API

  1. 注册一个账号
    访问地址:https://www.modelscope.cn/
  2. 绑定阿里账号(前几天试过跳转阿里云之后登录点击绑定就行 不需要实名!!!)
    如下图鼠标放到右上角就可以看到绑定阿里云账号
  3. 申请token
    访问地址:https://www.modelscope.cn/my/myaccesstoken
    安装图片所示申请token
  4. 配置到NextChat
    打开NextChat点击右下角设置

    需要配置的地方已经在上面图片中圈出来了
模型服务商选择openai
接口地址填https://api-inference.modelscope.cn
APIKEY就填刚才上面第三部申请的token
自定义模型填ZhipuAI/GLM-4.6,deepseek-ai/DeepSeek-V3.1

具体可用模型有哪些可以到模型库中查看https://www.modelscope.cn/models

上图就是魔搭的模型库有闪电标志的就是能使用的
目前每位魔搭注册用户,当前每天允许进行总数为2000次的API-Inference调用,其中每单个模型不超过500次,具体每个模型的限制可能随时动态调整。
查看当天使用次数进入魔搭官网鼠标放到右上角头像弹出的信息最后一行就是用量额度

完成以上步骤就可以愉快的使用模型了

点赞
  1. Mofeng说道:

    不错

  2. l315675073说道:

    厉害

发表回复

电子邮件地址不会被公开。必填项已用 * 标注

×
订阅图标按钮