全部
常见问题
产品动态
精选推荐
功能建议

分析中 已回复 待规划 {{opt.name}}
分析中 已回复 待规划
Ring-1T 本地部署完整教程(超详细)

管理 管理 编辑 删除

下面给你一份 从零开始即可落地的《Ring-1T 本地部署完整教程》,包含 Windows / Linux / Docker / 单卡 / 多卡 / 量化版 全覆盖,非常适合工程落地与企业私有化部署。


Ring-1T 本地部署完整教程(超详细)

本教程包含:

  1. 环境要求
  2. 下载模型
  3. Windows 部署(单 GPU / 多 GPU)
  4. Linux 部署(推荐生产环境)
  5. Docker 部署(最稳定)
  6. WebUI 部署(像 oobabooga 一样)
  7. API 服务部署(变成一个本地 ChatGPT)
  8. 量化版运行(3090/4090/5080 都能跑)


1. 环境要求

Python

Python 3.10 或 3.11

必装依赖

pip install torch --index-url https://download.pytorch.org/whl/cu121
pip install vllm transformers accelerate

GPU(根据模型选)

模型显存要求说明
ring-1t-preview40GB+(A100 40G / 4090)推荐本地体验版
量化版(AWQ/GPTQ)16–24GB 即可运行推荐 3090 / 4080 / 5080
ring-1t full多机多卡企业级部署


2. 下载模型(推荐 GitHub)

git clone https://github.com/AntGroup-Ling/Ring-1T.git
cd Ring-1T
git lfs install
git lfs pull

下载后模型会出现在:

Ring-1T/models/ring-1t-preview

你也可以从 HuggingFace 下载(更快),我可以给你提供链接。


3. Windows 本地部署(最详细步骤)

适用于 3090 / 4090 / 5080 等消费级显卡 推荐运行 AWQ 量化版,显存压力更低


✔步骤 ①:安装 CUDA 与 PyTorch

如果你的 GPU 支持 CUDA 12.1:

pip install torch --index-url https://download.pytorch.org/whl/cu121


✔步骤 ②:安装 vLLM(Ring-1T 官方推理框架)

Windows 目前需要使用预编译版本:

pip install vllm

如果安装失败,请告诉我,我给你适配 wheel 包。


步骤 ③:启动本地推理

新建 run.py

from vllm import LLM, SamplingParams

llm = LLM("./Ring-1T/models/ring-1t-preview", trust_remote_code=True)

params = SamplingParams(temperature=0.2, max_tokens=256)
prompt = "解释人类为什么能看到彩虹?"

output = llm.generate([prompt], params)
print(output[0].outputs[0].text)

运行:

python run.py

你就能本地推理 Ring-1T 了。


4. Linux 本地部署(企业/服务器推荐)

依赖安装

apt update
apt install git-lfs -y

pip install torch --index-url https://download.pytorch.org/whl/cu121
pip install vllm transformers accelerate

启动推理

python run.py

即可使用。


5. Docker 部署(最稳定)

支持 GPU,请确保已安装:

nvidia-docker2

启动命令:

docker run --gpus all -it --rm \
  -v /data/ring:/model \
  vllm/vllm-openai:latest \
  --model /model/ring-1t-preview

默认就会启动:

http://localhost:8000/v1/chat/completions

能直接当 OpenAI API 来用。


6. 部署 WebUI(像 oobabooga 一样)

可选方案:


方法 A:使用 Text Generation WebUI

  1. 克隆:
git clone https://github.com/oobabooga/text-generation-webui
cd text-generation-webui
  1. 放入模型:
models/ring-1t-preview/
  1. 启动:
python server.py --model ring-1t-preview

界面路径:

http://127.0.0.1:7860


方法 B:使用 LM Studio

更简单:

  1. 打开 LM Studio
  2. 搜索 Ring-1T preview
  3. 一键加载
  4. 本地聊天


7. 部署 API 服务(让它像 ChatGPT 一样)

vLLM 自带 OpenAI API Server:

python -m vllm.entrypoints.openai.api_server \
    --model Ring-1T/models/ring-1t-preview \
    --max-model-len 128000

你将获得:

🔗 Chat Completions API

POST /v1/chat/completions

示例调用

curl http://localhost:8000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "ring-1t-preview",
    "messages": [{"role":"user","content":"你好"}]
  }'

你现在拥有一个本地的 “私有 ChatGPT”。


8. 3090/4090/5080 运行(量化版)

如果显存不足,使用:

  • AWQ 量化版(推荐)
  • GPTQ 量化版
  • INT4 / INT3

只需:

pip install autoawq

运行方式:

awq = AutoAWQForCausalLM.from_pretrained("ring-1t-preview", ...)

如果你需要,我可以给你 Ring-1T 的专用量化版下载链接 + 适配脚本



{{voteData.voteSum}} 人已参与
支持
反对
请登录后查看

小码二开 最后编辑于2025-12-06 16:22:13

快捷回复
回复
回复
回复({{post_count}}) {{!is_user ? '我的回复' :'全部回复'}}
排序 默认正序 回复倒序 点赞倒序

{{item.user_info.nickname ? item.user_info.nickname : item.user_name}} LV.{{ item.user_info.bbs_level || item.bbs_level }}

作者 管理员 企业

{{item.floor}}# 同步到gitee 已同步到gitee {{item.is_suggest == 1? '取消推荐': '推荐'}}
{{item.is_suggest == 1? '取消推荐': '推荐'}} 【已收集】
{{item.floor}}# 沙发 板凳 地板 {{item.floor}}# 【已收集】
{{item.user_info.title || '暂无简介'}}
附件

{{itemf.name}}

{{item.created_at}}  {{item.ip_address}}
打赏
已打赏¥{{item.reward_price}}
{{item.like_count}}
分享
{{item.showReply ? '取消回复' : '回复'}}
删除
回复
回复

{{itemc.user_info.nickname}}

{{itemc.user_name}}

回复 {{itemc.comment_user_info.nickname}}

附件

{{itemf.name}}

{{itemc.created_at}}
打赏
已打赏¥{{itemc.reward_price}}
{{itemc.like_count}}
{{itemc.showReply ? '取消回复' : '回复'}}
删除
回复
回复
收起 展开更多
查看更多
打赏
已打赏¥{{reward_price}}
31
{{like_count}}
{{collect_count}}
添加回复 ({{post_count}})

快速安全登录

使用微信扫码登录
回复
回复
问题:
问题自动获取的帖子内容,不准确时需要手动修改. [获取答案]
答案:
提交
bug 需求 取 消 确 定
打赏金额
当前余额:¥{{rewardUserInfo.reward_price}}
{{item.price}}元
请输入 0.1-{{reward_max_price}} 范围内的数值
打赏成功
¥{{price}}
完成 确认打赏

微信登录/注册

切换手机号登录

{{ bind_phone ? '绑定手机' : '手机登录'}}

{{codeText}}
切换微信登录/注册
暂不绑定
CRMEB客服

CRMEB咨询热线 咨询热线

400-8888-794

微信扫码咨询

CRMEB开源商城下载 源码下载 CRMEB帮助文档 帮助文档
返回顶部 返回顶部
CRMEB客服