内部大模型 API KEY 池使用指南

一站式了解 AI 基础知识、KEY 池架构与各类编程提效工具

🧠

AI 与 Agent 基础知识

大模型原理、Prompt 工程、Agent 架构科普

🏗️

API KEY 池架构

NewAPI + Sub2API 号池方案详解

📖

KEY 池使用教程

申请、配置、调用全流程指南

🍒

Cherry Studio

多模型聚合桌面客户端

🦘

Roo Code

VS Code AI 编程助手插件

📐

Kilo Code

轻量级 AI 编程辅助工具

🤖

Claude Code

Anthropic 官方 CLI 编程工具

Codex CLI

OpenAI 终端编程助手

🔧

一键安装脚本

自动安装依赖与配置环境

AI 与 Agent 基础知识普及

📄
PPT 原始文档

以下内容整理自内部培训 PPT,如需查阅原始幻灯片可直接下载 PDF

下载 PDF

AI 发展历程

人工智能经历了从规则系统到深度学习再到大模型的演进过程:

  • 1950s-1960s 奠基阶段:图灵提出「图灵测试」(1950),感知机诞生(1958),ELIZA 聊天程序基于模式匹配模拟对话(1966)
  • 1970s-1980s 符号主义与专家系统:基于规则和逻辑推理的专家系统迎来黄金期,代表性成果如 MYCIN(医疗诊断)、DENDRAL(化学分析)
  • 1990s-2010s 机器学习时代:统计学习方法兴起,SVM、随机森林、朴素贝叶斯等算法广泛应用于分类、回归任务
  • 2012 深度学习爆发:AlexNet 在 ImageNet 竞赛中大幅领先,CNN 在图像识别领域取得突破性进展
  • 2017 Transformer 诞生:Google 发表《Attention Is All You Need》论文,提出自注意力机制,奠定了后续所有大模型的基础架构
  • 2018-2019 预训练模型兴起:OpenAI 发布 GPT,Google 发布 BERT,「预训练 + 微调」范式成为主流
  • 2020-2022 规模化竞赛:GPT-3(1750 亿参数)展示了大模型的涌现能力,模型规模和能力快速增长
  • 2022.11 ChatGPT 发布:大模型进入公众视野,两个月内用户破亿,开启 AI 应用爆发期
  • 2023 多模态元年:GPT-4V(2023.9)、Gemini(2023.12)等多模态模型涌现,能同时处理文本、图像、音频
  • 2024 大模型全面落地:Claude 3 系列发布(2024.3),开源模型(Llama 3、Mistral)快速追赶,AI 应用在各行业加速渗透
  • 2025-至今 Agent 时代:AI Agent 成为新方向,Claude Code(2025.2)、OpenAI Codex(2025.5)等编程 Agent 落地,AI 从「对话」走向「行动」

什么是大语言模型(LLM)

大语言模型(Large Language Model)是基于 Transformer 架构、通过海量文本数据训练而成的深度学习模型。它通过学习文本中的统计规律,掌握了语言理解和生成能力,能完成对话、翻译、摘要、代码生成等多种任务。

大模型的工作原理

本质上,大模型是一个「下一个 Token 预测器」——给定前面的文本,预测最可能出现的下一个词。通过海量数据训练,模型学会了语法、逻辑、常识甚至推理能力。

类比理解:就像一个读过全世界所有书籍的人,虽然不是真正「理解」内容,但能根据上下文给出非常合理的回答。

模型架构:不只有 Transformer

目前主流大模型(GPT、Claude、Gemini)底层仍是 Transformer,但也出现了几种值得关注的替代架构:

架构 核心思路 代表模型 优势与局限
Transformer自注意力机制,O(n²) 复杂度GPT 系列、Claude、Gemini性能最强,生态最成熟;长序列计算开销大
Mamba / SSM状态空间模型,O(n) 线性复杂度Jamba(AI21,混合架构,256K 上下文)长序列效率极高,推理内存恒定;回看能力较弱
RWKV线性 RNN,训练可并行、推理恒定速度RWKV-7 Goose(2025.3,开源)计算量比 Transformer 低 10-100 倍;对 prompt 格式敏感
xLSTMLSTM 原作者改进版,指数门控 + 矩阵记忆尚无大规模商用模型理论潜力大;仍处于早期研究阶段
小结:Transformer 仍是绝对主流。新架构更多在超长序列、边缘设备等场景展现优势,实际落地最多的是混合架构(如 Jamba = Mamba + Transformer)。

核心概念详解

Token(令牌)

Token 是模型处理文本的最小单位,并非简单的「字」或「词」,而是通过分词算法(如 BPE)切分出来的片段。

  • 英文中一个常见单词约 1 个 Token,长单词可能被拆为 2-3 个 Token
  • 中文约 1-2 个汉字为一个 Token,标点符号也占 Token
  • 代码中的关键字、变量名、符号都各自占 Token
  • 输入 Token(Prompt):你发送给模型的全部内容,包括 System Prompt + 历史对话 + 当前问题
  • 输出 Token(Completion):模型生成的回复内容
  • 费用计算:输入 Token 单价 × 输入量 + 输出 Token 单价 × 输出量(输出通常比输入贵 3-5 倍)
实用参考:1000 个 Token ≈ 750 个英文单词 ≈ 500 个中文字。一篇普通文章约 2000-4000 Token。

Context Window(上下文窗口)

模型单次对话能处理的最大 Token 数,包含输入和输出的总和。超出窗口限制的早期内容会被截断或「遗忘」,这就是为什么长对话后模型会「忘记」之前说过的话。

模型 上下文窗口 约等于
GPT-5 / 5.2400K tokens约 1000 页文档
Claude Opus 4.6 / Sonnet 4.6200K tokens(beta 1M)约 500 页文档
Gemini 2.5 Pro / Flash1M tokens约数千页文档
Qwen3-Max256K tokens约 600 页文档
DeepSeek V3128K tokens约 300 页文档

Temperature(温度)

控制模型输出的随机性和创造性。温度越低,输出越确定和一致;温度越高,输出越多样和有创意。

  • Temperature = 0:每次输出几乎相同,最确定最保守。适合代码生成、数据提取、事实性问答
  • Temperature = 0.3-0.5:轻微随机性,保持准确的同时有一定灵活度。适合技术文档、邮件撰写
  • Temperature = 0.7:平衡创造性和准确性,大多数场景的默认值。适合日常对话、一般写作
  • Temperature = 1.0+:高度随机,可能出现意想不到的表达。适合创意写作、头脑风暴、诗歌创作
编程建议:写代码时建议 Temperature 设为 0 或 0.1,确保输出稳定可靠。

System Prompt(系统提示词)

在对话开始前设定的指令,定义模型的角色、行为规范、输出格式和限制条件。相当于给模型一个「人设」和「工作手册」。好的 System Prompt 能显著提升输出质量。

你是一位资深 Java 后端工程师,擅长 Spring Boot 和微服务架构。
请用中文回答,代码要包含详细注释。
回答格式要求:先给出结论,再详细解释原因,最后给出代码示例。
如果不确定,请明确说明而不是猜测。

Top-P(核采样)

另一种控制输出多样性的参数。Top-P = 0.9 表示模型只从累计概率前 90% 的候选词中采样。通常与 Temperature 配合使用,不建议同时调高两者。

Max Tokens(最大输出长度)

限制模型单次回复的最大 Token 数。设置过小会导致回答被截断,设置过大会增加成本和延迟。一般建议根据任务类型设置:简单问答 500-1000,代码生成 2000-4000,长文写作 4000-8000。

主流大模型对比

模型 厂商 特点 适用场景
Claude Opus 4.6 / Sonnet 4.6Anthropic200K 上下文(beta 1M)、代码与 Agent 能力顶级、安全性高编程、Agent 开发、长文档分析
GPT-5.2 / 5.3-CodexOpenAI400K 上下文、多模态、生态最丰富;5.3-Codex 专攻编程 Agent通用对话、多模态、编程 Agent
Gemini 2.5 Pro / FlashGoogle1M 上下文、原生搜索集成、混合推理长文档、搜索增强、多模态
DeepSeek V3 / R1DeepSeek128K 上下文、开源、性价比极高、推理链透明日常对话、代码、数学推理
Qwen3阿里256K 上下文、中文优化、支持思考/非思考双模式中文场景、私有化部署
Llama 4 Scout / MaverickMetaMoE 架构、Scout 支持 10M 超长上下文、原生多模态本地部署、微调定制、长上下文
选型建议:编程与 Agent 首选 Claude;通用任务用 GPT-5 系列;追求性价比选 DeepSeek;需要私有化部署考虑 Qwen3 或 Llama 4。

Prompt Engineering(提示词工程)

提示词的质量直接决定模型输出的质量。掌握以下技巧可以显著提升效果:

1. 角色设定(Role Prompting)

给模型一个明确的身份,让它以专家视角回答问题。

你是一位有 10 年经验的 Java 架构师,精通 Spring Cloud 微服务体系。

2. 明确任务与约束

清晰描述输入、输出格式、约束条件,减少歧义。

请将以下 JSON 数据转换为 Java 实体类。
要求:使用 Lombok 注解,字段加上 Javadoc 注释,日期类型用 LocalDateTime。

3. Few-shot 示例

提供 1-3 个输入输出示例,让模型理解你期望的格式和风格。

4. 思维链(Chain of Thought)

要求模型「一步步思考」,对复杂推理任务效果显著。

请一步步分析这段代码的执行流程,找出可能导致空指针异常的位置。

5. 结构化输出

要求模型以特定格式(JSON、Markdown 表格、XML)输出,便于程序解析。

6. 限制与兜底

明确告诉模型不该做什么,以及不确定时如何处理。

只修改 UserService.java 文件,不要改动其他代码。
如果不确定某个方法的用途,请标注 TODO 而不是猜测。

什么是 AI Agent(智能体)

AI Agent 是在大模型基础上,增加了感知环境、自主规划、工具调用、记忆存储能力的自主系统。与普通对话不同,Agent 能够主动执行多步骤任务,而不仅仅是回答问题。

Agent vs 普通对话的区别

维度 普通 LLM 对话 AI Agent
交互方式一问一答自主规划、多轮执行
工具使用可调用 API、执行代码、读写文件
记忆仅当前对话短期 + 长期记忆
自主性被动响应主动规划和执行

Agent 核心组件

1. 规划(Planning)

Agent 接收到复杂任务后,会将其拆解为多个子步骤,制定执行计划。

  • 任务分解:将「重构用户模块」拆解为:分析现有代码 → 设计新结构 → 逐步修改 → 运行测试
  • 动态调整:执行过程中根据结果调整后续步骤

2. 工具使用(Tool Use / Function Calling)

Agent 可以调用外部工具来完成自身无法直接完成的任务:

  • 执行终端命令(编译、运行测试、Git 操作)
  • 读写文件系统
  • 调用外部 API(搜索、数据库查询)
  • 浏览网页获取信息

3. 记忆(Memory)

  • 短期记忆:当前对话的上下文,受 Context Window 限制
  • 长期记忆:通过外部存储(向量数据库、文件)持久化关键信息
  • 工作记忆:当前任务的中间状态和执行进度

4. 反思(Reflection)

Agent 能够检查自己的输出,发现错误并自我纠正。例如:代码编译失败后,自动分析错误信息并修复。

实际例子:Claude Code 就是一个典型的 Coding Agent —— 你说「帮我修复这个 Bug」,它会自动读取代码、定位问题、编辑文件、运行测试、验证修复结果。

Agent 工作流模式

根据复杂度不同,Agent 有多种编排模式:

单 Agent 模式

一个 Agent 独立完成所有任务,适合简单场景。如 Claude Code 单独修复一个 Bug。

多 Agent 协作模式

多个专业 Agent 分工协作,各司其职:

  • 串行链式:Agent A 的输出作为 Agent B 的输入(如:需求分析 → 代码生成 → 代码审查)
  • 并行分发:多个 Agent 同时处理不同子任务,最后汇总结果
  • 监督者模式:一个主 Agent 负责调度,多个子 Agent 执行具体任务

人机协作模式(Human-in-the-Loop)

Agent 在关键决策点暂停,等待人类确认后再继续。这是目前编程 Agent 的主流模式——工具会在执行危险操作前请求你的批准。

MCP 协议(Model Context Protocol)

MCP 是 Anthropic 提出的开放协议,旨在标准化 AI 模型与外部工具/数据源的连接方式。

MCP 的本质:给模型提供上下文

名字里的 Context 就是关键——MCP 本质上是一套标准化的上下文注入协议。大模型本身只能处理 Context Window 里的文本,MCP 解决的是「怎么把外部世界的信息塞进上下文」这个问题。

MCP Server 提供三类能力,都是在为模型补充上下文:

  • Tools(工具):让模型调用外部操作(查数据库、调 API、操作 Jira),执行结果作为上下文返回
  • Resources(资源):向模型暴露可读取的数据源(文件、文档、配置),模型按需拉取
  • Prompts(提示模板):预定义的提示词模板,引导模型以特定方式处理任务

为什么需要 MCP?

以前每个 AI 工具都要单独开发与外部系统的集成(N 个工具 × M 个数据源 = N×M 个适配器)。MCP 提供统一标准,让任何支持 MCP 的客户端都能连接任何 MCP 服务器,变成 N + M 的关系。

MCP 架构

┌──────────────┐     MCP 协议     ┌──────────────┐
│  AI 工具端    │ ◄──────────────► │  MCP Server  │
│ (Claude Code │                  │ (数据库/API/ │
│  Cherry Studio│                  │  文件系统等)  │
│  Roo Code)   │                  │              │
└──────────────┘                  └──────────────┘
    MCP Client                     MCP Server
    (消费工具)                      (提供工具)

MCP、Slash Commands、Skills 的关系

在 Claude Code 等工具中,你会接触到几种看起来相似的扩展机制,它们的定位其实不同:

机制 是什么 谁在用 典型例子
MCP Server外部能力接入协议,给模型提供工具和数据源模型在推理时自主决定是否调用连接数据库、操作 Jira、访问内部 API
Slash Commands用户手动触发的快捷指令,本质是预设的 Prompt 模板用户主动输入 /xxx 触发/commit(生成提交)、/review(代码审查)
Skills可复用的能力包,可以组合 Prompt + MCP + 工具调用由 Slash Command 触发或系统自动匹配代码审查技能(包含 prompt 模板 + lint 工具调用)

它们的关系可以这样理解:MCP 是底层协议(连接外部世界)→ Skills 是能力封装(组合多种工具和 prompt)→ Slash Commands 是用户入口(一键触发某个 Skill)。三者是不同层次的抽象,而非互相替代。

趋势:MCP 正在成为 AI 工具生态的「USB 接口」——Cherry Studio、Roo Code、Claude Code、Cursor 等主流工具都已支持,社区 MCP Server 数量快速增长。

RAG(检索增强生成)

RAG(Retrieval-Augmented Generation)是解决大模型「知识过时」和「幻觉」问题的关键技术。

工作原理

用户提问
   │
   ▼
┌─────────────┐    检索相关文档    ┌─────────────┐
│  向量检索     │ ◄──────────────► │  知识库       │
│  (Embedding) │                  │ (文档/数据库) │
└──────┬──────┘                  └─────────────┘
       │ 检索到的上下文
       ▼
┌─────────────┐
│   大模型      │ → 基于检索结果生成回答
└─────────────┘

RAG 的优势

  • 知识实时更新:无需重新训练模型,更新知识库即可
  • 减少幻觉:回答基于真实文档,可溯源
  • 领域定制:接入企业内部文档,打造专属知识助手
  • 成本低:比微调模型便宜得多

RAG vs Agent 探索:编程场景为什么不用 RAG?

你可能注意到,Claude Code、Codex 这类编程 Agent 并没有用 RAG,而是让子 Agent 实时探索代码库(grep、glob、读文件)。这不是偶然的选择:

对比维度 RAG(向量检索) Agent 探索(实时读取)
信息新鲜度依赖预先构建的索引,代码一改就过时直接读源文件,永远是最新的
检索精度语义相似 ≠ 逻辑相关,容易召回无关代码按调用链、import 关系精确追踪,上下文连贯
多跳推理一次检索只能拿到片段,难以跨文件追踪可以一步步跟进:找定义 → 找调用方 → 找测试
维护成本需要维护向量数据库、Embedding 管线、索引更新零维护,直接操作文件系统
适用场景大规模静态知识库(文档、FAQ、Wiki)频繁变动的代码库、需要精确定位的场景

简单说:代码是结构化的、频繁变动的、需要精确定位的——这恰好是 RAG 的弱项和 Agent 探索的强项。而企业知识库、客服文档这类大规模、相对静态、语义检索即可的场景,RAG 仍然是最佳方案。

应用场景:企业内部知识库问答、技术文档检索、客服系统等静态知识场景首选 RAG;代码库探索、Bug 定位等动态精确场景更适合 Agent 模式。

AI 在软件开发中的应用场景

代码生成与补全

根据自然语言描述或上下文自动生成代码,提升编码效率 30%-50%。

代码审查与重构

AI 自动检查代码质量、发现潜在 Bug、建议重构方案。

Bug 定位与修复

给出错误信息,AI 自动分析堆栈、定位根因、生成修复代码。

测试生成

自动为现有代码生成单元测试,提高测试覆盖率。

文档生成

自动为代码生成注释、API 文档、技术方案文档。

需求分析与设计

辅助分析需求文档、生成数据库设计、绘制架构图。

注意:AI 是辅助工具而非替代品。生成的代码务必经过人工审查,关键业务逻辑不要盲目信任 AI 输出。

API KEY 池架构

整体架构概览

我们的 API KEY 池采用 NewAPI + Sub2API 的双层架构,实现多模型统一接入、密钥轮转和用量管控。

┌─────────────────────────────────────────────────┐
│                  用户 / 工具端                     │
│  (Cherry Studio / Roo Code / Claude Code / ...)  │
└──────────────────────┬──────────────────────────┘
                       │ 多格式 API(OpenAI / Anthropic / 等)
                       ▼
              ┌─────────────────┐
              │     NewAPI       │  ← API 网关层
              │  (统一入口管理)    │
              │  - 用户管理       │
              │  - 令牌分发       │
              │  - 用量统计       │
              │  - 模型路由       │
              └────────┬────────┘
                       │
          ┌────────────┼────────────┐
          ▼            ▼            ▼
   ┌────────────┐┌────────────┐┌────────────┐
   │ Sub2API #1 ││ Sub2API #2 ││ Sub2API #3 │  ← 号池层
   │ (Claude池) ││ (GPT池)    ││ (其他池)    │
   │ N 个 KEY   ││ N 个 KEY   ││ N 个 KEY   │
   └─────┬──────┘└─────┬──────┘└─────┬──────┘
         │             │             │
         ▼             ▼             ▼
   ┌──────────┐ ┌──────────┐ ┌──────────┐
   │ Anthropic│ │  OpenAI  │ │ Google/  │
   │   API    │ │   API    │ │ DeepSeek │
   └──────────┘ └──────────┘ └──────────┘

NewAPI —— 统一网关

NewAPI 是一个开源的 API 管理与分发平台,支持多种 AI 厂商 API 格式的统一接入与互相转换。

核心功能

  • 多模型聚合:统一接入 Claude / GPT / Gemini / DeepSeek 等
  • 用户与令牌管理:为每位成员分配独立令牌,设置额度
  • 用量监控:实时统计每个用户、每个模型的调用量和费用
  • 模型映射:自定义模型名称映射,对用户透明
  • 渠道管理:配置多个上游渠道,支持优先级和权重

Sub2API —— 号池管理

Sub2API 负责管理同一厂商的多个 API KEY,实现自动轮转和故障切换。

核心功能

  • KEY 轮转:请求自动分配到不同 KEY,避免单 KEY 限速
  • 健康检查:自动检测失效 KEY 并剔除
  • 负载均衡:支持轮询、随机、权重等策略
  • 兼容输出:对外暴露标准 OpenAI 格式接口
注意:Sub2API 是内部号池层,普通用户无需直接访问。只需使用 NewAPI 分发的令牌即可。

为什么选择这个架构?

  • 用户只需一个 KEY,即可访问所有模型
  • KEY 池自动轮转,突破单 KEY 速率限制
  • 统一计费和用量管控,便于成本核算
  • 兼容多种 API 格式(OpenAI / Anthropic / Azure 等),并能灵活转换,几乎所有工具都能直接接入
  • 只需一个 API Key 即可使用,无需注册各厂商账号——降低了解门槛和使用门槛,不用关心各平台的注册流程、付费方式、信用卡绑定等繁琐操作
  • 故障自动切换,提高可用性

API KEY 池使用教程

第一步:获取你的 API KEY

点击下方按钮,通过钉钉扫码验证身份后自动获取你的 API Key:

第二步:配置 API 地址

所有工具的配置都需要两个信息:API Base URLAPI Key(上一步获取)。

可用的 API 地址(三选一):

线路 地址 说明
🇯🇵 日本线路 http://jp-ai.747698.xyz 延迟最低,速度最快
🇺🇸 美国线路 http://us-ai.747698.xyz 最稳定
🏠 主服务 http://ai.747698.xyz 备用线路
提示:推荐使用 http 协议。https 也可用,但域名可能被墙,带 TLS 时可能需要翻墙。大部分工具选择 "OpenAI" 作为提供商,然后修改 Base URL 即可。

第三步:选择模型

KEY 池中已接入以下模型(以实际配置为准):

  • Claude claude-opus-4-6 / claude-sonnet-4-6 / claude-opus-4-5-thinking / claude-sonnet-4-5 / claude-haiku-4-5
  • GPT gpt-5.2 / gpt-5.1 / gpt-5 / gpt-5.3-codex / gpt-5.2-codex / gpt-5.1-codex / gpt-5-codex
  • Gemini gemini-3.1-pro / gemini-3-pro-preview / gemini-3-flash / gemini-2.5-pro / gemini-2.5-flash
  • DeepSeek deepseek-ai/DeepSeek-R1-0528 / deepseek-ai/DeepSeek-V3.2
  • Kimi moonshotai/kimi-k2.5 / moonshotai/kimi-k2-thinking
  • 其他 z-ai/glm4.7 / minimaxai/minimax-m2.1

第四步:测试连通性

选择以下任一方式验证配置是否正确:

curl(OpenAI 格式)

curl http://jp-ai.747698.xyz/v1/chat/completions \
  -H "Authorization: Bearer sk-你的令牌" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5.2",
    "messages": [{"role": "user", "content": "你好"}]
  }'

curl(Anthropic 格式)

curl http://jp-ai.747698.xyz/v1/messages \
  -H "x-api-key: sk-你的令牌" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-6",
    "max_tokens": 1024,
    "messages": [{"role": "user", "content": "你好"}]
  }'

Python(OpenAI SDK)

from openai import OpenAI

client = OpenAI(
    api_key="sk-你的令牌",
    base_url="http://jp-ai.747698.xyz/v1"
)

response = client.chat.completions.create(
    model="gpt-5.2",
    messages=[{"role": "user", "content": "你好"}]
)
print(response.choices[0].message.content)

返回正常响应即表示配置成功。

常见问题

  • Q: 报 401 错误? → 检查 API Key 是否正确,是否过期
  • Q: 报 404 错误? → 检查 Base URL 是否正确,末尾不要加 /v1(部分工具会自动拼接)
  • Q: 模型不存在? → 确认模型名称与 NewAPI 中配置的一致
  • Q: 响应很慢? → 可能是网络问题,或尝试切换到更快的模型

Cherry Studio 使用教程

简介

Cherry Studio 是一款开源的多模型聚合桌面客户端,支持 Windows / macOS / Linux。它提供美观的对话界面,支持多模型切换、对话管理、Prompt 模板等功能。

安装

1

下载安装包

前往 GitHub Releases 下载对应平台的安装包。

2

安装并启动

Windows 双击 .exe 安装,macOS 拖入 Applications 文件夹。

配置 KEY 池

1

打开设置

点击左下角齿轮图标,进入「模型服务」设置。

2

添加 OpenAI 兼容服务

选择「OpenAI API」类型,填入:

  • API 地址:http://jp-ai.747698.xyz
  • API Key:sk-你的令牌
3

获取模型列表

点击「获取模型」按钮,系统会自动拉取可用模型列表。选择需要的模型即可开始对话。

Roo Code 使用教程

简介

Roo Code(原 Roo Cline)是一款 VS Code AI 编程助手插件,支持代码生成、重构、Bug 修复、文件操作等。它能直接在编辑器中与你协作编程。

安装

1

在 VS Code 中安装

打开 VS Code → 扩展市场 → 搜索 Roo Code → 安装。

配置 KEY 池

1

打开 Roo Code 设置

点击侧边栏 Roo Code 图标 → 点击齿轮进入设置。

2

选择 API Provider

选择 OpenAI Compatible 作为提供商。

3

填写配置

  • Base URL:http://jp-ai.747698.xyz/v1
  • API Key:sk-你的令牌
  • Model:输入模型名称如 claude-sonnet-4-6
注意:Roo Code 的 Base URL 需要带 /v1 后缀。

Kilo Code 使用教程

简介

Kilo Code 是一款轻量级的 VS Code AI 编程辅助插件,从 Roo Code 分叉而来,专注于提供简洁高效的 AI 编程体验。支持多种模型接入。

安装

1

在 VS Code 中安装

打开 VS Code → 扩展市场 → 搜索 Kilo Code → 安装。

配置 KEY 池

配置方式与 Roo Code 类似:

1

打开设置

点击侧边栏 Kilo Code 图标 → 进入 Provider 设置。

2

配置 OpenAI Compatible

  • Provider:选择 OpenAI Compatible
  • Base URL:http://jp-ai.747698.xyz/v1
  • API Key:sk-你的令牌
  • Model ID:填写模型名称

Claude Code 使用教程

简介

Claude Code 是 Anthropic 官方推出的 CLI 编程工具(Coding Agent)。它运行在终端中,能够理解整个代码库、执行命令、编辑文件、自主完成复杂编程任务。

核心能力

  • 理解和搜索整个代码库
  • 自主读写文件、执行终端命令
  • 修复 Bug、重构代码、添加功能
  • 运行测试并自动修复失败用例
  • 创建 Git 提交和 PR

安装前提

  • Node.js >= 18(推荐使用 LTS 版本)
  • Git(用于代码仓库操作)
快捷方式:可使用本站「一键安装脚本」页面的脚本自动安装所有依赖。

安装 Claude Code

# 全局安装
npm install -g @anthropic-ai/claude-code

配置 KEY 池(关键)

Claude Code 默认使用 Anthropic 官方 API。要接入我们的 KEY 池,需要设置环境变量:

Windows (PowerShell)

# 设置环境变量
$env:OPENAI_API_KEY = "sk-你的令牌"
$env:OPENAI_BASE_URL = "http://jp-ai.747698.xyz/v1"

# 启动 Claude Code(使用 OpenAI 兼容模式)
claude --provider openai --model claude-sonnet-4-6

Linux / macOS (Bash)

# 设置环境变量
export OPENAI_API_KEY="sk-你的令牌"
export OPENAI_BASE_URL="http://jp-ai.747698.xyz/v1"

# 启动 Claude Code
claude --provider openai --model claude-sonnet-4-6
持久化配置:将上述 export 命令添加到 ~/.bashrc~/.zshrc 中,避免每次手动设置。Windows 用户可在系统环境变量中添加。

常用命令

# 启动交互式会话
claude

# 直接执行任务
claude "帮我修复这个 Bug"

# 查看帮助
claude --help

Codex CLI 使用教程

简介

Codex CLI 是 OpenAI 推出的终端编程助手,类似 Claude Code,能在命令行中理解代码、执行任务、编辑文件。

安装前提

  • Node.js >= 22
  • Git

安装 Codex

# 全局安装
npm install -g @openai/codex

配置 KEY 池

Windows (PowerShell)

$env:OPENAI_API_KEY = "sk-你的令牌"
$env:OPENAI_BASE_URL = "http://jp-ai.747698.xyz/v1"

codex

Linux / macOS

export OPENAI_API_KEY="sk-你的令牌"
export OPENAI_BASE_URL="http://jp-ai.747698.xyz/v1"

codex

常用命令

# 启动交互式会话
codex

# 直接执行任务
codex "重构这个函数"

# 全自动模式(谨慎使用)
codex --approval-mode full-auto "添加单元测试"

一键安装脚本

脚本列表

以下脚本帮助你快速安装依赖和配置环境,支持 Windows 和 Linux/macOS。

一键安装环境依赖

自动检测并安装 Node.js、Git 等必要依赖。

Windows(以管理员身份运行 PowerShell)

irm https://ai-hub-guide.pages.dev/scripts/setup-deps.ps1 | iex

# 或下载后本地执行
.\scripts\setup-deps.ps1

Linux / macOS

curl -fsSL https://ai-hub-guide.pages.dev/scripts/setup-deps.sh | bash

# 或下载后本地执行
chmod +x scripts/setup-deps.sh && ./scripts/setup-deps.sh

一键安装 Claude Code

自动安装 Claude Code 并配置 KEY 池环境变量。

Windows

.\scripts\install-claude-code.ps1

Linux / macOS

chmod +x scripts/install-claude-code.sh && ./scripts/install-claude-code.sh

一键安装 Codex CLI

自动安装 Codex CLI 并配置环境变量。

Windows

.\scripts\install-codex.ps1

Linux / macOS

chmod +x scripts/install-codex.sh && ./scripts/install-codex.sh

一键配置 API KEY

交互式配置 KEY 池地址和令牌,自动写入环境变量。

Windows

.\scripts\configure-apikey.ps1

Linux / macOS

chmod +x scripts/configure-apikey.sh && ./scripts/configure-apikey.sh