Skip to content

AI Coder Cli 原创

Claude Code

Claude Code 是由 Anthropic 公司推出的 AI 模型系列中的一个专门版本,专注于代码生成、理解与分析任务。它是 Claude 大模型的衍生版本,针对编程场景进行了优化,支持多种编程语言(如 Python、JavaScript、Java、C++、Go、Ruby 等),能够帮助开发者完成代码编写、调试、重构、注释生成、单元测试撰写等任务。

前提条件

  • Node.js 18 及以上版本
  • Window用户需要有WSL或者Git Bash环境

安装

bash
# Git Bash 中全局安装
npm install -g @anthropic-ai/claude-code

参考资料:https://www.cnblogs.com/xiaoke-ai/p/19047394

配置环境

【推荐】系统环境变量自定义模型

注意:url中的最后的/anthropic 这是固定写法,非官方文档中未提及参考,需要注意。只能配置一个模型,无法同时配置多个模型。

将环境变量配置到shell方法中,然后再.bashrc 或.zshrc文件中保存。切换模型时,执行对于的方法即可。dangerously-skip-permissions参数为免授权。

shell
export CLAUDE_CODE_MAX_TOKENS=64000

function cc_glm() {
  # 智普AI
  export ANTHROPIC_AUTH_TOKEN="你的GLM_API_Key"
  export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/anthropic"
  export ANTHROPIC_MODEL="glm-4.6"
  export ANTHROPIC_SMALL_FAST_MODEL="glm-4.6"
  echo "环境变量已设置为 GLM 配置,正在启动Claude Code..."
  claude --dangerously-skip-permissions  
}

function cc_dsk() {
  # deepseek
  export ANTHROPIC_AUTH_TOKEN="sk-xxxxxxxxxxxxxx"
  export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
  export ANTHROPIC_MODEL=deepseek-chat
  export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
  echo "环境变量已设置为 DeepSeek 配置,正在启动Claude Code..."
  claude --dangerously-skip-permissions
}

function cc_qw() {
  # 配置为 阿里QWEN
  export ANTHROPIC_AUTH_TOKEN="sk-xxxxxxxxxxxxxxx"
  export ANTHROPIC_BASE_URL="https://dashscope.aliyuncs.com/apps/anthropic"
  export ANTHROPIC_MODEL="qwen3-coder-plus"
  export ANTHROPIC_SMALL_FAST_MODEL="qwen3-coder-flash"
  echo "环境变量已设置为 QWEN 配置,正在启动Claude Code..."
  claude --dangerously-skip-permissions  
}

# 配置为 OpenRouter
function cc_or() {
  export ANTHROPIC_AUTH_TOKEN="sk-or-xxxxxxxxxxxxx"
  export ANTHROPIC_BASE_URL="https://openrouter.ai/api"
  export ANTHROPIC_MODEL="google/gemini-3-pro-preview"
  echo "环境变量已设置为 OpenRouter 配置,正在启动Claude Code..."
  claude --dangerously-skip-permissions
}

function cc_llm() {
  # liteLLM
  export ANTHROPIC_BASE_URL="https://litellm.demain.com:4000"
  export ANTHROPIC_AUTH_TOKEN="sk-zikEQXpi-OJmBKlI1LBTRw"
  export ANTHROPIC_MODEL="gemini/gemini-2.5-pro"
  export ANTHROPIC_DEFAULT_OPUS_MODEL="gemini/gemini-3-pro-preview"    
  export ANTHROPIC_DEFAULT_HAIKU_MODEL="gemini/gemini-3-pro-preview"
  echo "环境变量已设置为 LiteLLM 配置,正在启动Claude Code..."
  claude --dangerously-skip-permissions
}

Claude Code 全局变量自定义模型

修改claude配置文件 ~/.claude/settings.json 添加如下配置:

json
{
    "env": {
        "ANTHROPIC_AUTH_TOKEN": "your_zhipu_api_key",
        "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
        "API_TIMEOUT_MS": "3000000",
        "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1
    }
}

该方式只能配置一个模型,无法同时配置多个厂商模型,无法在不同厂商之间切换。整个客户端全局生效。该方式的最佳实践是搭配第三方 Router 使用,如 litellm ,在使用时通过 /model 命令切换模型。

注意:如果同时配置了系统环境变量和 claude 全局变量,claude code 客户端全局变量会覆盖系统环境变量,会导致无法通过系统环境变量切换不同厂商模型。

使用第三方 Router 切换模型

安装claude-code-router 或 litellm 代理模型提供商访问, 可以在多个模型之间切换。该方式较为麻烦, 需自建模型代理服务。

  • Claude Code Router 搭建

github

shell
# 安装ccr
npm install -g @musistudio/claude-code-router

# 通过ccr启动 Claude Code
ccr code

# 使用 UI 模式来管理您的配置
ccr ui

# 修改配置文件后,需要重启服务使配置生效
ccr restart
  • litellm 搭建

查看安装步骤

IDE集成

以VSCode为例, 先安装Claude Code Vscode 插件。安装完成后, 点击设置(crtl+,)在用户设置中搜索 "Claude Code"

勾选:Disable Login Prompt 选项启动时禁用登录提示,如果采用了 Claude Code 客户端全局变量自定义模型,此时点击编辑器右上角 Claude Code 图标打开即可进行对话。

下面我们采用不污染全局变量的方式,采用vscode 全局配置来实现模型定义,这种方式配置值在vscode中生效。找到 claude code: Environment Variables 选项,点击Edit in settings.json ,添加如下配置:

json
// ......
"claudeCode.preferredLocation": "panel",
"claudeCode.disableLoginPrompt": true,
"claudeCode.selectedModel": "glm-4.7",
"claudeCode.allowDangerouslySkipPermissions": true,
// 重要配置如下:
"claudeCode.environmentVariables": [
    {
      "name": "ANTHROPIC_AUTH_TOKEN",
      "value": "you ai api key"
    },
    {
      "name": "ANTHROPIC_BASE_URL",
      "value": "https://open.bigmodel.cn/api/anthropic"
    }
],
// .....

完成后保存即可。此时打开编辑器右上角 Claude Code 图标即可进行对话。终端命令依然可以采用系统环境变量切换模型。

参考资料

  • 推荐学习

Claude Code 的 16 个实用小技巧,高端玩法

Claude Code超级进化!subagents 功能让你从牛马秒变老板

AI Coding:一种新的编程协作范式

Claude Code 添加 MCP 服务器完整指南:从入门到精通

Claude Code超级进化!subagents 功能让你从牛马秒变老板

Google Gemin Cli

Gemini CLI 将 Gemini 模型的能力带到您的终端,提供一个交互式的读取-求值-输出循环(REPL)环境。Gemini CLI 由客户端应用(packages/cli)和本地服务器(packages/core)组成,后者负责管理与 Gemini API 及其 AI 模型的通信。Gemini CLI 还包含多种工具,用于执行文件系统操作、运行 shell 命令和网络请求等任务,这些功能由packages/core管理。

官方文档

安装

建议Node.js 20 及以上版本

shell
# 全局安装 CLI
npm install -g @google/gemini-cli

# 直接从 GitHub 主分支执行 CLI
npx https://github.com/google-gemini/gemini-cli

配置

Gemini CLI 使用 settings.json 文件进行持久化配置。这些文件有两个存储位置:

  1. 用户设置文件 $USER_HOME/.gemini/settings.json, 对当前用户的所有 Gemini CLI 会话生效

  2. 项目设置文件 $PROJECT_HOME/.gemini/settings.json, 仅当从该项目运行 Gemini CLI 时生效。项目设置会覆盖用户设置

关于设置文件中的环境变量说明:在 settings.json 文件中,字符串值可以通过"$VAR_NAME"或"${VAR_NAME}"语法引用环境变量。这些变量会在加载设置时自动解析。例如,如果您有一个环境变量 MY_API_TOKEN,可以在 settings.json 中这样使用:"apiKey": "$MY_API_TOKEN"。

详细配置文档

认证设置

Gemini CLI 需要您通过 Google AI 服务进行身份验证。首次启动时,您需要配置以下一种认证方式:

  1. 使用 Google 账号登录 (Gemini Code Assist):

  2. Gemini API 密钥

  3. 使用 Google 账号登录 (适用于 Workspace 版 Gemini Code Assist 或已授权 Code Assist 用户):

详细配置文档

自定义命令

Gemini CLI 提供一系列内置命令,帮助用户管理会话、自定义界面以及控制行为。这些命令以斜杠 / 开头。 Gemini CLI 从两个位置发现命令,并按特定顺序加载:

  1. 用户命令(全局): 位于 ~/.gemini/commands/。这些命令在用户正在处理的任何项目中都可用。

  2. 项目命令(局部): 位于 /.gemini/commands/。这些命令特定于当前项目,可以检入版本控制以便与团队共享。

命令的名称由其相对于 commands 目录的文件路径决定。子目录用于创建命名空间命令,路径分隔符(/ 或 \)将转换为冒号(:)。

~/.gemini/commands/test.toml 中的文件变为命令 /test

$project/.gemini/commands/git/commit.toml 中的文件变为命名空间命令 /git:commit。 自定义命令定义文件必须以 TOML 格式编写,并使用.toml 文件扩展名。

prompt (字符串):执行命令时将发送给 Gemini 模型的提示。这可以是单行或多行字符串。 description (字符串):命令功能的简短单行描述。此文本将显示在 /help 菜单中命令旁边。如果省略此字段,将根据文件名生成通用描述。prompt 中使用 !{...} 语法指定命令应在何处运行以及其输出的注入位置。

test 命令示例

toml
description = "需求拆解助手"

prompt = "请帮我拆解这个需求:  {{args}} "

git:commit 命令示例:

toml
# 文件路径: <project>/.gemini/commands/git/commit.toml
# 调用方式: /git:commit

description = "Generates a Git commit message based on staged changes."

# The prompt uses !{...} to execute the command and injectits output.
prompt = """
Please generate a Conventional Commit message based on the following git diff:
```
!{git diff --staged}
```
"""

Qwen Code

Qwen Code 是一款功能强大的命令行 AI 工作流程工具,改编自 Gemini CLI ( 详细信息 ),专门针对 Qwen3-Coder 模型进行了优化。它通过高级代码理解、自动化任务和智能协助来增强您的开发工作流程。github

前提条件

  • Node.js 20 及以上版本

安装Qwen Code Cli

shell
npm install -g @qwen-code/qwen-code@latest
qwen --version

Qwen OAuth(推荐)

  • 每天 2,000 个请求 ,无令牌限制
  • 每分钟 60 个请求 的速率限制

OpenAI 兼容 API

使用 OpenAI 或其他兼容提供商的 API 密钥:

  • 环境变量
shell
export OPENAI_API_KEY="ms-xxxxxx"
export OPENAI_BASE_URL="https://api-inference.modelscope.cn/v1/"
export OPENAI_MODEL="deepseek-ai/DeepSeek-V3.1"
  • 项目 .env 文件
shell
export OPENAI_API_KEY="sk-or-v1-xxx"
export OPENAI_BASE_URL="https://openrouter.ai/api/v1/"
export OPENAI_MODEL="anthropic/claude-3.7-sonnet"

MCP Server配置示例

配置文件在User/.qwen/settings.json

json
{
  "selectedAuthType": "openai",
  "theme": "Default",
  "tavilyApiKey": "tvly-dev-xxxx",
  "mcpServers": {
    "context7": {
      "type": "stdio",
      "command": "npx",
      "args": [
        "-y",
        "@upstash/context7-mcp@latest"
      ],
      "gallery": true
    },
    "playwright": {
      "type": "stdio",
      "command": "npx",
      "args": [
        "@playwright/mcp@latest"
      ],
      "gallery": true
    },
    "markitdown": {
      "type": "stdio",
      "command": "uvx",
      "args": [
        "markitdown-mcp"
      ],
      "gallery": true
    }
  }
}

GitHub Copilot CLI

安装

shell
npm install -g @github/copilot

启动

shell
copilot

首次启动时,您会看到我们可爱的动画横幅!如果您想再次看到此横幅,请启动 copilot 使用 --banner 旗。

如果您当前未登录 GitHub,系统将提示您使用 /login slash 命令。输入此命令并按照屏幕上的说明进行身份验证。

使用个人访问令牌 (PAT) 进行身份验证 还可以使用启用“Copilot 请求”权限的细粒度 PAT 进行身份验证。

访问 https://github.com/settings/personal-access-tokens/new https://github.com/settings/personal-access-tokens/new 在“权限”下,单击“添加权限”,然后选择“Copilot 请求” 生成令牌 通过环境变量将令牌添加到您的环境 GH_TOKEN 或 GITHUB_TOKEN (按优先顺序排列)

使用 CLI

发射 copilot 在包含要使用的代码的文件夹中。

默认情况下, copilot 使用 Claude Sonnet 4.5。运行 /model slash 命令从其他可用模型中进行选择,包括 Claude Sonnet 4 和 GPT-5

最近更新