Claude CodeでGLM-4.5を使用する方法 (2026年版)
Claude Code 内で GLM-4.5 を実行するためのステップバイステップの統合ガイド
Hyperealで構築を始めよう
Kling、Flux、Sora、Veoなどに単一のAPIでアクセス。無料クレジットで開始、数百万規模まで拡張可能。
クレジットカード不要 • 10万人以上の開発者 • エンタープライズ対応
Claude Codeで GLM-4.5 を使用する方法 (2026年版)
GLM-4.5 は Zhipu AI の最新の大規模言語モデルであり、強力な多言語能力、向上した推論性能、そしてコーディングベンチマークにおける競争力のあるパフォーマンスを提供します。Anthropic の CLI ベースの AI コーディングアシスタントである Claude Code は、設定システムを通じてカスタムモデルプロバイダーをサポートしています。このガイドでは、開発ワークフローで両方のツールを活用できるよう、GLM-4.5 を Claude Code に接続する手順を説明します。
なぜ GLM-4.5 と Claude Code を組み合わせるのか?
Claude Code のセットアップに GLM-4.5 を統合することには、いくつかの実用的な理由があります。
- 多言語サポート: GLM-4.5 は中国語やその他のアジア言語のタスクに長けており、英語に強い Claude の長所を補完します。
- コストの最適化: 単純なタスクは GLM-4.5 にルーティングし、複雑な推論が必要なタスクのために Claude を温存できます。
- モデルの多様性: モデルによって発見できるバグが異なります。複数のモデルを使用することで、コードレビューの網羅性が向上します。
- フォールバックの確保: 一方のプロバイダーにダウンタイムが発生しても、ワークフローを変えることなく他方に切り替えることができます。
前提条件
開始する前に、以下が準備されていることを確認してください。
- Claude Code のインストール (バージョン 1.0 以降):
npm install -g @anthropic-ai/claude-code
claude --version
Zhipu AI の API キー: open.bigmodel.cn で登録し、コンソールから API キーを生成してください。
Node.js 18+ がシステムにインストールされていること。
ステップ 1: GLM-4.5 API キーの取得
Zhipu AI の開発者コンソールに移動し、新しい API キーを作成します。
- open.bigmodel.cn にログインします。
- サイドバーの API Keys に移動します。
- Create API Key をクリックし、生成されたキーをコピーします。
- 安全な場所に保管してください。次のステップで使用します。
ステップ 2: OpenAI 互換プロキシの設定
GLM-4.5 は OpenAI 互換の API エンドポイントを公開しています。カスタムの OpenAI ベース URL をサポートするツールで直接使用できます。Zhipu AI の API ベース URL は以下の通りです。
https://open.bigmodel.cn/api/paas/v4
環境変数を設定します。
export GLM_API_KEY="your-zhipu-api-key-here"
export GLM_BASE_URL="https://open.bigmodel.cn/api/paas/v4"
これらを永続化するには、シェルプロファイル(~/.bashrc や ~/.zshrc など)に追加します。
echo 'export GLM_API_KEY="your-zhipu-api-key-here"' >> ~/.zshrc
echo 'export GLM_BASE_URL="https://open.bigmodel.cn/api/paas/v4"' >> ~/.zshrc
source ~/.zshrc
ステップ 3: LiteLLM をブリッジとして使用する
GLM-4.5 を Claude Code に接続する最も信頼性の高い方法は、異なる LLM プロバイダー間のユニバーサルプロキシとして機能する LiteLLM を使用することです。インストールは以下の通りです。
pip install litellm
~/litellm_config.yaml に LiteLLM 設定ファイルを作成します。
model_list:
- model_name: glm-4.5
litellm_params:
model: openai/glm-4.5
api_key: os.environ/GLM_API_KEY
api_base: https://open.bigmodel.cn/api/paas/v4
- model_name: glm-4.5-flash
litellm_params:
model: openai/glm-4.5-flash
api_key: os.environ/GLM_API_KEY
api_base: https://open.bigmodel.cn/api/paas/v4
LiteLLM プロキシを起動します。
litellm --config ~/litellm_config.yaml --port 4000
ステップ 4: Claude Code をプロキシに向ける
次に、LiteLLM プロキシ経由で GLM-4.5 を使用するように Claude Code を設定します。--model フラグと環境変数を使用して、セッションごとに実行できます。
ANTHROPIC_BASE_URL=http://localhost:4000 claude --model glm-4.5
または、より恒久的なセットアップのためにラッパースクリプトを作成します。
#!/bin/bash
# ~/bin/claude-glm
export ANTHROPIC_BASE_URL=http://localhost:4000
claude --model glm-4.5 "$@"
実行権限を付与します。
chmod +x ~/bin/claude-glm
これで、以下のように実行できます。
claude-glm "この関数を説明し、改善案を提示してください"
ステップ 5: 接続の確認
簡単なプロンプトでセットアップをテストします。
ANTHROPIC_BASE_URL=http://localhost:4000 claude --model glm-4.5 -p "あなたは何のモデルですか?1文で答えてください。"
自身を GLM-4.5 と識別する回答が返ってくるはずです。接続エラーが発生した場合は、以下を確認してください。
- LiteLLM プロキシがポート 4000 で動作しているか。
GLM_API_KEY環境変数が設定されているか。- ネットワークから Zhipu AI の API エンドポイントに到達可能か。
GLM-4.5 モデルのバリエーション
Zhipu AI はいくつかのモデルバリエーションを提供しています。以下はその比較です。
| モデル | コンテキストウィンドウ | 最適な用途 | 速度 | コスト |
|---|---|---|---|---|
glm-4.5 |
128K トークン | 複雑な推論、コーディング | 普通 | 高め |
glm-4.5-flash |
128K トークン | 高速なレスポンス、単純なタスク | 高速 | 低め |
glm-4.5-long |
1M トークン | 大規模なコードベース解析 | 低速 | 高め |
glm-4.5-vision |
128K トークン | 画像 + コードタスク | 普通 | 高め |
実用的なユースケース
ドキュメントを中国語に翻訳する:
claude-glm "この README.md を、すべての markdown 形式を維持したまま中国語に翻訳してください"
異なる視点でのコードレビュー:
git diff --staged | claude-glm -p "これらの変更に潜在的なバグがないかレビューしてください"
二ヶ国語のコメントを生成する:
claude-glm "src/utils/ 内のすべてのエクスポートされた関数に、2ヶ国語(英語/中国語)の JSDoc コメントを追加してください"
トラブルシューティング
| 問題 | 解決策 |
|---|---|
| ポート 4000 で接続が拒否される | litellm --config ~/litellm_config.yaml --port 4000 で LiteLLM を起動してください |
| 401 Unauthorized | GLM_API_KEY が有効で期限切れでないか確認してください |
| モデルが見つからない | LiteLLM 設定内のモデル名が正確に一致しているか確認してください |
| レスポンスが遅い | より高速な推論のために glm-4.5-flash を試してください |
| 文字化けした出力 | ターミナルが UTF-8 エンコーディングをサポートしているか確認してください |
パフォーマンス比較
テストにおける、Claude Code を介した GLM-4.5 と Claude の比較は以下の通りです。
| タスク | Claude Sonnet 3.5 | GLM-4.5 | 備考 |
|---|---|---|---|
| Python コード生成 | 非常に優れている | 良い | Claude の方がエッジケースの処理に長けている |
| 中国語ドキュメント | 良い | 非常に優れている | GLM-4.5 の方が自然な中国語を生成する |
| コードレビュー | 非常に優れている | 良い | 両者とも一般的な問題を捉える |
| 大規模ファイル解析 | 良い | 良い | GLM-4.5-long は 1M トークンに対応 |
| レスポンス速度 | 速い | 速い | GLM-4.5-flash は非常に競争力がある |
結論
GLM-4.5 を Claude Code に統合することで、ターミナルベースの開発ワークフローの中で強力な多言語モデルを直接利用できるようになります。LiteLLM プロキシを使用した手法はクリーンで柔軟性が高く、ツール自体を変更することなくモデルを切り替えることが可能です。
画像、ビデオ、オーディオ、トーキングアバターなどの AI 搭載メディア生成を必要とするアプリケーションを構築している場合は、 Hypereal AI をチェックしてみてください。Hypereal は、従量課金制の価格設定と最新の生成モデルへのアクセスを備えた統合 API を提供しており、インフラの管理ではなく製品の構築に集中することができます。
