GLM-4.6 API の使い方:開発者向け完全ガイド (2026年版)
Zhipu AI の最新モデルをアプリケーションに統合する
Hyperealで構築を始めよう
Kling、Flux、Sora、Veoなどに単一のAPIでアクセス。無料クレジットで開始、数百万規模まで拡張可能。
クレジットカード不要 • 10万人以上の開発者 • エンタープライズ対応
GLM-4.6 API の使い方:完全デベロッパーガイド (2026年版)
Zhipu AIの GLM-4.6 は、中国発の最も有能な大規模言語モデルの1つであり、主要なベンチマークにおいて GPT-4o や Claude Sonnet と肩を並べています。中国語と英語をネイティブにサポートし、競争力のある価格設定を提供しており、OpenAI 互換の API により移行もスムーズです。このガイドでは、利用開始に必要なすべてを解説します。
GLM-4.6 とは?
GLM-4.6 は、Zhipu AI の GLM (General Language Model) ファミリーの最新モデルです。テキスト生成、コード、推論、ツール利用、ビジョンタスクを処理できる大型マルチモーダルモデルです。主なハイライトは以下の通りです:
- 強力なバイリンガル性能(中国語と英語)
- 128K のコンテキストウィンドウ
- Function calling およびツール利用のサポート
- ビジョン機能(画像理解)
- OpenAI 互換の API フォーマット
- 競争力のある価格設定(GPT-4o より大幅に安価)
GLM モデルラインナップ
| モデル | コンテキストウィンドウ | 特徴 | 料金 (1M トークンあたり) |
|---|---|---|---|
| GLM-4.6 | 128K | 総合的に最高のパフォーマンス | 入力 ~$2.00 / 出力 ~$6.00 |
| GLM-4.6-Flash | 128K | 高速・低コスト | 入力 ~$0.10 / 出力 ~$0.30 |
| GLM-4V-Plus | 8K | ビジョン + テキスト | 入力 ~$3.00 / 出力 ~$9.00 |
| GLM-4.6-Long | 1M | 超ロングコンテキスト | 入力 ~$1.00 / 出力 ~$3.00 |
※価格は概算であり、変動する可能性があります。最新のレートは Zhipu AI プラットフォームで確認してください。
ステップ 1:Zhipu AI アカウントの作成
- open.bigmodel.cn (Zhipu AI の開発者プラットフォーム) にアクセスします。
- "Sign Up" をクリックし、メールアドレスまたは電話番号で登録します。
- 本人確認(API アクセスに必要)を完了させます。
- 新規アカウントには無料トライアルクレジットが付与されます。通常、数千回の API コールが可能です。
ステップ 2:API キーの生成
- Zhipu AI デベロッパーコンソールにログインします。
- 左サイドバーの API Keys に移動します。
- "Create API Key" をクリックします。
- キーをコピーし、安全に保管してください。
export ZHIPU_API_KEY="your-api-key-here"
ステップ 3:最初の API コールを実行する
GLM-4.6 API は OpenAI の chat completions フォーマットに従っているため、OpenAI やその他の互換 API を既に使用している場合は、簡単に統合できます。
Python の例
import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ["ZHIPU_API_KEY"],
base_url="https://open.bigmodel.cn/api/paas/v4"
)
response = client.chat.completions.create(
model="glm-4.6",
messages=[
{"role": "system", "content": "You are a helpful coding assistant."},
{"role": "user", "content": "Write a Python function to find the longest palindromic substring in a string. Use dynamic programming."}
],
temperature=0.7,
max_tokens=2048
)
print(response.choices[0].message.content)
print(f"Tokens used: {response.usage.total_tokens}")
JavaScript / TypeScript の例
import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.ZHIPU_API_KEY,
baseURL: "https://open.bigmodel.cn/api/paas/v4",
});
async function main() {
const response = await client.chat.completions.create({
model: "glm-4.6",
messages: [
{ role: "system", content: "You are a helpful coding assistant." },
{
role: "user",
content:
"Write a TypeScript function to debounce API calls with proper generic typing.",
},
],
temperature: 0.7,
max_tokens: 2048,
});
console.log(response.choices[0].message.content);
console.log(`Tokens used: ${response.usage?.total_tokens}`);
}
main();
cURL の例
curl https://open.bigmodel.cn/api/paas/v4/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $ZHIPU_API_KEY" \
-d '{
"model": "glm-4.6",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain how transformer attention mechanisms work."}
],
"temperature": 0.7,
"max_tokens": 1024
}'
ステップ 4:ストリーミングレスポンスを使用する
リアルタイムアプリケーションでは、生成されたトークンを順次取得するためにストリーミングを使用します:
stream = client.chat.completions.create(
model="glm-4.6",
messages=[
{"role": "user", "content": "Write a comprehensive guide to Rust error handling."}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
ステップ 5:Function Calling を使用する
GLM-4.6 は Function calling(ツール利用)をサポートしており、モデルが外部 API やデータベースとやり取りすることを可能にします。
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get the current weather for a location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "City name, e.g., Beijing, San Francisco"
},
"unit": {
"type": "string",
"enum": ["celsius", "fahrenheit"]
}
},
"required": ["location"]
}
}
}
]
response = client.chat.completions.create(
model="glm-4.6",
messages=[
{"role": "user", "content": "What's the weather like in Shanghai today?"}
],
tools=tools,
tool_choice="auto"
)
# モデルが関数を呼び出そうとしているかチェック
message = response.choices[0].message
if message.tool_calls:
for tool_call in message.tool_calls:
print(f"Function: {tool_call.function.name}")
print(f"Arguments: {tool_call.function.arguments}")
ステップ 6:ビジョン機能を使用する
GLM-4V-Plus は画像認識をサポートしています。画像を base64 または URL として送信します:
import base64
with open("diagram.png", "rb") as f:
image_b64 = base64.b64encode(f.read()).decode()
response = client.chat.completions.create(
model="glm-4v-plus",
messages=[
{
"role": "user",
"content": [
{"type": "text", "text": "Describe this system architecture diagram in detail."},
{
"type": "image_url",
"image_url": {"url": f"data:image/png;base64,{image_b64}"}
}
]
}
]
)
print(response.choices[0].message.content)
GLM-4.6 vs. 他の LLM API
| 機能 | GLM-4.6 | GPT-4o | Claude Sonnet | Gemini 2.0 Flash |
|---|---|---|---|---|
| 入力価格 (1M トークンあたり) | ~$2.00 | $2.50 | $3.00 | $0.10 |
| 出力価格 (1M トークンあたり) | ~$6.00 | $10.00 | $15.00 | $0.40 |
| コンテキストウィンドウ | 128K | 128K | 200K | 1M |
| 中国語の品質 | 非常に優れている | 良好 | 良好 | 良好 |
| 英語の品質 | 非常に良好 | 非常に優れている | 非常に優れている | 良好 |
| コーディング能力 | 強力 | 非常に優れている | 非常に優れている | 良好 |
| Function calling | 対応 | 対応 | 対応 | 対応 |
| ビジョン | 対応 (GLM-4V) | 対応 | 対応 | 対応 |
| OpenAI 互換 API | 対応 | ネイティブ | 非対応 (独自形式) | 非対応 (独自形式) |
GLM-4.6 は、強力な中国語サポートを必要とするアプリケーションにおいて、最高のコストパフォーマンスを提供します。英語のみのアプリケーションでは、GPT-4o や Claude Sonnet が依然として推論やコーディングにおいて優位性を持っています。
エラーハンドリングのベストプラクティス
統合の際には、堅牢なエラーハンドリングを構築してください:
from openai import OpenAI, APIError, RateLimitError, APIConnectionError
import time
def call_glm(messages, max_retries=3):
for attempt in range(max_retries):
try:
response = client.chat.completions.create(
model="glm-4.6",
messages=messages,
timeout=30
)
return response.choices[0].message.content
except RateLimitError:
wait = 2 ** attempt
print(f"Rate limited, waiting {wait}s...")
time.sleep(wait)
except APIConnectionError:
print("Connection error, retrying...")
time.sleep(1)
except APIError as e:
print(f"API error: {e}")
break
return None
最良の結果を得るためのヒント
単純なタスクには GLM-4.6-Flash を使用する。 フル版の GLM-4.6 よりも 20 倍安価であり、単純な生成、要約、分類タスクを十分にこなせます。
ターゲット言語でプロンプトを出す。 GLM-4.6 はバイリンガルですが、期待する出力と同じ言語でプロンプトを出す方がより良い結果が得られます。言語を混ぜるのは必要な時だけにしましょう。
ロングコンテキストを活用する。 GLM-4.6-Long は最大 1M トークンのコンテキストをサポートしています。コードベース全体の分析、長い文書、または複数文書のナレッジ検索(RAG)に使用してください。
システムプロンプトを効果的に使用する。 GLM-4.6 はシステムプロンプトに忠実です。出力形式、言語、スタイルに関する明確な指示を事前に定義してください。
よくある質問
登録に中国の電話番号は必要ですか? 海外ユーザー向けにメール登録が可能です。ただし、一部の機能には追加の検証が必要な場合があります。API 自体はグローバルに動作します。
GLM-4.6 には検閲がありますか? このモデルは中国のコンテンツ規制に従っています。特定の政治的またはデリケートなトピックについては、フィルターがかかった回答が返される場合があります。技術的またはビジネス用途においては、これが問題になることはほとんどありません。
OpenAI の Python ライブラリは使えますか?
はい。API が OpenAI フォーマットに従っているため、base URL と API キーを変更するだけで、公式の openai Python パッケージを使用できます。
GPT-4o と比較してレイテンシはどうですか? レイテンシは場所によります。アジア圏からは、通常 GLM-4.6 の方が高速です。北米やヨーロッパからは、サーバーの物理的な近さにより GPT-4o の方が低遅延になることが一般的です。
まとめ
GLM-4.6 は、特に中国語圏のユーザーを対象としたアプリケーションにおいて、高性能で手頃な価格の LLM API を求める開発者にとって強力な選択肢です。OpenAI 互換のフォーマットにより移行の負担は少なく、価格競争力も非常に高いです。まずは無料トライアルのクレジットでユースケースをテストし、そこからスケールさせてみてください。
もし LLM 統合に加えて、画像、動画、アバター生成などの AI メディア生成機能も必要な場合は、統合プラットフォームの検討をお勧めします。
Hypereal AI を無料で試す -- 35 クレジット付与、クレジットカード不要。
